닫기 공유하기

구글 "살상무기에는 인공지능 쓰지 않겠다"

구글, AI 활용 7가지 원칙 준수할 것
"AI 분야 리더로서 깊은 책임감 느껴"

[편집자주]

선다 피차이 구글 최고경영자(CEO) © AFP=뉴스1
선다 피차이 구글 최고경영자(CEO) © AFP=뉴스1

구글이 7일(현지시간) 살상무기와 부당한 감시 활동에 인공지능(AI) 기술을 활용하지 않겠다는 방침을 세웠다.

선다 피차이 구글 최고경영자(CEO)는 이날 블로그 게시물을 통해 이 같은 내용이 담긴 구글의 AI 활용 정책을 발표했다.

이날 피차이 CEO는 "AI가 어떻게 개발되고 활용되는지는 앞으로 오랫동안 사회에 중대한 영향을 끼칠 것이다. AI 분야의 리더로서 올바른 일을 하는 데 우리는 깊은 책임감을 느낀다"면서 구글이 향후 AI를 활용할 때 준수할 7가지 원칙을 제시했다.

먼저 구글의 AI는 사람들이 긴급한 문제를 해결하는 데 활용돼야 한다. 이를테면 불이 났을 때 피해 상황을 예측하고, 농부들의 가축을 돌보고, 암을 진단하거나 실명을 예방하는 등의 활동에 도움이 될 수 있다.

구글의 AI 프로그램은 사회적으로 유익해야 하며 불공정한 편견을 일으키거나 강화해서는 안 된다는 내용도 원칙에 포함됐다.

또한 구글의 AI는 사람에게 직접적인 위해를 가하거나 간접적으로 부상을 입히는 데 쓰이면 안 된다. 구글은 국제 관행에 어긋나는 감시 및 정보수집활동에도 AI를 활용할 수 없다.

이 밖에도 △안전을 위해 구축되고 시험을 거칠 것 △사람들에게 기술에 관해 설명할 책임을 가질 것 △사생활 보호 원칙을 세울 것 △과학적 우수성의 높은 기준을 유지할 것 등이 7가지 원칙에 들어갔다.

앞서 구글은 미군과 계약을 체결하고 AI 드론 시스템을 개발하는 데 협조했다는 사실이 드러나 직원들과 사용자들의 분노를 샀다. 향후 구글은 미국의 정부·군대와 계속 협력하되, 사이버보안이나 군의 채용·훈련·탐색·구조 관련해서만 업무를 이어간다는 방침이다.
로딩 아이콘