닫기 공유하기

AI스피커 부른 '목소리' 훔친다…사생활 침해·보안위협 '우려'

[편집자주]

아마존의 인공지능 스피커 ''에코' © News1
아마존의 인공지능 스피커 ''에코' © News1

최근 국내에서 인기를 끌고 있는 인공지능(AI) 스피커가 사생활 침해와 보안위협을 일으킬 수 있다는 우려가 나오고 있다.

AI 스피커의 원조인 아마존의 '에코'는 최근 미국 오리건주 포틀랜드에 거주하는 부부가 집에서 나눈 사적 대화를 녹음해 연락처에 저장한 사람에게 멋대로 보낸 사례가 알려지며 구설에 올랐다. 에코는 지난 3월에도 명령없이 갑자기 기이한 웃음소리를 재생해 논란이 됐다.

대부분 AI 스피커는 특정 단어를 '호출 명령어'로 사용한다. 에코의 경우 아마존의 AI 비서 이름인 '알렉사'를 부르면 작동을 시작하고 명령을 받을 준비를 한다. 아마존은 부부가 나누던 대화 중 특정 단어를 에코가 호출 명령어로 착각해 작동을 시작했고, 이후 대화 내용 중 일부를 메시지 전송 요청으로 잘못 알아들어 이 같은 일이 일어났다고 해명했다. 아마존 측은 이 사건이 극히 희박한 사례라고 설명했지만, 전문가들은 호출 명령어를 탈취해 AI 스피커로 도청 등의 악의적인 행동을 취하는 '음성 하이재킹'의 위험성이 크다고 경고하고 있다.

최근 블루밍턴 인디애나 대학, 버지니아 대학, 중국과학원 공동 연구진은 AI 스피커를 호출할 때와 비슷한 단어를 명령어로 심어 악의적인 행동을 하도록 만드는 '음성 무단 점거'(voice squatting)가 가능하다는 연구결과를 내놨다. 이들은 특정 업체 기기나 인터넷 서비스를 알렉사와 연계해 사용할 수 있도록 해주는 '스킬'(Skill)을 이용해 기존 명령어와 비슷한 단어로 도청을 시작하도록 만들었다. 이 기술로 연구자들은 알렉사에서 102초, 구글 홈에서 264초 동안 음성을 기록할 수 있었다. 연구진은 이런 방식으로 은행 서비스를 가장해 피싱 공격을 하거나 뉴스 채널로 위장해 가짜 뉴스를 방송할 수 있다고 경고했다.

앞서 미국 버클리 캘리포니아대(UC버클리) 연구진은 음악이나 음성 텍스트에 특정 명령어를 심어 AI 스피커를 작동하게 할 수 있다는 내용의 연구논문을 발표하기도 했다. 미국 프린스턴 대학과 중국 절강대학 연구진들은 지난해 인간의 귀에 들리지 않는 주파수를 이용해 AI 비서에게 명령을 내릴 수 있다는 것을 보여주기도 했다.

현재 AI 스피커는 홈 네트워크를 비롯한 금융, 쇼핑 등 다양한 시스템과 연결되고 있어 현재 작동 방식에 대한 보안 개선 요구가 높아질 전망이다. 정보보안 업체 프라이버시 프로페서의 레베카 헤럴드 CEO는 "'알렉사'라는 단어만 전달하면 AI 비서가 통신과 행동을 시작하는 방식은 컴퓨터 암호를 '1·2·3'으로 사용하는 것과 같은 수준의 보안"이라고 지적했다.
로딩 아이콘