닫기 공유하기

"인공지능 판사, 민주적 정당성 차원서 문제될 수 있어"

김중권 중앙대 로스쿨 교수 사법정책연 심포지엄서 발표

[편집자주]

(대법원 제공) © 뉴스1
(대법원 제공) © 뉴스1

인공지능(AI) 판사가 도입돼 국가 권력을 AI가 행사할 경우 민주적 정당성 차원에서 문제가 될 수 있다는 의견이 나왔다.

김중권 중앙대 법학전문대학원 교수는 18일 서울 서초동 서울법원종합청사 청심홀에서 열린 'AI와 법 그리고 인간' 심포지엄에서 주제 발표를 통해 이같이 밝혔다.

김 교수는 "민주주의와 법치국가원리는 민주적 정당성을 지닌 자연인에 의한 지배를 바탕으로 한다"며 "국가권력 행사에서의 AI도입은 특히 인적 민주적 정당성 차원에서 문제될 수 있다"고 지적했다.

그는 "기계가 AI에 의해 스스로 향상될 수 있는 시점까지 어떤 전문가시스템도 인간통제 없이 출현할 수는 없다"며 "인풋과 아웃풋을 통제할 수 있는 전문가를 항상 필요로 할 것이고, 정보지식을 구비한 더 유능한 법조인이 요구된다"고 봤다.

이어 "맹목적 기술신봉에서 법조직업의 종말을 외치는 건 전혀 타당하지 않다"며 "현재의 한계를 인식하고 AI프로그램을 효과적으로 활용해야 할 것"이라고 언급했다.

그러면서 "AI 입법과 AI 재판, AI 행정에 관한 움직임 이면엔 기성 국가작용 메커니즘에 대한 심각한 불신이 있다"고 진단했다.

사법분야에서 AI를 활용하려면 윤리적 사용지침이 마련돼야 한다는 제언도 나왔다.

에스토니아의 Kai Härmand 법무부차관(판사)은 450여개 기관과 150여개 공공기관 이 쓰는 에스토니아의 국가정보 교환플랫폼인 엑스로드(X-road)를 소개하고, 사법분야에선 검색·번역·기록·자문영역에서 AI를 활용할 수 있다면서 이처럼 말했다.

오스트리아의 마르크 코켈버그(Mark Coeckelbergh) 빈 대학교 교수는 "AI로 인한 도덕적·법적 책임주체는 기술이 될 수 없고 인간이 돼야 하는데, 주체가 불분명하고 AI 알고리즘이 불투명한 문제가 있다"고 지적하며 AI 윤리지침을 제시했다.

구체적으로 인간의 감독과 기술적 안정성, 데이터 관리, 투명성, 차별금지, 공정성이다.

옥스퍼드 딥 테크 분쟁해결연구소 리 지 엔(Ji En Lee) 연구원은 증거분석과 자동기록을 통해 판사업무를 지원하는 중국의 '206' 시스템, 교통사고 사건을 위한 싱가포르의 시뮬레이션 프로그램, 범죄자 위험평가 도구인 미국의 콤파스(COMPAS)를 소개했다.

이어 "법률분야에 AI를 적용할 때 생길 수 있는 윤리적 문제를 해결하려면 공정, 투명, 설명 가능성, 기본권 존중, 데이터 정확성과 보안, 협력과 포용, 이용자에 의한 통제 등 요소를 고려해 AI를 개발해야 할 것"이라고 말했다.

발표에 앞서 강현중 사법정책연구원장은 개회사에서 "이미 전산화돼 축적된 법률문서 및 정보가 AI에 의해 활용된다면 법조인 업무에도 큰 변화가 올 것"이라며 "정보기술(IT) 강국인 한국은 AI영역에서도 앞서나갈 저력이 있다"고 밝혔다.

조재연 법원행정처장은 축사에서 법원이 추진하는 차세대전자소송 시스템구축 사업을 언급하고 "축적된 기존 전자소송문서 등 정보를 빅데이터 형태로 AI기술에 활용할 수 있을 것"이라고 설명했다.

이번 심포지엄은 사법정책연구원이 중앙대 인문콘텐츠연구소, 한국인공지능법학회, AI정책포럼과 공동으로 대한변호사협회와 한국연구재단, 교육부 후원을 받아 개최했다.
연관 키워드
로딩 아이콘