Colum
특별 연재 칼럼, 법과 AI ⑪
-
인공지능(AI) 전문매체 THE AI는 국내 최고 수준의 AI 전문 대응팀을 운영하고 있는 법무법인 '원'과 공동으로, AI에 대한 다양한 법률 전문가 시각을 다뤄보는 ‘특별 연재 칼럼, 법과 AI'를 기획했습니다. 현재 법 체계와 발전하고 있는 AI 사이에서 볼 수 있는 시각차, AI 중심으로 재편되고 있는 우리 사회가 앞으로 나아가야 할 방향 등에 대해 고민해볼 수 있는 시간이 될 것입니다. 독자 여러분들의 많은 관심을 바랍니다. 편집자 주
-
최근 콜롬비아의 판사가 ‘건강보험회사가 자폐아동의 치료비 지급을 거부할 수 있는지 여부’가 쟁점이 된 사건의 판결문을 작성하면서 “미국의 ‘OpenAI’에서 만든 인공지능 챗봇 ‘ChatGPT’를 사용하였다고 밝혀 화제가 되었다. 판사가 판결을 하면서 ChatGPT를 사용하는 것은 무책임하다는 비판도 있었지만, 앞으로 인공지능을 재판에 활용하는 방식은 일반적으로 받아들여지게 될 것이라는 의견도 많았다.
판결문에서 인공지능의 활용 사실을 명시한 사례는 이번이 처음이라고 하지만, 이전에도 법원의 판단에 AI 기술을 사용하려는 다양한 시도들이 있었다. 프랑스에서는 2017년 항소 법원의 사건에 대한 판결 예측 프로그램을 시험한 적이 있었고, 에스토니아에서는 2019년 소가 7,000유로 이하인 소액 사건의 판결을 담당하는 로봇 판사 개발 프로젝트에 착수한 일도 있었다. 미국의 위스콘신 주 법원에서는 빅데이터 분석 인공지능인 ‘COMPAS’를 활용하여 ‘범죄자의 재범가능성’을 형량에 반영하고 있다.
우리나라도 예외는 아니다. 법원행정처는 2020년 12월 ‘손해배상 사건에서의 인공지능(AI) 활용방안’에 대한 연구용역을 발주하였고, 서울대학교 산학협력단이 연구용역을 수행하여 손해배상 사건에서 과실상계 비율과 위자료 액수를 예측하는 인공지능 모형을 구현하기도 했다.
판사의 판단에 인공지능기술을 사용한다면 재판의 신속성을 제고할 수 있다. ‘지연된 정의는 정의가 아니다’라는 격언과 같이, 당사자들의 권리를 보호하기 위해서는 신속한 재판이 필수적인데, 인공지능 기술의 사용은 재판의 신속한 진행에 많은 도움을 줄 것으로 기대된다. 또한 빅데이터를 기반으로 한 인공지능기술은 수많은 자료를 빠른 시간에 분석함으로써, 판사가 업무를 더욱 효율적으로 처리 할 수 있도록 도움을 줄 수 있을 것이다.
그러나 재판에 인공지능기술을 활용하는데 우려되는 점도 많다. 인공지능이 학습하기 위해서는 수 많은 데이터가 필요한데, 학습 데이터가 편향되어 있을 경우 인공지능 또한 편향된 결과를 도출할 수 밖에 없기 때문이다. 미국의 ‘MIT 테크놀로지 리뷰(MIT Technology Review)’의 보도에 따르면, 범죄자의 재범가능성을 예측하기 위해 사용하는 ‘COMPAS’는 과거 경찰이 소수 인종을 더 많이 체포해 온 데이터를 사용한 결과, 흑인 이 백인보다 고위험으로 분류될 가능성이 두 배 더 높다고 한다. 이처럼 과거의 누적된 편견과 차별이 반영된 데이터를 사용해서 학습한 인공지능은, 편견과 차별을 재생산하고 정당화하는 수단으로 사용될 위험성이 매우 높다.
2021년 10월 발표된 ‘유럽의회 형사사법 인공지능 결의안’에서는 이러한 위험을 고려하여, 투명성과 책임성을 탑재한 인공지능이 도입되어 시민의 기본권에 아무런 해도 입히지 않는다는 것을 신뢰할 수 있을 때까지 형사재판에서 인공지능이 내린 결정을 그대로 사용해서는 안 된다고 정하였다.
인공지능기술을 법원의 판단에 사용하는 것이 헌법에 위반되는지 여부도 문제될 수 있다. 헌법 제27조 제1항에서는 ‘재판을 받을 권리’를 정하고 있으며, 제101조 제1항에서는 ‘사법권은 법관으로 구성된 법원에 속한다’ 제3항에서는 ‘법관의 자격은 법률로 정한다’고 정하고 있다. 이처럼 헌법에 의해 사법권을 부여 받은 법원에서 법률로 자격이 정해진 법관이 판단을 하기 때문에, 많은 사람들이 판사의 판결을 신뢰하고 정당하다고 믿는 것이다. 그런데 만약 인공지능 챗봇의 답변에 따라 판결을 한다면, 과연 그 판결은 판사의 판단으로 볼 수 있을까?
물론 앞에서 문제가 된 콜롬비아 판사도 ‘ChatGPT’가 판결문 작성을 편하게 해 주는 도구일 뿐 인공지능이 판사가 되는 것은 아니라고 주장했고, 실제로 ‘ChatGPT’의 답변 그 자체가 판결이라고 할 수는 없다.
그러나 인공지능 기술 발전 속도를 보면, 인공지능이 판결 초안을 작성하게 되는 날도 머지 않은 것 같다. 인공지능이 초안을 작성한 판결을 과연 어디까지 신뢰하고 허용할 수 있을 것인가? 판결이 우리의 삶에 미치는 중대한 영향을 고려해 볼 때, 인공지능 기술을 재판에 활용하는 방식에 대해서는 보다 신중한 접근과 광범위한 사회적 합의가 필요하다.