최종편집:2024-04-28 00:17 (일)
실시간
[칼럼] 인공지능기본법안에 대한 두 가지 관점

[칼럼] 인공지능기본법안에 대한 두 가지 관점

  • 기자명 정석윤 법무법인 원 인공지능대응팀 변호사
  • 입력 2023.05.15 18:01
  • 수정 2023.06.05 17:09
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다

특별 연재 칼럼, 법과 AI ⑯

인공지능(AI) 전문매체 THE AI는 국내 최고 수준의 AI 전문 대응팀을 운영하고 있는 법무법인 '원'과 공동으로, AI에 대한 다양한 법률 전문가 시각을 다뤄보는 ‘특별 연재 칼럼, 법과 AI'를 기획했습니다. 현재 법 체계와 발전하고 있는 AI 사이에서 볼 수 있는 시각차, AI 중심으로 재편되고 있는 우리 사회가 앞으로 나아가야 할 방향 등에 대해 고민해볼 수 있는 시간이 될 것입니다. 독자 여러분들의 많은 관심을 바랍니다.  - 편집자 주

정석윤 법무법인 원 인공지능대응팀 변호사. /법무법인 원
정석윤 법무법인 원 인공지능대응팀 변호사. /법무법인 원

인공지능(AI)을 이용한 기술의 발전속도가 놀랍다. ‘인공지능 기술을 통해 우리 생활이 얼마나 편리해질까?’라는 기분좋은 상상을 넘어서서 이제는 ‘인공지능 기술이 우리 생활을 얼마나 달라지게 할 것인가?’라는 두려움까지 느껴질 정도다. 

최근 이와 비슷한 이유에서 일론 머스크, 유발 하라리와 같은 저명인사들과 AI 관련 전문가들이 공개서한을 통해 안전한 프로토콜이 개발될 때까지 강력한 AI 개발을 최소 6개월간 중단하자고 제안했다고 한다. AI 전문가들조차 지금의 기술개발 속도를 걱정할 정도라는 것이다.

이처럼 놀라울 정도의 AI 기술 발전 속도에 비해, 법∙제도에 대한 사회적 논의는 매우 더디게 느껴진다. 그나마 유럽의회는 2021년 4월 EU집행위원회가 제정한 인공지능법(EU AI Act) 초안을 기초로 올해 내 최종안을 확정한 뒤 EU회원국들과 조율을 거쳐 법률로 채택할 것이라고 한다. 

우리의 경우, 2020년 7월 발의된 ‘인공지능 연구개발 및 산업 진흥, 윤리적 책임 등에 관한 법률안’을 시작으로 2022년 12월 발의된 ‘인공지능산업육성 및 신뢰확보에 관한 법률안’까지 총 7개의 법률안이 발의되었는데, 지난 2월 14일 국회 과학기술정보방송통신위원회의 법안심사소위원회는 당시까지 발의된 7개의 법안을 폐기하고 그 내용을 통합 조정한 대안을 법안심사소위원회 대안으로 가결했다(이하에서는 이 대안의 내용을 중심으로 한다).

AI 기술에 관한 기본법을 제정함에 있어서 가장 근본적인 쟁점은 ‘인공지능기본법의 관점을 어디에 둘 것인가?’라는 점이다. AI 기술의 개발을 촉진하고 이를 이용한 산업의 발전에 중점을 둘 것인지, 아니면 AI 기술의 발전에 대한 경각심을 가지고 그것이 불러올 수 있는 사회적 위험을 예방하기 위한 법적 규제에 중점을 둘 것인지의 문제다. 두 가지 모두 필요성이 인정된다는 점에서 이를 조화시키는 것이 중요한 과제다.

EU집행위원회 인공지능법(EU AI Act) 초안의 경우, AI 기술에 대한 위험을 개인과 사회에 위협이 되는 정도에 따라 ① 수용불가(unacceptable risk), ② 고위험(high risk), ③ 제한된 위험(limited risk), ④ 최소위험(minimal risk)로 나누고 각 분류에 따라 법적 의무를 부과한다는 점이 특징이다. 특히 ‘사람의 신체적 또는 정신적 피해를 유발하거나 유발할 가능성’을 막기 위하여 이러한 위험성이 있는 AI 기술 등 4가지 영역을 수용불가위험으로 분류하고 이를 금지하는데, 이처럼 특정 분야의 인공지능기술 자체를 금지하고 있다는 점에서 ‘사회적 위험을 예방하기 위한 규제’에 중점을 두고 ‘산업의 발전’을 보완하고자 하는 것으로 평가할 수 있다.

반면, 우리의 인공지능기본법률안의 경우, 인공지능기술의 연구∙개발 및 인공지능제품, 인공지능서비스가 출시되는 경우, 이를 허용하는 것을 원칙으로 하되, 다만 해당 제품 또는 서비스가 국민의 생명∙안전과 권익에 위해가 되거나 공공의 안전 등을 현저히 저해하는 경우에 한하여 이를 사후적으로 제한하도록 하는 ‘우선허용, 사후규제 원칙’을 명시하였다고 알려지고 있고, 안면인식기술과 같은 9개 분야 인공지능기술을 고위험영역 인공지능으로 분류하고 있으나 이를 직접 금지하지는 않았다는 점에서 ‘산업의 발전’에 보다 중점을 두었다고 평가할 수 있다. 

그런데, 우리는 유럽의회가 우려하는 인공지능기술의 사회적 위험성에 대해 충분한 논의와 고민이 있었던 것일까? 우리는 유럽과 달리 그와 같은 사회적 위험성을 무시해도 괜찮을 것인가?라는 문제제기가 있을 수밖에 없다.

AI라는 무한한 영역의 기술발전을 촉진해야 한다는 점도 중요하지만 그로 인한 사회적 위험성과 이를 예방하기 위한 조치가 필요한지 여부도 그에 못지 않게 중요하다는 점에서 신중한 검토와 고민이 필요한 시점이다. 

두 가지 관점이 모두 중요한만큼 좀 더 균형적인 관점에서 인공지능기술이 불러올 수 있는 사회적 위험에 대해서도 진지한 논의가 이루어지기를 기대한다.

※ 이 칼럼은 전남대학교 법학전문대학원 홍석한 교수님의 “유럽연합 ‘인공지능법안’의 주요 내용과 시사점”을 참고했습니다.

저작권자 © THE AI 무단전재 및 재배포 금지
관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전