최종편집:2024-04-28 00:17 (일)
실시간
[칼럼] 인공지능 기술의 규제와 속도조절

[칼럼] 인공지능 기술의 규제와 속도조절

  • 기자명 이유정 법무법인 원 인공지능대응팀 변호사
  • 입력 2023.04.18 18:35
  • 수정 2023.04.24 16:13
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다

특별 연재 칼럼, 법과 AI ⑭

인공지능(AI) 전문매체 THE AI는 국내 최고 수준의 AI 전문 대응팀을 운영하고 있는 법무법인 '원'과 공동으로, AI에 대한 다양한 법률 전문가 시각을 다뤄보는 ‘특별 연재 칼럼, 법과 AI'를 기획했습니다. 현재 법 체계와 발전하고 있는 AI 사이에서 볼 수 있는 시각차, AI 중심으로 재편되고 있는 우리 사회가 앞으로 나아가야 할 방향 등에 대해 고민해볼 수 있는 시간이 될 것입니다. 독자 여러분들의 많은 관심을 바랍니다.  - 편집자 주

이유정 법무법인 원 인공지능대응팀 변호사
이유정 법무법인 원 인공지능대응팀 변호사

챗GPT가 공개된지 불과 몇 개월만에 세상은 현기증이 날 만큼 빠른 속도로 변화하고 있다. 인공지능(AI)이라고 하면 SF영화에서 보는 로봇을 떠올리던 사람들은 이제 다양한 ‘생성형 인공지능(Generative AI)’ 프로그램을 이용해서 대화를 하고, 문서를 작성하고, 과제를 제출하고, 그림을 그리고, 영상을 제작한다. 인터넷을 검색하면 생성형 AI에 대한 사용법과 온갖 정보들이 넘쳐난다. 

이렇게 AI가 사람보다 훨씬 빠르고 정확하게 답변을 하고, 사람보다 수준 높은 글과 그림과 동영상을 만들어 내는 모습을 보면, 앞으로 인간은 무엇을 하고 살아야 하나 불안한 마음이 든다. 사람들의 생각이 모두 비슷한지, 최근 몇 주 동안에는 AI 기술로 인한 위험을 관리하기 위해 기술 발전 속도에 제동을 걸어야 한다는 보도들이 이어졌다. 

지난 3월 29일 AI관련 전문가들이 AI 시스템 개발 속도를 줄이자는 공개서한을 발표했다. 일론 머스크, 유발 하라리 등이 서명한 이 공개서한에서 AI 전문가들은 “독립적인 외부 전문가가 감독하는 안전 프로토콜을 개발할 때까지 모든 AI 연구소에서 GPT-4보다 강력한 AI 개발을 최소 6개월간 중단할 것으로 요청한다”고 하면서 “강력한 AI 시스템은 그 효과가 긍정적이고 위험을 관리할 수 있을 것이라는 확신이 있을 때만 개발해야 한다”고 주장했다. 3월 30일에는 비영리 연구 그룹인 '인공지능(AI) 및 디지털 정책 센터'가 미국의 FTC(Federal Trade Commission. 연방거래위원회)에 오픈 AI의 챗GPT가 불공정하고 기만적인 영업활동을 하고 있다며 챗GPT의 배포를 중단하게 해 줄 것을 요구했다는 보도가 이어졌다. 4월 1일에는 이탈리아 데이터보호청(DPA)이 개인정보 침해를 이유로 챗GPT 서비스를 차단한다는 보도가 나오기도 했다. 우리나라의 개인정보보호위원회에서도 미국의 대화형 인공지능(AI) 챗GPT에서 개인정보가 유출된 사건과 관련해 한국 이용자의 정보가 공개되지는 않았는지 들여다보고 있다고 한다. 

기술의 발전 속도가 워낙 빠르다보니 새로운 기술이 가져올 파급효과에 대한 충분한 검증과 위험 관리 방안이 마련될 틈이 없었다가, 챗GPT와 GPT4가 잇달아 공개되면서 급속도로 확산되자, 기술에 대한 규제와 속도 조절이 필요하다는 주장이 나오기 시작한 것이다. 이러한 주장이 AI 시장의 주도권을 다투는 논리일 뿐이며 AI 기술 개발을 중단하는 것은 불가능하고 어리석은 일이라는 의견도 있지만, 인공지능 기술이 가지는 잠재적인 위험성이 너무 큰 것도 사실이다. 

이러한 모습은 2000년대 초반에 벌어졌던 배아줄기세포 복제기술을 둘러싼 생명공학과 윤리 논쟁을 떠올리게 한다. 과학기술의 발전으로 인간복제가 가능해졌지만, 생명윤리법에서는 인간 복제, 인간의 배아를 동물의 자궁에 착상시키는 행위, 동물의 배아를 인간의 자궁에 착상시키는 행위를 금지하고 있다. 나아가 유전정보에 의한 차별을 금지하고, 유전자 치료에 관한 연구를 할 수 있는 경우를 제한하는 등 윤리적인 원칙에 반하는 연구 및 기술개발을 하지 못하도록 엄격하게 규제하고 있다. 

이와 마찬가지로 AI 기술의 발전이 인류를 위험에 빠트릴 수 있다면 기술 개발의 목적. 한계. 방법을 정하고 사전에 위험성을 검토하고, 사후에도 지속적으로 모니터링하고 관리할 수 있는 규범을 만들어야 한다. AI 학습에 사용하는 데이터는 수많은 사람들이 만들어낸 콘텐츠와 이미지와 영상의 집합체이며 특정 기업이나 개인의 소유가 아닌 사회 구성원 공동의 소유라고 할 수 있다. 따라서 데이터라는 무형의 자원을 이용해서 기술을 개발하는 기업이나 사람은, 기술의 목적과 사용방법이 보편적인 윤리원칙, 민주주의, 인권을 침해하지 않도록 주의할 의무가 있고, 위험이 현실화되면 그에 상응하는 책임을 져야 한다. 

AI는 효율적이고 중립적이며 객관적이라는 환상과 달리, 모순된 현실과 불평등한 권력관계를 그대로 반영하는 시스템일 뿐이다. AI 기술의 발전이 가져올 편리함과 이익 못지 않게, 그로 인해 발생할 수 있는 위험성과 사회적인 파급효과에 대해서도 진지한 관심을 가지고 효과적인 규제 방안에 대한 논의를 시작해야 한다.

저작권자 © THE AI 무단전재 및 재배포 금지
관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전