AI · Data · Semiconductor

이미지 교란 역이용한 인공지능 보안기술 등장
  • 박설민 기자
  • 기사입력 2022.11.15 15:16

    KAIST 연구팀, 딥러닝 적대적 패턴 공격 방어 알고리듬 개발

    • 적대적 패턴 공격을 KAIST 연구팀이 개발한 방어 프레임이 방어하는 과정 모식도/ KAIST
      ▲ 적대적 패턴 공격을 KAIST 연구팀이 개발한 방어 프레임이 방어하는 과정 모식도/ KAIST

      KAIST 연구진이 인공지능(AI) 분야 핵심 기술인 ‘딥러닝 신경망’의 보안을 한 층 더 높일 수 있는 기술 개발에 성공했다. 물체 감별 센서, 자율주행차 등 다양한 AI기술 분야에 큰 보탬이 될 것으로 기대된다.

      노용만 전기및전자공학부 교수팀은 물체 검출용 딥러닝 신경망에 대한 적대적 공격을 방어하는 알고리듬 개발에 성공했다고 15일 밝혔다.

      딥러닝 신경망에 가해지는 주요 공격 방식은 ‘적대적 패턴’입력이다. 공격자가 AI에 악의적 이미지를 주입해 잘못된 예측 결과를 초래하는 방식이다. 예를 들어 적군이 적대적 패턴으로 위장한 옷을 입고 침입하면 감시 AI가 검출을 못하는 경우가 발생할 수 있다. 현재 AI전문가들이 적대적 패턴 공격을 막기 위한 연구를 진행 중이나, 모든 데이터를 처음부터 학습해야하는 등 한계가 있는 상황이다.

      이 같은 문제를 해결하고자 연구팀은 물리적인 환경에서 적대적 패턴 공격 원리를 역으로 이용하는 방어 프레임을 고안했다. AI가 물체 및 이미지 검출을 할 때, 적대적 공격 패턴 공격이 가해지면 오히려 ‘옳다’고 예측 결과를 내리도록 방어프레임을 만든 것이다. 이 방어프레임은 적대적 패턴 공격과 함께 경쟁적 학습을 거듭하고, 최종적으론 모든 교란 공격에 대한 방어 성능을 지닐 수 있도록 설계됐다.

      연구팀은 프랑스 국립정보기술·자동화연구소 인리아(INRIA)에서 이 방어 프레임의 성능 테스트를 진행했다. 그 결과, 기존 딥러닝 방어 알고리듬 대비 평균 31.6% 방어 능력이 향상되는 것으로 확인됐다.

      노용만 교수는 “국방 및 보안 분야에서 AI활용되기 위해서 아직 보안 기술의 많은 성능 향상이 필요하다”며 “이번 연구로 개발한 방어기술은 국방 감시정찰, 보안, 자율주행 분야 등에 적용될 수 있을 것ˮ이라고 말했다.

      이번 연구 성과는 국제학술지 ‘IEEE 트랜잭션 온 이미지 프로세싱’ 온라인판에 11월 1일자로 게재됐다.

    최신 뉴스

    더보기