공주대 최대선 교수, AI 속이는 ‘공격자 AI’ 개발
공주대 최대선 교수, AI 속이는 ‘공격자 AI’ 개발
이 기사를 공유합니다

공격자 AI가 알려준 위치에 점을 붙인 결과 얼굴인식 AI가 다른 사람으로 인식한다. (제공: 공주대학교)  ⓒ천지일보 2020.1.15
공격자 AI가 알려준 위치에 점을 붙인 결과 얼굴인식 AI가 다른 사람으로 인식한다. (제공: 공주대학교) ⓒ천지일보 2020.1.15

[천지일보 공주=박주환 기자] 최대선 공주대학교 교수는 얼굴에 몇 개의 점을 붙여 얼굴인식 AI가 다른 사람으로 인식하게 만드는 데 성공했다고 15일 밝혔다.

연구팀이 개발한 공격자 AI에 얼굴 사진을 입력하면 얼굴에 붙일 점의 위치를 알려준다. 공격자 AI가 알려준 대로 얼굴에 점 스티커를 붙이면 얼굴인식 AI는 전혀 다른 사람으로 인식하게 된다.

이번 연구는 이미지 상태가 아닌 실제 얼굴에 약간의 분장을 통해 얼굴인식 AI를 기만할 수 있다는 것을 보여준 세계 최초 연구다.

해외에서 표지판에 스티커를 붙여 오인식하게 만드는 연구가 소개된 바 있지만 얼굴 분장을 통한 얼굴인식 AI를 기만하는 사례는 이번 공주대 연구가 최초다.

연구팀을 이끈 최대선 교수는 “이러한 기만 공격 이외에도 AI의 오동작을 유발하거나, 학습에 사용된 데이터를 추출하여 프라이버시를 침해하는 등 여러가지 AI 보안 취약점이 알려져 있다”며 “최근 AI에 대한 국가적 관심과 산업계의 적용이 활발한 가운데 AI 보안 문제에 대해서도 심각성을 인식하고 대비해야 한다”고 말했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.