석호익 동북아공동체ICT포럼회장/한국디지털융합진흥원장

not caption

인공지능(AI)은 디지털 대전환(Digital Transformation)을 견인하고 다양한 분야의 혁신을 주도하고 있다. 지난 2016년 바둑기사 이세돌과 세기의 대결을 펼치며 존재감을 널리 알린 AI는 5세대(5G) 이동통신을 비롯한 네트워크 발전, 방대한 양의 데이터 축적, 컴퓨터 연산 속도가 빨라지면서 디지털 시대를 선도하고 있다.

그러나 AI가 모든 분야에서 다양하게 활용되면서 예상하지 못한 위험과 사회적 이슈도 사회 곳곳에서 나타나고 있다. 마이크로소프트 챗봇 ‘테이’는 2016년 백인 우월주의와 대량학살을 옹호하는 표현을 했다가 서비스가 중단됐다. 구글, 아마존, 페이스북 등의 AI 서비스도 편견 때문에 곤욕을 치렀다.

우리나라에서도 20세 여대생 콘셉트의 ‘이루다’ AI 챗봇은 성희롱이나 편견을 그대로 노출했다가 서비스가 정지됐다. 특정 데이터만으로 학습된 채 가치판단을 한 결과다. 이건 이루다의 잘못이 아니다. 이를 학습시킨 스캐터랩이 보편타당할 정도로 광범위한 데이터를 학습 자료로 활용하지 못한 결과다.

또한 지금 AI 발전 속도라면 인간이 통제할 수 없는 무서운 파괴력을 지닌 괴물로 진화할 수 있다. 고도의 슈퍼 지능에다 엄청난 파워를 가진 AI 로봇이 해킹당하거나 권력 욕망을 갖게 된다면 AI 로봇이 인간을 공격하는 ‘트랜스포머’ 영화 같은 게 현실화될 위험이 있다.

주요 선진국은 AI 신뢰성에 대한 필요성을 공감해 자국의 사회적 통념, 관습, 기술력 등을 고려한 AI 신뢰 확보 정책을 수립해 적극적으로 시행하고 있다. 유럽연합(EU)은 올해 AI 법 제안을 통해 위험 기반(Risk-based)의 AI 규율체계를 제시했고, 미국은 안전하고 믿을 수 있는 AI 원천기술 개발에 매진하고 있다. 프랑스, 영국, 일본 등도 신뢰할 수 있는 AI 실현을 위해 AI 윤리원칙, 가이드라인을 마련하고 있다.

우리나라도 최근 AI의 사회적 수용이 산업 발전 초석이라는 인식 아래 ‘신뢰할 수 있는 인공지능 국가전략’을 발표했다. 인공지능 법·제도·규제 개선 로드맵과 인공지능 윤리기준 등을 마련, AI 혜택은 극대화하고 활용에 따른 위험·부작용은 최소화하기 위한 제도적·윤리적 기반을 구축한다는 내용이다. 재정적·인적 자원이 부족한 벤처와 중소기업이 AI 신뢰를 확보해 국내외 산업 경쟁력을 끌어올릴 수 있도록 다양한 지원책을 담고 있다. 규제보다는 진흥 관점에서 민간의 자율을 강조한 것이 특징이다.

또한 개발자가 개발 단계에서 신뢰 확보를 위한 기술적 요구 사항과 법·윤리적 요구 사항을 한 번에 확인할 수 있는 ‘개발 가이드북’은 올해 말 공개될 예정이다. AI 신뢰성을 기술적으로 구현하기 위한 ‘원천기술 개발 연구’도 진행되고 있다.

이제 AI를 수용하는 수준에 따라 생사가 갈리는 세상이 됐다. AI는 이미 세상을 바꾸는 ‘게임 체인저’가 됐다. 앞으로도 전 산업에 더 빠른 속도로 활용되면서 생산성 빅뱅을 일으킬 것이다. 그러나 AI 기술이 인류에게 많은 것을 약속하지만 언제든지 무서운 무기가 될 수 있다.

따라서 AI가 가진 위험요소들을 제대로 통제하고 관리할 수 있어야 인류의 재앙을 막을 수 있다. AI 활용 기기나 서비스를 확대해 나가면서 인권을 침해하지 않도록 제도적 규범을 만들어야 한다. 특히 인간에게 직접 상해를 입힐 위험요소는 시스템적으로 걸러내야 한다. AI 학습의 기본이 되는 개인정보 빅데이터와 알고리즘 등에서 그런 문제가 생기지 않도록 시스템을 만들어 나가야 한다. AI 서비스를 활용하는 국민은 이제 AI 윤리규범을 제정해야 한다. 분명한 것은 AI로 가는 과정에서 발생하는 문제는 극복해야할 과제이지 AI시대로 가는 대세를 거슬러서는 안 된다. 

천지일보는 24시간 여러분의 제보를 기다립니다.
저작권자 © 천지일보 무단전재 및 재배포 금지