‘인공지능사업자 책임·의무 규정’ 유예 개정안 발의
“인공지능 기술 위험·불확실성 사전 대응 체계 필요”

[천지일보=배서윤 기자] 국가인권위원회가 지난달 국회의장에게 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(인공지능기본법 제31조~제35조)’의 시행 시기를 3년간 유예하려는 ‘일부개정법률안(개정안)’에 대해 신중한 검토가 필요하다는 의견을 표명했다고 1일 밝혔다.
‘인공지능기본법’은 인공지능의 건전한 발전과 신뢰 기반 조성에 필요한 사항을 규정함으로써 국민의 권익과 존엄성을 보호하고 국민의 삶의 질 향상과 국가경쟁력을 강화할 목적으로 지난 1월에 제정돼 내년 1월 22일 시행 예정이다.
인권위에 따르면 인공지능사업자에게 일정한 책임과 의무를 부과하는 인공지능기본법 제31조~35조의 조항들이 인공지능 기술 발전을 저해하고 기업 혁신을 위축시킬 수 있어 “기술 진흥 관련 규정은 우선 시행하되 규제 조항의 적용을 내년 1월 22일(기존)에서 2029년 1월 22일(변경안)로 3년간 유예하자”는 취지의 개정안이 국회에 발의돼 현재 계류 중이다.
인권위는 “인공지능 기술의 발전·확산은 국가경쟁력 제고와 삶의 질 향상에 기여하고 있지만 동시에 인공지능이 잘못된 결론 도출이나 편향된 결정을 내리는 경우, 그 결과는 단순한 오류 정보를 넘어 국민의 기본권에 직접적인 피해를 줄 수 있다”고 지적했다.
또한 “개정안에서 시행을 유예하고자 하는 제31조~35조의 조항은 단순한 기술적 규제 사항이 아니다”며 “인공지능의 개발·배치·활용 등 전 과정에서 발생할 수 있는 위험으로부터 국민을 보호하고, 인공지능 기술이 헌법적 질서 내에서 안전하게 사용되도록 하기 위한 핵심적인 입법적 조치”라고 설명했다.
이에 더해 인권위는 “사회의 다양한 분야에서 인공지능 시스템 도입이 본격화되고 있는 상황에서 인공지능의 신뢰성 확보를 위한 사업자 책임·의무 조항의 적용을 유예하는 것은 국민의 기본권에 중대한 영향을 미칠 수 있다”며 “‘고영향 인공지능’에 대한 사전적 보호 조치가 장기간 미비 상태로 남게 되고, 안전하고 지속 가능한 인공지능 발전을 저해할 우려가 있다”고 덧붙였다.
이어 “실제 인공지능 기반 영상 합성 기술이 더욱 정교해지면서 가짜 영상과 음성을 실제와 구별하기 어려운 수준에 이르렀고 해당 기술을 악용한 범죄가 급증했다”며 “ 2024년 10월 기준 딥페이크 성범죄로 경찰에 신고된 건수는 전년 대비 518% 증가한 964건에 달했다”고 밝혔다.
유엔 ‘경제적·사회적·문화적 권리를 위한 신기술의 역할에 관한 보고서’에서는 국가가 필요한 입법 조치를 채택하는 등 인공지능 기술에 영향받는 국민의 인권을 보호해야 할 법적 의무가 있음을 강조한 바 있다.
인권위는 “인공지능 기술의 영향력이 커질수록 그로 인한 피해도 구조적이고 심각해질 수 있기에, 인공지능사업자의 책임과 의무 조항의 시행을 유예하는 것은 이러한 국가 의무의 충실한 이행으로 보기 어렵다”고 판단했다.
또한 산업계 일각에서 “인공지능사업자에 대한 규제가 과도하다”는 우려에 대해서는 “하위법령의 정교화(시행령·고시 등), 법률 내 보완 입법, 스타트업 및 중소기업에 대한 정부의 인공지능 생태계 지원 강화 등을 통해 해소하는 것이 바람직하다”고 말했다.
이에 인권위는 “인공지능 시스템의 기획 단계부터 개발·운영에 이르는 전 과정에서 투명성·안전성·신뢰성을 사전에 확보하도록, 인공지능기본법 제31조~35조의 조항을 당초 계획대로 2026년 1월에 시행함으로써 인공지능 기술이 갖는 위험성과 불확실성을 제어할 사전적 대응체계를 구축할 필요가 있다”고 제언했다.
