<인공지능 윤리 가이드라인, 그 필요성과 내용>
미래창조과학부·산업통상자원부 인공지능 담당자, 국회 입법조사관 등 다양한 AI 윤리 견해

더불어민주당 박정 의원과 국회입법조사처가 공동으로 주최한 토론회에서 전문가들은 AI가 일부분 인간을 추월했지만 AS 테이의 인종차별 등 편향성 문제가 불거져, 윤리헌장이 필요하다는 주장 등을 제시했다.

[일요경제 = 손정호 기자] 인공지능(AI)는 특정 분야에서는 이미 인간을 추월했지만 마이크로소프트(MS)의 채팅봇 테이의 인종차별 발언 등 편향성 문제도 불거지고 있어서, 인공지능에 대한 윤리헌장이 반드시 필요하다는 주장이 제시됐다.

지난 2일 산업통상자원위원회 소속인 박정 더불어민주당 의원실과 국회입법조사처가 서울시 여의도 국회 의원회관 제2세미나실에서 함께 진행한 ‘인공지능 윤리 가이드라인, 그 필요성과 내용’ 토론회에서는 인공지능에 대한 다양한 의견들이 자유롭게 제시됐다. 

이날 권용현 미래창조과학부 과장은 토론을 통해 “인공지능 성능의 획기적 향상으로 지능정보기술이 행위의 객체에서 주체로 진화해 새로운 윤리가 필요하다”며 “기존의 ICT는 인간의 판단과 결정을 보조하는 도구에 불과했지만 지능정보기술은 추론과 판단, 실행까지 가능해 특정분야에서 인간을 추월했다”고 말했다.

IBM의 인공지능 왓슨은 암 진단에서 인간 전문의를 뛰어넘는 수준의 정확도를 보였으며, 페이스북의 인공지능은 하루에 업로드되는 2조개의 사진을 분석해 학습한다는 주장이다.

권 과장은 “이미 지능정보기술이 적용되는 분야에서는 데이터 편향성과 자율주행자동차, 인간 살상 로봇 등을 둘러싼 윤리적 문제를 제기하고 있다”며 “지능정보기술이 객관적이지 않은 데이터를 학습해 차별성과 편향성, 불공정성 등의 사회문제가 발생하고 있다”고 전했다.

권 과장의 인공지능 데이터 편향성의 예로 구글과 마이크로소프트 등을 꼽았다. 구글은 2015년 얼굴 자동인식 기능 오류로 흑인을 고릴라로 표시했으며, 마이크로소프트의 채팅로봇 테이는 백인 우월주의자들의 망언과 욕설 등을 학습해 트위터 서비스 하루 만에 차단됐다. 인공지능 심사 프로그램인 뷰티닷에이아이를 활용한 작년 온라인 국제미인대회에서는 44명의 입선자 대부분이 백인 여성으로 인종차별 논란을 일으켰다. 

권 과장은 “자율주행차의 지능정보기술이 직면한 돌발상황에서 결정을 해야 할 때 그 기준이 되는 윤리에 대한 사회적 합의라는 이슈가 제기된다”며 “SF 소설가 아이작 아시모프의 3원칙을 명시적으로 위반해 인간 살상 기능을 수행하도록 개발된 전투로봇의 윤리 문제 등 여러 가지 딜레마가 있다”고 말했다.

아울러 작년 12월 ‘지능정보사회 중장기 종합대책’에서 인간 중심 지능정보기술 윤리에 대한 방향을 제시하고, 정보문화포럼 산하 지능정보사회 윤리분과에서 각계 전문가들이 연구를 진행해 세미나를 주최하고 정책보고서를 발간했다고 설명했다.

그에 따르면 올해 우리 정부는 정보화 사회 중심 법률인 국가정보화기본법을 ‘지능정보화기본법’으로 전면 개정하고, 지능정보윤리의 주체를 서비스사업자와 개발자 등 공급자와 사용자 등으로 구분해 각 주체별 윤리 가이드라인을 제정할 계획이다. 오는 2018년에는 윤리 헌장 제정을 추진할 계획이다.  

지난 2월 21일 오후 서울 광진구 세종대학교에서 열린 '인간 대 인공지능 번역대결' 행사에서 번역사들이 번역을 하고 있다.

또한 김진 산업자원통상부 과장은 “EU와 미국, 일본을 중심으로 로봇 윤리와 관련해 활발한 논의가 진행 중”이라며 “EU의 경우 AI 등 다양한 형태의 로봇을 전부 포함해 규제를 논의하고 윤리와 보안, 책임 소재 등 주제가 포괄적”이라고 말했다.

김 과장은 “미국와 일본의 경우 비교적 AI에 초점이 맞춰졌으며 협회와 학회 등 단체, 대기업 위주로 활발히 논의 중”이라며 “국내의 경우 로봇 윤리 연구와 관련해 비교적 EU와 비슷한 경향을 보인다”고 설명했다.

정부 주도로 AI를 포함한 포괄적 개념의 로봇을 주제로, 법 제정을 통한 구속력 확보 등을 추진하고 있다는 것. 로봇시민법과 지능정보사회가본법 등을 그 예로 꼽았다.

그는 “다른 분야의 윤리헌장의 경우 민간단체 주도로 선언적 의미의 윤리헌장 초안을 발표한 후 시대상을 반영해 지속적으로 개선하고 있다”며 “로봇의 윤리적 설계와 제작, 사용에 대한 가이드 마련이라는 취지에서 로봇윤리헌장 추가 개선 연구는 필요하다”고 강조했다.

이어 “산학연과 사용자인 국민들의 목소리를 모두 반영할 필요가 있고 로봇윤리헌장의 핵심 가정은 추가 개선 연구시 전문가들의 의견을 수렴해 사례 연구 등을 통해 결정할 필요가 있다”며 “윤리의 주체가 누구인지, 법적 구속력을 줄 것인지, 윤리 외 책임과 보안 등 문제도 포함할 것인지 등의 논의 주제가 있다”고 덧붙였다. 

아울러 김인철 상명대 교수는 “가이드라인에 따르면 공학자는 공공의 안전과 복지를 최상의 가치로 판단하고 인공지능에 관련된 모든 연구를 해야 한다”며 “설명가능성과 인공지능 시스템의 신뢰 구축, 검증 및 확인을 요구하는 경우 발생할 수 있는 가장 큰 문제인 기술의 투명성은 영업비밀 공개와 충돌할 가능성이 있다”고 말했다.

김 교수는 “검증과 확인을 위해서는 인공지능을 연구한 기업들은 필수적으로 윤리위원회나 어떤 조직에 안전성을 검증하기 위해 인공지능을 위한 프로그램의 아키텍쳐나 프로그램 그 자체를 제출해야 한다”며 “인공지능을 연구하는 기업으로서는 받아들이기 힘들 수밖에 없어서, 기업으로서는 가이드라인이라는 기준만으로 회사의 가장 핵심적 요소인 인공지능의 중요한 정보를 제공할 것인가 하는 문제가 있다”고 지적했다.

심우민 국회입법조사처 입법조사관의 경우 인공지능 규제방안들의 도입이 반드시 순차적인 필요는 없다며, 이미 일정부분 인공지능 알고리즘을 도입해 서비스하고 있는 사안들이 있어서 지금 당장 규제를 고민해야 할 필요성이 있는 부분이 있다고 말했다.

자동화된 의사 결정이 전제된 프로파일링을 통한 차별은 미래의 문제라기보다는 현재의 문제이며, EU의 ‘개인정보보호규칙’ 등은 이를 규율하기 위한 일종의 알고리즘 규제방식을 도입하고 있다는 주장이다.

그는 “알고리즘 투명성 확보를 위한 규율들이 개별 법령들에 존재하는 상황을 전제한다고 할지라도 인공지능 윤리 가이드라인은 국가 공동체적 약속과 의지를 천명한다는 점에서 의미를 가질 수밖에 없다”며 “인공지능 윤리 가이드라인은 특정 정부부처나 전문가 그룹에 의해 일방적으로 제시되기보다는 관련 이해당사자들과 시민들의 의견을 적극 수렴해 마련하는 게 바람직하다”고 강조했다.

가이드라인 수범자에 대한 수용성과 민주적 정당성 등이 논란이 될 수 있기 때문으로, 그는 최근 인공지능 입법 논의에서 가치갈등을 확인할 수 있는데 가이드라인 제정 과정을 통해 사회적 비용을 줄일 수 있을 것으로 예상했다.  <4차+>

저작권자 © 일요경제 무단전재 및 재배포 금지