[신문과방송] ‘카카오 알고리즘 윤리 헌장’의 의미 : 개발자 자율규제 의지 천명… ‘이용자 윤리’ 보완 필요
인공지능 스피커, 챗봇 등 알고리즘 기반 기술 및 서비스의 산업적·사회적 활용이 늘어남에 따라 사회적 편견이나 차별 등에 의한 알고리즘 오류 관련 사고가 발생하고, 이용자 피해의 위험성도 높아질 것이라는 우려가 계속 제기되고 있다. 특히 최근 일련의 이용자 피해 사례에서 보듯이, 알고리즘 기반의 자동화된 데이터 수집·분석이 보편화하면서 그 결과의 편향성, 차별성 문제뿐만 아니라 고의적 여론 왜곡 및 프라이버시 침해 문제까지 다양한 논란을 야기하기도 한다. 기존 사회의 뿌리 깊은 낡은 편견이 입력된 데이터나 알고리즘 논리 설계를 통해 새로운 기술 체계에 침투해 들어갈 수 있기 때문이다.
# 알고리즘 규제의 새로운 전환점
이 때문에 알고리즘의 자의적·편향적 이용 가능성을 제어할 합리적인 규범을 정책으로 마련해야 한다는 요구가 증가하고 있다. 최근 유럽연합(EU)이 알고리즘 규제 입법을 구체화 하고 국내에서도 알고리즘의 윤리적 개발 원칙에 대한 사회적 담론이 활발해지는 것은 그런 맥락에서다. 인공지능 알고리즘 기술의 일반화에 대한 사회적 저항 및 혼란을 최소화하기 위해서라도 알고리즘 윤리 기준에 대한 공론화가 필요한 시점에 이르렀다는 뜻이기도 하다. 알고리즘 기반 사회의 본격화에 대비한 윤리 규범의 소환은 기술의 자율성이 기술 및 사물에 대한 인간의 자율성을 훨씬 능가하는 상황에서 인간의 정체성 위기와 무기력을 극복하고 최소한의 윤리적 존재 가치를 회복하려는 움직임이라고 할 수 있다.
이러한 상황에서 지난 1월 말 국내 인터넷 기업으로는 처음으로 카카오가 홈페이지를 통해 이른바 ‘알고리즘 윤리 헌장’을 발표해 크게 주목받았다. 알고리즘의 개발 및 운영 방식이 우리 사회가 요구하는 윤리 기준에 부합하도록 노력한다는 선언으로, 사회적 차별 금지, 데이터 윤리, 독립성, 설명 의무 등 최근 활발하게 논의되는 인공지능 윤리의 핵심 원칙이 포함되어 있다. 알고리즘 기술이 인간의 도덕적 가치와 윤리 원칙의 관점에서 인간과 조화를 이루어야 하고, 궁극적으로는 인간에게 도움이 되어야 한다는 기업의 사회적 책임 윤리를 천명한 것이라 할 수 있다.
이는 인터넷 기업이 알고리즘에 영향을 받는 이용자와 지속 가능한 신뢰 관계를 형성하는 데 매우 중요한 원칙을 표명한 것이라고 할 수 있다. 물론 여기서 이용자는 일반 사용자뿐만 아니라 알고리즘과 관련된 서비스 및 비즈니스에 직·간접적 이해관계를 갖는 다양한 파트너를 포함하는 것이어서, 향후 알고리즘 규제 체계의 정립 방향을 설정하는 데 중요한 전환점이 될 것으로 보인다. 지난 2013년 ‘로봇윤리헌장’, 그리고 2017년 ‘로봇기본법안’에서 로봇윤리규범, ‘지능정보사회 윤리 가이드라인’ 등과 같이 정부 및 국회 차원에서 규범을 마련하려는 노력은 있었지만, 민간 기업 차원에서 인공지능 윤리 기준을 공표한 것은 처음이라 향후 인공지능 시대의 중요한 현안으로 급부상할 ‘알고리즘 규제’의 주체, 범위 및 성격에 대해 성찰할 수 있는 계기를 제공했다는 것이다.

# 해외의 알고리즘 윤리 추진 사례
우리와는 달리 해외에서는 이미 오래전부터 인공지능 등 알고리즘의 윤리적 개발 원칙을 다양한 방식으로 구상하고 있었다. 1942년 아이작 아시모프의 ‘로봇 3원칙(The Three Laws of Robotics)’ 이래, 2004년 일본 후쿠오카의 ‘세계로봇 선언’, 2006년 유럽로봇연구연합(EURON)의 ‘로봇윤리 로드맵’, 2010년 영국 공학과 물리과학 연구위원회(EPSRC)의 ‘로봇윤리 5원칙’ 등과 같이 주로 인간과 로봇(인공지능)의 공존에 초점을 둔 윤리 원칙이 다수 제시됐다.
최근에 와서는 인공지능 신기술의 위험에 대한 사전 예방의 원칙이 강조되면서 과학자 공동체에서는 더욱 구체적이고 실질적인 수준의 논의를 진행하고 있는 것으로 보인다. 예컨대, 2016년 국제전기전자기술자협회(IEEE)의 ‘윤리적으로 조율된 설계(Ethically Alligned Design)’는 책임성, 투명성, 개인정보 보호 등 윤리적 측면을 고려한 인공지능 설계를 강조했고, 2017년 미국 FLI(Future of Life Institute)의 ‘아실로마 인공지능 23원칙’은 인공지능 개발과 관련해 지켜야 할 23개 원칙에 대해 공학자, 미래학자 및 산학연 전문가 2,000여 명이 서명한 것으로 유명하다. 또한 구글, 마이크로소프트, 유타대학교 등 다양한 분야의 알고리즘 개발자들이 자발적으로 형성한 연구자 공동체 FAT/ML(Fairness, Accountablity, Transparency in Machine Learning)은 알고리즘 책무성 구현을 위한 5개 윤리 원칙으로 책임성(responsibility), 설명가능성(explainability), 정확성(accuracy), 감사가능성(auditability), 공정성(fairness)을 제시한 바 있다.
EU, 일본 및 독일의 경우에는 정부 차원에서 알고리즘 윤리에 적극 개입하고 있다. 예컨대 2017년 초 EU의 ‘로봇법권고안’은 로봇 개발과 관련된 모든 연구자·설계자가 인간의 존엄, 프라이버시, 안전을 고려해 행동할 것을 권고했다. 2018년 5월 발효되는 개인정보보호규정 (GDPR)에는 알고리즘 투명성(algorithmic transparency)과 관련해 프로파일링 등 자동화된 의사 결정에 대해 설명을 요구할 권리를 적극 포함하기도 했다. 2017년 일본 총무성의 ‘AI 개발 가이드라인’은 AI 개발자가 준수해야 할 9개 원칙을 제시했으며, 2017년 독일의 교통디지털사회간접 자본부의 ‘자율주행자동차 가이드라인’도 자율주행 기술이 지켜야 할 윤리적 지침(비강제적 권고문)을 발표한 바 있다.

최근에는 미국의 공공정책위원회 산하 인공지능 자문위원회에서도 알고리즘 투명성과 책무성을 위한 7개 세부 원칙으로, 알고리즘 편견 가능성의 인지(awareness), 접근성과 피해 보상(access and redress), 책무성(accountability), 설명 의무(explanation), 수집·분석된 입력 데이터 출처 표시(data provenance), 감사가능성(auditability), 상시적 검증 및 공개 평가(validation and testing) 등을 제시하기도 했다.
문제는 구글, 페이스북 등과 같이 알고리즘 기술과 서비스로 글로벌 ICT 시장을 석권하고 있는 기업들의 윤리적 노력이 상대적으로 미흡하다는 점이다. 2017년 ‘알파고’로 유명한 딥마인드가 ‘AI윤리위원회’를 구성하고 ‘5가지 AI 윤리 원칙’을 발표했지만, 그 구체적인 내용이나 절차를 제대로 공개하지는 않은 것으로 보인다. 이들 글로벌 기업들은 대학 연구기관에 대한 투자를 통해 간접적으로 윤리적 개발 책임 원칙을 표명하는 수준에 머물러 있다.
# 사전 규제보다는 자율 규제
그러면 우리나라는 어떠한가? 2016년 말 ‘지능정보사회 중장기 종합대책’이 발표된 이후 다수의 지능정보사회 관련 법안이 발의되는 등 다양한 법·제도적 대응이 주를 이루고 있다. 기본법 등 일반적 입법 대응에서부터 관련법 개정 등 개별적 입법 대응, 가이드라인 등 법령 개정 없는 (부처) 소관 권한 대응 등 다양한 법·제도적 접근 방안이 쏟아지고 있다. 물론 법적 책임 규명 및 권리의 범위 혼선에 대비한 법·제도적 접근이 점차 중요해지는 것이 사실이나, 인공지능 알고리즘의 예측 불가능한 파급 효과에 대한 윤리적 평가 및 개발 논의가 선행될 필요가 있다.
그런 점에서 2017년 말 ‘지능정보사회 윤리 가이드라인’에서 제시된 공공성, 책무성, 통제성, 투명성의 알고리즘 윤리 원칙도 카카오 알고리즘 윤리 헌장과 더불어 매우 중요한 의미를 지닌다고 하겠다. 알고리즘 기반의 새로운 기술혁신과 법·제도 정비 사이의 규범적 간극 및 공백을 자율 규제적 윤리 담론으로 메울 수 있다는 점에서 그렇다. 개발자들에게만 맡기는 기술 중심적 통제·관리 방식이나 입법 등의 법률적 개입 방식보다는 알고리즘의 잠재적 위험성에 대한 경각심 제고는 물론 사전 예방의 관점에서 자율 규제의 원칙을 스스로 정립하는 데 윤리 헌장 등 윤리적 규범 형식이 훨씬 더 유용할 수 있기 때문이다.
물론 인공지능 개발 단계에서 윤리 헌장 등을 통해 윤리적 행위 원칙을 공표하는 것이 신기술의 잠재적 역기능에 대한 사후 규제보다는 사전 예방의 원칙에 따라 선제적·사전적 규제의 기준으로 적용될 경우, 인공지능 개발 관련 ICT 기업들의 자유롭고 창의적인 기술혁신에 규제 부담으로 작용할 가능성에 대해서는 경계할 필요가 있다.
그러나 이번 카카오 알고리즘 윤리 헌장 공표가 ‘사전 예방의 원칙(precautionary principle)’에 입각한 기술 개발의 윤리적 행위 원칙을 설정한 중요한 사건이지만, 인공지능 등 특정한 알고리즘 기반 기술 및 서비스의 발전을 제약하는 사전 규제로만 좁게 해석해서는 안 될 것이다. 기술을 그 자체의 개발 논리에만 맡기는 것이 아니라 인간과의 상호작용에서 나오는 경험과 성찰의 반복적 과정에 기술을 자리매김하는, 지속 가능한 발전의 한 과정으로 인식해야 하기 때문이다. 이를 위해 다양한 이해당사자, 특히 사용자와 시민의 참여와 협력에 기반한 ‘좋은 거버넌스(good governance)’가 뒷받침되어야 할 것이다.
또한 향후 알고리즘이 바이오, 뇌과학, 생명과학과 긴밀히 결합, 기술적으로 확장되면서 인간의 정체성과 생명 관련 윤리 문제를 더욱 복잡하게 만들 수 있다는 점에도 유의해야 한다. 공공 및 민간 차원의 사회적 윤리 규범 형성 과정에도 기업의 책임 있는 참여와 협력이 필요한 대목이다. 더 나아가 자동화, 무인화, 지능화 등 알고리즘 기반 사회 변화는 고용 감소, 일자리 대체 등의 ‘탈(脫)노동’을 심화시켜 노동 기반 사회(labor-based society), 특히 노동 기반 소득 체제를 약화시킬 것에 대비한 사회적 책임성도 기업 윤리의 중요한 과제라는 점 또한 진지하게 고려해야 할 것이다.
카카오의 알고리즘 윤리 헌장은 사전 예방의 관점에서 신기술의 잠재적 위험성을 개발자 및 사업자가 스스로 통제하겠다는 사회윤리적 책임성에 부응한 것이지만, 알고리즘 윤리의 중요한 행위자로서 이용자의 역할이 잘 보이지 않는 점은 아쉬운 대목이고, 이를 위한 윤리적 논의가 좀 더 필요할 것으로 보인다. 사용자와 기술의 관계를 알고리즘이 일방적으로 매개하는 미디어 환경에서 기업의 영업 비밀로 블랙박스화된 알고리즘에 대한 사용자의 통제 가능성은 무의미해질 수밖에 없기 때문이다. 따라서 알고리즘 개발 및 이용에 대한 기업의 자율 규제 원칙을 담은 것이지만, 이용자·시민사회·정부 등 주요 주체의 윤리적 행위 원칙에 대해서도 좀 더 많은 논의가 필요하다. 즉 개발자 및 사업자의 알고리즘 윤리뿐 아니라 알고리즘 리터러시 차원에서 이용자 윤리에 대해서도 구체적인 논의가 이루어져야 한다는 것이다.
끝으로, 카카오의 알고리즘 윤리 헌장은 큰 틀의 지향점을 제시한 것이지, 세부적인 가이드라인으로 구체화된 것은 아니므로 알고리즘 관련 기술 및 서비스의 성격에 따라 좀 더 구체적인 윤리 행위 원칙으로 진전시킬 필요가 있다. 알고리즘의 윤리적 개발 원칙은 고정된 것이라기보다는 기술 발전 및 사회적 수용의 성숙도에 따라 지속적으로 수정 보완될 것으로 기대한다.
출처 : http://blog.naver.com/PostView.nhn?blogId=kpfjra_&logNo=221262083043&redirect=Dlog