[중앙일보] “설계 없이 마천루 지으라는 꼴”…시행 한 달 앞둔 AI 기본법에 난감한 업계 [팩플]
다음 달 22일 시행을 앞둔 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 ‘AI 기본법’)을 두고 한 인터넷 기업 관계자는 이같이 토로했다. 과학기술정보통신부는 지난달 12일부터 40일간 AI 기본법 시행령의 입법 예고를 진행했다. 한달 뒤부터 전 세계 최초로 AI 기본법 전면 시행에 들어간다.
시행까지 한 달밖에 남지 않았지만, 산업 현장은 여전히 혼란스럽다. 업계에선 “AI 기본법이 명시한 핵심 규정들을 실제 사업에 적용하기엔 여전히 모호한 부분이 많다”고 지적한다. 생명·안전·기본권에 중대한 영향 또는 위험을 초래할 우려가 있는 ‘고영향 AI’ 규정과 AI를 활용했음을 결과물에 표시하는 AI 콘텐트 표시 의무가 대표적이다.

내년 1월 22일부터 전세계에서 처음으로 AI기본법이 전면 시행된다. 로이터=연합뉴스
AI 제품·서비스를 제공하는 사업자는 법 제33조에 따라 해당 기술이 ‘고영향 AI’에 해당하는지 사전에 검토해야 한다. 그러나 기준이 추상적인데다, 고영향 AI로 분류되면 위험관리방안 수립 등 추가적인 의무가 대폭 늘어난다는 점이 문제다. 정주연 스타트업얼라이언스 선임전문위원은 “일반 AI보다 고영향 AI는 사업자에게 요구되는 의무 수준이 훨씬 높은데, 의료·교육 등 스타트업들이 진출한 영역 상당수가 고영향 AI로 해석될 여지가 많은 분야”라며 “법이 시행되면 기업들이 문제 소지가 있는 영역은 사업 검토 단계부터 배제하는 등 리스크 회피에 나설 가능성이 크다”고 말했다.
최근 스타트업얼라이언스가 국내 AI 스타트업 101곳을 조사한 결과, “대응 계획을 세우고 준비 중”이라고 응답한 기업은 단 2%에 불과했다. 응답 기업의 약 98%가 법령 내용을 인지하지 못했거나, 인지하더라도 구체적인 대응 계획을 마련하지 못한 상태였다.
정부에 고영향 AI 해당 여부를 확인 요청할 수 있다는 조항도 문제다. 국내 한 AI 스타트업 대표는 “AI 전문가가 국내에 얼마나 되는지도 의문인데, 그 소수 전문가들이 어떤 기준과 방식으로 이를 확인해줄지에 대한 불신이 있다”고 말했다. 이어 “AI 서비스는 고정된 제품이 아니라 지속해서 업데이트 된다”면서 “그때마다 행정 절차를 거쳐야 하면 스타트업 입장에선 감당하기 어려운 부담이 될 수밖에 없다”고 말했다.

박경민 기자
규모가 큰 기업들도 예외는 아니다. 익명을 요청한 글로벌 플랫폼 사업자는 “결국 한국에서만 통용되는 별도의 법적 장치들을 만들어야 한다”면서 “AI 생태계는 파트너사와 고객이 얽힌 복잡한 구조여서 계약서·약관 등 컴플라이언스(법규·내부 규정 준수 체계)를 통해 책임 관계를 세밀하게 정리해야 하는데, 시행까지 한 달밖에 남지 않은 상황에서 법 기준마저 모호해 어떻게 준비해야 할지 난감하다”고 말했다. “글로벌 사업을 하는 입장에선 당분간 한국에서 서비스 출시를 미루게 될 가능성이 크다”고 덧붙였다.
AI에 의해 생성된 콘텐트임을 밝히도록 한 표시 의무 조항도 문제로 거론된다. 업계는 획일적인 표시 방식이 실질적인 이용자 보호에 효과가 있을지에 대해 의문을 제기한다. 콘텐트 업계 관계자는 “가시적인 표시를 의무화하지 않더라도 가드레일 등 기술적·플랫폼 차원에서 부정 사용을 통제할 수 있는 방법은 충분히 있다”면서 “규제 차원의 체크리스트에 얽매여 있는 것이 안타깝다”고 했다.

지난해 12월 서울 여의도 국회에서 열린 제420회국회(임시회) 제1차 본회의에서 AI기본법이 재적 300인 중 재석 264인(찬성 260인, 반대 1인, 기권 3인)으로 통과되고 있다. 뉴스1
정부는 AI 기본법에 따른 과태료 부과를 최소 1년간 유예해 부작용을 줄이겠다는 입장이다. 하지만 기업들은 ‘불법 사업자’로 낙인찍힐 수 있다는 점을 더 걱정한다. 업계 관계자는 “신고·민원이나 사실 조사 가능성만으로도 기업의 사업 판단과 운영을 위축시킬 수 있다”며 “특히 사실 조사는 그 자체로 브랜드 신뢰도에 직접적인 타격을 줄 수 있다”고 지적했다.
이성엽 고려대 기술경영전문대학원 교수(기술법정책센터장)는 “고의나 중과실로 중대한 AI 위험이 발생하지 않은 경우라면, 과실(사실) 조사부터 규제 적용까지 전반적으로 유예하는 접근이 필요하다”고 제언했다. 이어 “유럽 AI 법도 고위험 AI에 대해 적합성 평가를 요구하고 있지만, 관련 가이드라인과 제도적 준비가 충분하지 않다는 판단 아래 EU 집행위원회가 적용을 연기했다”며 “제도적 기반이 갖춰지지 않은 상태에서 규제를 먼저 적용하는 것은 현실적으로 어렵다는 공감대가 작용한 것”이라고 강조했다.
어환희 기자
출처: https://www.joongang.co.kr/article/25391620