AI 기술이 장애인 눈과 귀 ‘미디어 접근성 높인다’
방통위, 과기정통부 자막·수어방송 자동변환 기술 시연회
인공지능(AI) 기술을 활용해 시각·청각 장애인들의 눈과 귀가 생기게 되면서 미디어 접근성이 한층 개선될 전망이다. 코로나19를 계기로 미디어 이용이 높아지고 있는 상황에서 시각·청각 장애인들도 일반인과 동등한 수준의 접근권을 누릴 수 있을 것으로 보인다.

음성-자막-수어방송 변환시스템 구성. 방송통신원회 제공
방송통신위원회와 과학기술정보통신부는 20일 서울 여의도 이룸센터에서 제41회 장애인의 날을 맞아 두부처가 협업해 온 AI 기술을 활용한 자막·수어방송 자동변환 기술 시연회를 개최했다.
방통위가 선보인 음성-자막 자동변환 기술은 AI의 음성인식 기술을 활용해 모바일기기에서의 음성을 자막으로 자동 변환해 화면에 표시해 준다. 미디어 재생 애플리케이션(앱)을 통해서는 뉴스를 시청하면서 화면에 표시된 자막을 볼 수 있다. 음성인식 브라우저를 활용하면 인터넷상에서 유통되는 모든 동영상을 음성 자막으로 시청할 수 있다. 현재 음성인식률은 80% 수준으로 방통위는 이를 더욱 고도화 할 계획이다.
박동영 한국정보통신기술협회(TTA) 팀장은 “음성-자막 자동변환 기술은 청각장애인 등이 인터넷 동영상을 감상할 때 자막을 지원한다”며 “자막 수어가 제공되지 않아 겪어야 했던 청각장애인의 정보격차를 해소할 것”이라고 설명했다.
과기정통부가 시연한 장애인방송 시청 지원 감성표현 서비스 기술은 시각·청각장애인의 미디어 접근권 향상을 위해 △청각장애인에게 시공간의 제약 없이 음성·자막을 아바타 수어로 변환하여 제공하는 기술 △다양한 감정을 음성으로 변환해 시각장애인에게 제공할 수 있는 화면해설방송기술로 구성돼 있다.
안충현 한국전자통신연구원(ETRI) 책임연구원은 “아바타 수어 기술은 자막에 대한 손 동작뿐 아니라 방송 내용이나 상황에 맞춰 캐릭터의 표정과 입술 움직임으로 다양한 정보를 함께 표현한다”며 “긴급한 상황이 발생할 경우 수어 통역사가 항상 대기하기 어려우니 하나의 대안이 되지 않을까 생각한다”고 설명했다.
방통위와 과기정통부는 오는 2023년까지 음성-자막-수어 자동변환 시스템을 개발하고, 이를 연계해 감성표현이 가능한 아바타 수어 방송활용을 목표로 추진하고 있다. 한상혁 방통위원장은 “비대면 사회가 빠르게 오면서 디지털 미디어의 비중이 커지고 있는데, 장애인들은 접근성이 떨어져 디지털 미디어 불평등을 고착화시킬 수 있다”며 “미디어 소외계층의 요구를 반영한 기술 개발로 미디어 격차 없는 따뜻한 디지털 포용 사회로 나아가도록 노력하겠다”고 강조했다.
서영준 기자
출처 : https://news.naver.com/main/read.nhn?mode=LPOD&mid=sec&oid=014&aid=0004624109