메타, 1100여개 언어 지원하는 음성-텍스트 변환 AI 모델 공개
메타, 1100여개 언어 지원하는 음성-텍스트 변환 AI 모델 공개
  • 김보라
  • 승인 2023.05.24 15:13
  • 댓글 0
이 기사를 공유합니다

ⓒ메타

메타가 4000개 이상의 음성 언어를 식별하고, 약 1100개의 언어를 음성에서 텍스트, 또는 텍스트에서 음성으로 변환해주는 '대규모 다국어 음성인식(Massively Multilingual Speech, 이하 MMS)' AI 모델을 오픈소스로 공개했다.

24일 메타에 따르면 MMS 프로젝트는 음성 정보에 의존하는 사람들을 비롯해 많은 사람들이 더 쉽게 정보에 접근하고 자신이 원하는 언어로 각종 기기를 사용할 수 있도록 돕는 것을 목표로 한다.

현재 지구상에 사용되는 언어의 수는 7000개가 넘는 것으로 알려져 있으며 기존 음성 인식 모델은 최대 100여 개의 언어만을 지원한다는 한계가 있었다. 메타가 이번에 공개하는 AI 모델은 음성-텍스트 변환 및 텍스트-음성 변환이 가능한 언어의 수를 기존 100여 개에서 1107개로 10배가량 확대했으며, 음성으로 식별 가능한 언어의 수를 4000개 이상으로 40배가량 늘렸다는 점에서 유의미하다는 설명이다. 

지원 언어 수의 증가뿐만 아니라, MMS 프로젝트를 통해 훈련된 AI 모델은 기존 음성 변환 모델과 비교했을 때 우수한 성능을 자랑한다. 메타의 분석 결과, 음성 변환 언어의 수를 61개에서 1107개로 18배가량 늘렸을 때 문자 오류율은 단 0.4% 증가했다. 또한 오픈AI의 음성인식 모델 '위스퍼(Whisper)'와 유사 비교를 수행한 결과, MMS 데이터로 교육된 모델은 단어 오류율을 절반으로 줄이면서도 11배 더 많은 언어를 처리할 수 있는 것으로 나타났다.

메타는 언어 다양성 보존에 기여하고 AI 생태계 전반의 발전과 책임 있는 개발을 위해 MMS 모델과 코드를 오픈소스로 공개한다는 방침이다. 또한 수 천 개의 언어를 지원하는 단일 음성 모델 구축을 위해 적용 언어 범위를 늘리고, 기존 음성 기술로는 다루기 어려운 방언 처리 문제 해결을 위해서도 지속적으로 노력할 계획이다. 이러한 발전된 음성 인식 기술은 VR/AR 기술 영역이나 메시지 서비스에 적용돼 혁신을 주도할 수 있다.

AI는 메타의 다양한 제품과 서비스의 기반이자 메타버스를 향한 중장기적 비전 실현의 근간이 되는 핵심 기술이다. AI 인프라스트럭처 구축과 AI 모델 고도화, 디지털 마케팅 경험 개선 등 3가지 분야에 집중해 AI에 대한 연구와 투자를 지속해오고 있다.