본문 바로가기

뉴스/전세계 소식

AI 음성인식 도구 '위스퍼' 정확성 논란

반응형

 

 

 

 

 

 

 

 

 

 

의료 등 고위험 분야서 정확성 문제

 

 

 

 

 

 

 

 

 

OpenAI가 개발한 인공지능 도구 위스퍼(Whisper)는 인간 수준의 성능을 갖췄지만 관련 우려 또한 커지고 있다.

 

위스퍼는 전 세계 다양한 산업에서 널리 사용되지만, 전문가들은 때때로 AI 도구가 일부 텍스트나 전체 문장을 잘못 구성하는 문제를 지적한다. 이런 오류는 인종 차별적 논평, 폭력적인 수사, 심지어 존재하지 않는 의료 정보 등 잘못된 내용을 포함할 수 있어 사용자에게 심각한 문제를 일으킬 수 있다.

 

 

AI 플랫폼 위스퍼가 다양한 산업에서 사용되고 있지만, 텍스트 오류 문제로 인한 신뢰성 우려가 제기되고 있다. 게티 이미지

 

 

특히 의료 센터에서는 AI 기반 도구를 환자와 의사의 상담 내용을 기록하기 위해 사용하고 있는데, OpenAI 자체에서도 고위험 도메인에는 적합하지 않다고 경고한 바 있어 더 큰 문제가 되고 있다. 미시간 대학의 한 연구자는 공개 회의에 대한 연구를 수행하면서 대부분의 녹취록에서 잘못된 내용을 발견했다고 전했다.

 

연구자들은 이러한 경향이 수백만 건의 녹음에서 수만 건의 잘못된 녹취록을 만들어낼 수 있다고 경고하며, 이는 특히 병원 환경에서 심각한 결과를 초래할 수 있다고 우려를 표했다. 청각 장애인과 난청인을 위한 폐쇄형 자막 생성에도 사용되는 위스퍼는, 이들이 잘못된 녹취록을 식별할 방법이 없어 더욱 문제가 될 수 있다.

 

이러한 상황에서 전문가들과 옹호자들은 OpenAI에 결함을 해결하고, 필요한 경우 연방 정부의 규제를 고려해야 한다고 강조한다. OpenAI의 한 대변인은 인공지능의 환각 현상을 줄이기 위해 지속적으로 연구하고 있으며, 모델 업데이트에 피드백을 통합하고 있다고 밝혔다.

 

위스퍼는 전 세계 수천 개의 회사에서 서비스를 제공하는 오라클(Oracle) 및 마이크로스프트(Microsoft)의 클라우드 컴퓨팅 플랫폼에 내장되어 있으며, 텍스트를 여러 언어로 번역하는 데도 사용된다. 지난달 위스퍼의 최신 버전은 420만 번 이상 다운로드되었다고 보고되었다.

 

위스퍼는 전 세계 다양한 산업에서 널리 사용되지만, 전문가들은 때때로 AI 도구가 일부 텍스트나 전체 문장을 잘못 구성하는 문제를 지적한다. 이런 오류는 인종 차별적 논평, 폭력적인 수사, 심지어 존재하지 않는 의료 정보 등 잘못된 내용을 포함할 수 있어 사용자에게 심각한 문제를 일으킬 수 있다.

 

 

 

 

 

 

 

 

 

 

반응형
Popular Posts
Recent Posts