의료 등 고위험 분야서 정확성 문제
OpenAI가 개발한 인공지능 도구 위스퍼(Whisper)는 인간 수준의 성능을 갖췄지만 관련 우려 또한 커지고 있다.
위스퍼는 전 세계 다양한 산업에서 널리 사용되지만, 전문가들은 때때로 AI 도구가 일부 텍스트나 전체 문장을 잘못 구성하는 문제를 지적한다. 이런 오류는 인종 차별적 논평, 폭력적인 수사, 심지어 존재하지 않는 의료 정보 등 잘못된 내용을 포함할 수 있어 사용자에게 심각한 문제를 일으킬 수 있다.
특히 의료 센터에서는 AI 기반 도구를 환자와 의사의 상담 내용을 기록하기 위해 사용하고 있는데, OpenAI 자체에서도 고위험 도메인에는 적합하지 않다고 경고한 바 있어 더 큰 문제가 되고 있다. 미시간 대학의 한 연구자는 공개 회의에 대한 연구를 수행하면서 대부분의 녹취록에서 잘못된 내용을 발견했다고 전했다.
연구자들은 이러한 경향이 수백만 건의 녹음에서 수만 건의 잘못된 녹취록을 만들어낼 수 있다고 경고하며, 이는 특히 병원 환경에서 심각한 결과를 초래할 수 있다고 우려를 표했다. 청각 장애인과 난청인을 위한 폐쇄형 자막 생성에도 사용되는 위스퍼는, 이들이 잘못된 녹취록을 식별할 방법이 없어 더욱 문제가 될 수 있다.
이러한 상황에서 전문가들과 옹호자들은 OpenAI에 결함을 해결하고, 필요한 경우 연방 정부의 규제를 고려해야 한다고 강조한다. OpenAI의 한 대변인은 인공지능의 환각 현상을 줄이기 위해 지속적으로 연구하고 있으며, 모델 업데이트에 피드백을 통합하고 있다고 밝혔다.
위스퍼는 전 세계 수천 개의 회사에서 서비스를 제공하는 오라클(Oracle) 및 마이크로스프트(Microsoft)의 클라우드 컴퓨팅 플랫폼에 내장되어 있으며, 텍스트를 여러 언어로 번역하는 데도 사용된다. 지난달 위스퍼의 최신 버전은 420만 번 이상 다운로드되었다고 보고되었다.
위스퍼는 전 세계 다양한 산업에서 널리 사용되지만, 전문가들은 때때로 AI 도구가 일부 텍스트나 전체 문장을 잘못 구성하는 문제를 지적한다. 이런 오류는 인종 차별적 논평, 폭력적인 수사, 심지어 존재하지 않는 의료 정보 등 잘못된 내용을 포함할 수 있어 사용자에게 심각한 문제를 일으킬 수 있다.