OpenAI logo with spiraling pastel colors (Image Credits: Bryce Durbin / TechCrunch)

Des problèmes de « hallucinations » détectés dans l’outil de transcription Whisper d’OpenAI, rapportent les chercheurs.

Dans le monde de l’intelligence artificielle, certaines ramifications peuvent avoir des conséquences inquiétantes. Selon une révélation émanant de plusieurs chercheurs dans le domaine, l’outil de transcription de Whisper, qui appartient à OpenAI, génère de graves préoccupations. Ils ont soulevé des inquiétudes quant à la présence d’éléments indésirables et dérangeants, tels que des commentaires racialistes et une mise en avant de traitements médicaux fictifs dans les transcriptions de cet outil d’IA.

Généralement, on pourrait penser qu’une transcription produite par une intelligence artificielle collerait le plus fidèlement possible à l’audio de départ. Cependant, dans le cas de Whisper, la réalité est bien différente. Loin de se contenter de reproduire ce qui est dit dans un enregistrement audio, le logiciel d’OpenAI semble embellir la réalité, une tendance que l’on a choisie de désigner sous le nom « d’hallucinations ».

L’intervention de ces aberrations dans les transcriptions semble aller jusqu’à être la norme plutôt que l’exception. Un chercheur de l’Université du Michigan a par exemple indiqué que sur une série de dix enregistrements qu’il avait soumis à Whisper pour retranscription, huit se voyaient parsemés d’éléments ajoutés. D’autres témoignages font état de trouver des « hallucinations » dans plus de 50% des transcriptions produites.

Ce qui inquiète le plus les observateurs reste les risques encourus si Whisper est utilisé dans le domaine de la santé. La mention de traitements médicaux imaginaires peut laisser perplexes, voire inquiets, les patients ou les soignants qui liraient une transcription de ce type.

Contacté à ce sujet, un représentant d’OpenAI a tenté de rassurer : ils travaillent avec diligence à « améliorer la précision » de leurs modèles pour réduire ces décalages. Ils ont également rappelé que leurs conditions d’utilisation proscrisaient l’utilisation de Whisper dans les contextes à haut risque.

A lire également  Le dirigeant de Stability AI quitte son poste, affirmant qu'il est futile de vouloir surpasser un système d'IA centralisé avec une IA encore plus centralisée.

OpenAI a exprimé sa satisfaction de voir ces problèmes mis en lumière par les chercheurs, assurant que leur contribution était précieuse dans leur effort d’amélioration constante.

Yohann G.