Dans le monde de l’intelligence artificielle, certaines ramifications peuvent avoir des conséquences inquiétantes. Selon une révélation émanant de plusieurs chercheurs dans le domaine, l’outil de transcription de Whisper, qui appartient à OpenAI, génère de graves préoccupations. Ils ont soulevé des inquiétudes quant à la présence d’éléments indésirables et dérangeants, tels que des commentaires racialistes et une mise en avant de traitements médicaux fictifs dans les transcriptions de cet outil d’IA.
Généralement, on pourrait penser qu’une transcription produite par une intelligence artificielle collerait le plus fidèlement possible à l’audio de départ. Cependant, dans le cas de Whisper, la réalité est bien différente. Loin de se contenter de reproduire ce qui est dit dans un enregistrement audio, le logiciel d’OpenAI semble embellir la réalité, une tendance que l’on a choisie de désigner sous le nom « d’hallucinations ».
L’intervention de ces aberrations dans les transcriptions semble aller jusqu’à être la norme plutôt que l’exception. Un chercheur de l’Université du Michigan a par exemple indiqué que sur une série de dix enregistrements qu’il avait soumis à Whisper pour retranscription, huit se voyaient parsemés d’éléments ajoutés. D’autres témoignages font état de trouver des « hallucinations » dans plus de 50% des transcriptions produites.
Ce qui inquiète le plus les observateurs reste les risques encourus si Whisper est utilisé dans le domaine de la santé. La mention de traitements médicaux imaginaires peut laisser perplexes, voire inquiets, les patients ou les soignants qui liraient une transcription de ce type.
Contacté à ce sujet, un représentant d’OpenAI a tenté de rassurer : ils travaillent avec diligence à « améliorer la précision » de leurs modèles pour réduire ces décalages. Ils ont également rappelé que leurs conditions d’utilisation proscrisaient l’utilisation de Whisper dans les contextes à haut risque.
OpenAI a exprimé sa satisfaction de voir ces problèmes mis en lumière par les chercheurs, assurant que leur contribution était précieuse dans leur effort d’amélioration constante.
- Des problèmes de « hallucinations » détectés dans l’outil de transcription Whisper d’OpenAI, rapportent les chercheurs. - octobre 27, 2024
- SandboxAQ d’Eric Schmidt envisage une valorisation de 5 milliards de dollars pour son projet audacieux lié à l’IA et à l’informatique quantique de Google. - octobre 19, 2024
- Les caractéristiques d’Apple Intelligence peuvent aussi synthétiser pour vous les textes de séparation - octobre 11, 2024