abstract multicolored wave length

Une entité britannique diffuse des instruments pour évaluer la sûreté des modèles d’intelligence artificielle.

Les efforts pour renforcer la sécurité de l’intelligence artificielle (IA) sont en cours au Royaume-Uni. Le UK Safety Institute, un organisme récemment fondé pour ce but, a développé une gamme d’outils destinée à faciliter le développement des évaluations de l’IA. Cette initiative ambitionne d’impliquer l’industrie, les organismes de recherche et les universités.

Baptisé Inspect, cet ensemble d’outils, disponible en open source, vise à évaluer différentes capacités des modèles d’IA. Il s’agit notamment des connaissances de base des modèles, leur capacité à raisonner et à générer un score en fonction des résultats obtenus. L’annonce a été faite par le Safety Institute qui souligne que c’est la première fois qu’une plateforme de test de sécurité de l’IA, dirigée par un organisme étatique, est publiée pour une utilisation extensive.

Le président du Safety Institute, Ian Hogarth, a déclaré que l’ambition était de voir la communauté mondiale de l’IA utiliser Inspect non seulement pour effectuer ses propres tests de sécurité des modèles, mais également pour aider à l’adaptation et au développement de cette plate-forme open source afin d’arriver à des évaluations de haute qualité.

Inspect est composé de trois éléments de base : des ensembles de données, des solveurs et des marqueurs. Les ensembles de données permettent de fournir des exemples pour les tests d’évaluation, les solveurs effectuent les tests, et les correcteurs évaluent leur travail et regroupent les scores des tests en métriques. Les composants intégrés d’Inspect peuvent être améliorés avec des packages tiers écrits en Python.

Ce nouvel outil a été salué par Deborah Raj, chercheuse chez Mozilla et éthicienne en IA, comme une preuve du pouvoir de l’investissement public dans les outils open source pour la responsabilité de l’IA. De son côté, Clément Delangue, PDG de la startup IA Hugging Face, a suggéré d’intégrer Inspect à la bibliothèque de modèles de Hugging Face ou de créer un classement public avec les résultats des évaluations de l’ensemble d’outils.

A lire également  Poe lance un modèle de revenus basé sur le prix par message pour les développeurs de robots IA

Release of Inspect fait suite à une initiative similaire aux États-Unis, où le National Institute of Standards and Technology (NIST) a lancé NIST GenAI, un programme destiné à évaluer diverses techniques d’IA générative. Le partenariat entre les États-Unis et le Royaume-Uni pour développer des tests avancés de modèles d’IA encourage d’autant plus l’initiative du Safety Institute. L’ambition est d’aller vers une meilleure évaluation des risques liés à l’IA et à l’IA générative.

Yohann G.