UK opens office in San Francisco to tackle AI risk

Le Royaume-Uni inaugure un bureau à San Francisco pour contrer les dangers de l’IA

L’Institut Britannique de Sécurité de l’IA annonce qu’il s’installera à San Francisco, stratégiquement à proximité de l’épicentre du développement de l’IA. Cette décision intervient avant le sommet de la sécurité de l’IA à Séoul, en Corée du Sud, mais aussi en plein cœur d’une expansion active des efforts du Royaume-Uni dans le domaine de l’IA.

L’Institut, créé en novembre 2023, s’est donné pour mission majeure d’évaluer et de gérer les risques associés aux plateformes IA. Sa présence à San Francisco facilite l’accès direct aux sièges de grandes entreprises IA comme OpenAI, Anthropic, Google et Meta, toutes situées dans la Bay Area.

« Cela nous permet d’avoir un contact direct avec ces sociétés et de bénéficier d’un accès à un vivier supplémentaire de talents », a expliqué Michelle Donelan, secrétaire d’État britannique à la science, à l’innovation et à la technologie.

Le Royaume-Uni voit l’IA et la technologie comme une opportunité à fort potentiel de croissance économique et d’investissement. Ainsi, il est crucial pour l’Institut d’avoir une visibilité accrue auprès des entreprises du secteur.

L’AI Safety Institute, qui compte actuellement 32 employés, est un petit acteur face au Goliath qu’est la technologie de l’IA, mais joue néanmoins un rôle crucial en dépit de sa taille.

Ce faisant, l’Institut a lancé récemment Inspect, un ensemble d’outils destinés à évaluer la sécurité des modèles fondamentaux d’IA. Malgré les difficultés liées à l’évaluation desdits modèles, le processus d’évaluation est à ce jour un engagement volontaire et incohérent.

En effet, aucune obligation légale n’impose aux entreprises de faire vérifier leurs modèles avant leur déploiement, ce qui peut conduire à une identification tardive des risques.

A lire également  Python : un langage taillé pour le machine learning

Pour pallier ce problème, l’AI Safety Institute prévoit de collaborer étroitement avec les entreprises du secteur. Michelle Donelan souligne : « Notre processus d’évaluation est une science émergente. À chaque évaluation, nous affinons le processus encore plus ».

À l’occasion de la conférence de Séoul, l’Institut envisage de présenter le programme Inspect aux régulateurs, dans l’espoir de les amener à l’adopter.

« L’objectif de l’Institut a toujours été d’adopter une approche internationale en matière de sécurité de l’IA, de collaborer avec d’autres pays pour tester des modèles et anticiper les risques liés à l’IA », a déclaré Ian Hogarth, président de l’Institut.

Yohann G.