WASHINGTON La vice-présidente Kamala Harris rencontrera jeudi les PDG de quatre grandes entreprises développant l’intelligence artificielle, alors que l’administration Biden met en place une série d’initiatives visant à garantir que cette technologie en évolution rapide améliore la vie des gens sans mettre en danger leurs droits et leur sécurité.
L’administration démocrate prévoit d’annoncer un investissement de 140 millions de dollars pour la création de sept nouveaux instituts de recherche sur l’intelligence artificielle, ont déclaré des responsables de l’administration à des journalistes lors de la présentation de l’initiative.
En outre, le Bureau de la gestion et du budget de la Maison-Blanche devrait publier dans les prochains mois des orientations sur la manière dont les agences fédérales peuvent utiliser les outils d’IA. Les principaux développeurs d’IA s’engageront également à participer à une évaluation publique de leurs systèmes en août, à l’occasion de la convention DEF CON de Las Vegas sur le piratage informatique.
Jeudi, M. Harris et des représentants de l’administration prévoient de discuter des risques qu’ils voient dans le développement actuel de l’IA avec les PDG d’Alphabet, d’Anthropic, de Microsoft et d’OpenAI. Le message des responsables gouvernementaux aux entreprises est qu’elles ont un rôle à jouer dans la réduction des risques et qu’elles peuvent collaborer avec le gouvernement.
Le mois dernier, le président Joe Biden a fait remarquer que l’IA pouvait contribuer à lutter contre les maladies et le changement climatique, mais qu’elle pouvait également nuire à la sécurité nationale et perturber l’économie de manière déstabilisante.
Le lancement du chatbot ChatGPT cette année a suscité un débat accru sur l’IA et le rôle du gouvernement dans cette technologie. Le fait que l’IA puisse générer des écrits semblables à ceux des humains et des images truquées suscite des préoccupations éthiques et sociétales.
OpenAI, qui a développé le ChatGPT, a gardé le secret sur les données à partir desquelles ses systèmes d’IA ont été entraînés. Il est donc difficile pour les personnes extérieures à l’entreprise de comprendre pourquoi ChatGPT produit des réponses biaisées ou fausses aux demandes, ou de répondre aux préoccupations concernant le vol d’œuvres protégées par le droit d’auteur.
Les entreprises qui craignent d’être tenues pour responsables d’un élément contenu dans leurs données d’apprentissage pourraient également ne pas être incitées à les suivre correctement, a déclaré Margaret Mitchell, responsable de l’éthique chez Hugging Face, une startup spécialisée dans l’IA.
« Je pense qu’il n’est peut-être pas possible pour OpenAI de détailler toutes ses données d’entraînement à un niveau de détail qui serait vraiment utile en termes de préoccupations relatives au consentement, à la vie privée et aux licences », a déclaré Mme Mitchell lors d’une interview mardi. « D’après ce que je sais de la culture technologique, cela ne se fait pas.
En théorie, au moins, une loi sur la divulgation pourrait obliger les fournisseurs d’IA à ouvrir leurs systèmes à un examen plus approfondi de la part de tiers. Mais comme les systèmes d’IA sont construits à partir de modèles antérieurs, il ne sera pas facile pour les entreprises d’assurer une plus grande transparence après coup.