Le Nida, à Issy-les-Moulineaux, accueillait le 15 novembre dernier une conférence organisée par l’association Global AI sur l’éthique et la gouvernance de l’intelligence artificielle. La conférence a débattu sur l’importance de l’éthique et de la gouvernance dans le développement de l’intelligence artificielle, et sur la nécessité de régulations claires et de coopération internationale pour éviter les dérives et maximiser les bénéfices de l’IA.
L’intelligence artificielle (IA) est souvent présentée comme une technologie révolutionnaire, capable de transformer nos sociétés. Toutefois, sa montée en puissance soulève des enjeux éthiques, environnementaux et de gouvernance, comme l’a souligné la conférence, organisée par l’association Global AI. L’association suisse vise à promouvoir l’éthique des technologies liées à l’IA et à donner une voix aux acteurs qui n’en ont pas auprès des institutions. Elle cherche à sensibiliser la société aux possibilités et aux préoccupations liées à l’IA, et à explorer la possibilité d’une gouvernance mondiale pour les applications de l’IA.
Cet événement a mis en lumière les défis et opportunités liés au développement de l’IA, tout en insistant sur l’importance de régulations internationales et de pratiques éthiques.
L’IA : un bien commun universel
L’un des messages clés de cette conférence, porté par Daniela Leveratto, présidente de Global AI, est que l’intelligence artificielle doit être considérée comme un bien commun, accessible à tous, indépendamment des barrières linguistiques, culturelles ou géographiques. Cette approche universelle vise à garantir une utilisation équitable et responsable de l’IA, tout en prenant en compte ses impacts sociaux et environnementaux.
Emmanuel Goffi, philosophe spécialisé en éthique de l’IA et enseignant à l’ISEP, a insisté sur la nécessité de démystifier cette technologie, tout en restant vigilant face à ses dangers. Il a également évoqué le rôle crucial du langage et du narratif dans l’éthique, en appelant à un regard critique sur les discours dominants qui entourent l’IA.
Une gouvernance mondiale fragmentée
Le développement de l’intelligence artificielle est marqué par des enjeux géopolitiques et économiques majeurs. Avec des revenus projetés à 500 milliards de dollars dès 2024, la course à l’IA est dominée par les États-Unis et la Chine, laissant des acteurs comme l’Union européenne et la France en retrait. Cependant, ces derniers misent sur une approche différenciée, basée sur la régulation et les normes. Le RGPD et l’AI Act en sont des exemples, offrant un cadre législatif qui impose des contraintes éthiques aux acteurs internationaux.
Malgré ces efforts, la gouvernance globale de l’IA reste difficile à établir. 75 % des normes d’IA sont produites par le monde occidental, bien que ce dernier ne représente qu’environ 15 % de la population mondiale. Cela suscite des tensions culturelles et éthiques, notamment dans des pays comme l’Inde ou l’Arabie Saoudite, qui critiquent l’imposition de valeurs occidentales.
Un panel d’experts invités par l’association Global AI a réuni Michel-Marie Maudet, directeur général de Linagora, Delphine Dogot, maître des conférences en droit à l’Université catholique de Lille, directrice du studio Droit/Digital, Stéphano Piano, Altruistic (Ex-OECD) et Bertrand Cassar, docteur en droit et responsable «Gouvernance des données» au sein du groupe La Poste
Les défis environnementaux et sociétaux
Un autre point central de la conférence a été l’impact environnemental de l’intelligence artificielle. Les centres de données nécessaires pour entraîner les grands modèles d’IA, comme ceux de type ChatGPT, consomment d’énormes quantités d’énergie. Selon les intervenants, cet impact est souvent sous-estimé et nécessite une régulation stricte pour éviter une empreinte carbone incontrôlée.
En outre, l’IA peut accentuer les inégalités sociales et géopolitiques. Les données utilisées pour entraîner les modèles sont majoritairement issues de cultures occidentales, créant des biais linguistiques et culturels. Des projets comme LUCIE, un modèle open source développé par la société LINAGORA, implantée à Issy-les-Moulineaux, visant à diversifier les données d’entraînement, tentent de corriger ces disparités.
Former pour mieux gouverner
La formation et l’éducation à l’intelligence artificielle sont apparues comme des priorités absolues. Michel-Marie Maudet, directeur général de Linagora, a rappelé l’importance de sensibiliser les citoyens et les professionnels à un usage raisonné de l’IA. La France, avec ses ingénieurs et académiques de haut niveau, a un rôle clé à jouer dans cette transformation.
La conférence de Global AI a également souligné la nécessité d’un enseignement interdisciplinaire, mêlant savoirs techniques et juridiques, pour préparer les citoyens aux défis futurs. Les outils comme ChatGPT, lorsqu’ils sont bien encadrés, peuvent devenir des instruments pédagogiques puissants, à condition de ne pas se laisser submerger par les promesses marketing de la Silicon Valley.
Vers un futur maîtrisé
Pour conclure, les experts ont unanimement insisté sur l’urgence de réguler l’intelligence artificielle afin d’éviter les dérives. Qu’il s’agisse de désinformation, de militarisation ou d’impacts environnementaux, les risques sont réels. Une gouvernance mondiale, inclusive et agile, apparaît comme une solution indispensable pour maximiser les bénéfices de l’IA tout en limitant ses dangers.
Comme l’a rappelé un intervenant : « Il ne faut pas réitérer les erreurs commises lors du début d’Internet. » En d’autres termes, la course à l’innovation ne doit pas se faire au détriment de principes éthiques fondamentaux.
Avec des initiatives telles que l’AI Act et des projets open source comme LUCIE, l’Europe peut jouer un rôle central dans cette transition. Mais la clé réside dans la coopération internationale : seul un effort collectif permettra de construire une intelligence artificielle qui serve véritablement l’humanité.
Quelques chiffres-clés de l’IA
- Revenus estimés de l’IA mondiale : 500 milliards de dollars en 2024.
- Pays participant à la course à l’IA : 83, avec les États-Unis et la Chine en tête.
- Taux d’utilisation de l’IA par les PME en Europe : seulement 3 %.
- Part des normes d’IA produites par l’Occident : 75 %.