20.11.2024
L’IA générative défie les tentatives de régulation politique
Tribune
16 mai 2023
L’intelligence artificielle (IA) générative, avec ChatGPT, abat les barrières entre approches spécialisées et poursuit l’ambition d’une compétence générale. La révolution portée par les modèles de langage appelle ainsi les États à repenser leurs tentatives de régulation segmentée. À l’heure où l’UE tente d’ajuster son « AI Act » à cette réalité mouvante, la focalisation sur des principes résistant à l’épreuve du temps, centrés sur les données, doit guider la fiabilisation de l’IA au service de la société. Un entretien avec Rémi Bourgeot, économiste et statisticien, chercheur associé à l’IRIS.
L’IA générative représente-t-elle une rupture sociale incontrôlée qui échapperait au politique et à ses concepteurs mêmes ?
L’intelligence artificielle a entamé une révolution depuis 2017, avec le développement spectaculaire des grands modèles de langage (LLM). Ceux-ci ont ouvert de nouvelles perspectives à la génération de contenus par l’IA. Ils abordent des supports incroyablement variés comme s’il s’agissait d’un système linguistique. Cette approche permet autant la génération de contenu tel que des textes, sons, images, ou codes tels que l’analyse génomique.
Le grand bond de l’IA générative, sur la base des LLM, fascine le grand public, en particulier depuis la mise à disposition de ChatGPT par OpenAI, soutenue par Microsoft. Au-delà de la perspective d’une fuite en avant de la désinformation, ces avancées rendent palpable le remplacement d’une partie importante de l’activité humaine, en particulier dans sa dimension répétitive et prédictible. Au passage, l’IA générative percute ainsi notre modèle managérial issu de la tertiarisation, en remettant en cause les compétences, les interactions et l’imaginaire qu’il a façonné. Dans le même temps, elle nous offre la perspective d’un potentiel de productivité décuplée et d’une émancipation des tâches répétitives.
En analysant des quantités très importantes de contenu, l’IA générative établit avant tout des associations entre données, qui lui permettent en retour de créer du contenu, bout à bout. L’IA est, d’une façon certes limitée, devenue plus humaine en apparence, par aspiration à une compétence « générale », fondée sur la logique du langage. Pour autant, ses limites sont évidentes sur le plan de la fiabilité et appellent une refonte, sur le plan de la qualité des données issues du web comme sur celui de la création de nouveaux garde-fous légaux, sur la base d’une réflexion politique.
Les réseaux de neurones sur lesquels repose l’IA ont un aspect de boîte noire. Avec les avancées spectaculaires de l’IA générative, les concepteurs mêmes des modèles sont souvent pris de court par les prouesses logiques dont ils sont capables, après leur mise en service. De plus, la nature des immenses bases de données utilisées pour la formation de ces modèles est souvent gardée secrète. Cette révolution est donc marquée par une multitude d’inconnues et un problème majeur de fiabilité.
Les innovations techniques avaient tendance à passer par le sas de l’utilisation militaire et d’une certaine sécurisation avant d’atteindre le grand public. Aujourd’hui, des outils incroyablement puissants d’IA générative se retrouvent aux mains du grand public, qui en découvre, en même temps que la plupart des experts, le potentiel et les failles, avant même qu’on ne tente de les repenser dans une logique de fiabilité et d’acceptabilité par les sociétés humaines.
Cette phase du développement de l’IA rebat-elle les cartes de la course technologique entre grandes puissances ? Comme l’Europe se positionne-t-elle ?
Cette course est avant tout menée par les États-Unis, où se concentrent et affluent capitaux et talents dans le domaine. En même temps, la Chine fait un effort monumental pour le développement de l’IA, suivant ses propres critères et objectifs politiques, de contrôle social notamment. Le Parti a interdit ChatGPT très rapidement, et les géants numériques chinois parviennent à élaborer leurs propres outils d’IA générative. La principale faiblesse de la Chine ne provient pas tant de la question du développement des modèles d’IA que de celle du matériel. La Chine reste très en retard sur les États-Unis en ce qui concerne les processeurs.
Au-delà des évolutions conceptuelles, la révolution actuelle de l’IA résulte aussi de progrès spectaculaires liés aux processeurs graphiques, en particulier avec l’entreprise américaine Nvidia. La politique américaine visant à limiter la vente de processeurs et d’équipements américains à la Chine et à éviter les transferts de compétences a donc des conséquences directes sur la capacité de cette dernière à relever le défi de l’IA générative et des grands modèles de langage plus généralement.
L’Europe abrite également des compétences de haut niveau. Cependant, il lui manque aujourd’hui autant un système de financements à la hauteur de l’enjeu, notamment pour la croissance de start-up vers une taille critique, que l’infrastructure liée aux géants numériques en termes d’utilisation de données et de capacité de calcul. Pour autant, l’UE est regardée de près dans le monde en ce qui concerne la mise en place de garde-fous juridiques.
L’UE tente de mettre en place une régulation de l’IA, avec l’AI Act. Cette tentative est-elle menacée par les avancées de l’IA générative ?
L’approche de l’UE sur la régulation de l’IA se concentre sur les niveaux de risques liés aux différents types d’outils, conditionnant des exigences légales variables en termes de transparence, de test, de qualité des données et de contrôle humain. Ce niveau de risque va de minimal, par exemple pour un filtre de spams, à inacceptable en ce qui concerne l’usage public de la reconnaissance faciale. Naturellement, cette approche différenciée est bouleversée par l’avènement de modèles à portée générale avec les LLM.
Le Parlement européen a tenté de répondre à l’IA générative en introduisant des règles spécifiques aux modèles de fondation en ce qui concerne la gouvernance des données et les règles de droit d’auteur, ainsi que des contrôles de sécurité avant toute diffusion publique. Cependant, nous n’assistons pas seulement à l’émergence d’un outil de plus nécessitant un ensemble spécifique de règles supplémentaires, mais à une unification massive des techniques d’IA qui continueront de les rendre incroyablement plus puissantes et qui remettront en cause toute classification.
Pour sa part, la Chine a conçu une législation spécifique pour l’IA générative. Son paysage réglementaire diffère clairement de celui de l’UE, car elle poursuit des objectifs redoutables qui incluent notamment l’utilisation de la reconnaissance faciale à des fins de contrôle social. Son approche de la réglementation de l’IA générative se concentre sur le contrôle des données sous-jacentes et du contenu créé, qui doit être conforme à la ligne officielle. Au-delà de ces objectifs politiques particuliers, les données utilisées par les modèles et la sécurité sont des questions que tous les décideurs politiques doivent aborder. Pour les démocraties libérales, la tâche est d’autant plus grande qu’elles doivent faire face aux nouveaux risques apportés par l’IA tout en préservant leurs propres valeurs politiques. Geoffrey Hinton, le pionnier des réseaux de neurones souvent considéré comme le « parrain de l’IA », déclare que sa principale préoccupation concernant les dangers de l’intelligence artificielle réside dans les faiblesses du système politique.
La réglementation centrée de prime abord sur les diverses utilisations est condamnée à courir derrière les évolutions technologiques. Les modèles de langage restent des outils d’association de données d’origine humaine. Il est donc crucial que la réglementation se centre sur la question des sources, et de leur traitement par les modèles en général. À ce stade, nous avons surtout besoin de principes directeurs, dans une optique libérale et résiliente à l’épreuve du temps, pour guider une réglementation qui devra s’adapter à des évolutions techniques radicales et inattendues de l’IA.