Peu de personnes étaient au courant que le Parlement, le Conseil et la Commission européenne étaient en train de négocier un nouveau cadre juridique pour le développement, la mise en service et l’utilisation de l’Intelligence Artificielle, jusqu’à l’arrivée fracassante sur le marché de ChatGPT. Soudainement, l’opinion publique s’est penchée sur l’IA générative, désormais omniprésente, cherchant à mieux en comprendre le potentiel. Il n’en fallut pas beaucoup pour que des inquiétudes commencent à se matérialiser face au discours rassurant de l’industrie technologique, concernant l’impact de ces nouveaux développements technologiques sur l’emploi et la création humaine. La rapidité exponentielle et rapide de l’IA, ainsi que ses multiples applications, inquiètent désormais de nombreux travailleurs du secteur de la culture, craignant pour leur avenir en l’absence d’un régime clair et contraignant visant à mettre les machines au service de l’homme et non à le remplacer. Ces craintes transcendent désormais notre secteur et suscitent de fortes inquiétudes également au niveau sociétal, l’IA pouvant être utilisée de façon à fausser la réalité, répandre et amplifier des biais et discriminations, et porter atteinte aux valeurs démocratiques fondamentales qui animent nos sociétés.
C’est donc à la dernière minute, alors même que les institutions européennes commençaient à envisager la fin de cette négociation, que le chantier du règlement européen sur l’intelligence artificielle (IA) a été rouvert afin de concevoir des normes également à l’égard de l’IA générative. Cette opportunité nous a semblé providentielle, car il s’agit précisément de ce type d’« intelligence » qui pose le plus de problèmes. L’IA générative se nourrit d’une quantité impressionnante de contenus, protégés ou non, ainsi que de données biométriques ou autres pour s’entraîner et apprendre à générer des contenus synthétiques de plus en plus vraisemblables et proches de ce que l’intelligence humaine pourrait concevoir. En gros, l’IA doit puiser son inspiration dans des bases de données comprenant, notamment, les œuvres des créateurs, leurs voix, leur image et d’autres données personnelles (ce que l’on surnomme le « input ») pour finalement produire quelque chose (souvent dénommé « output ») d’extrêmement réaliste, qui pourrait bien laisser penser qu’il s’agit bien des créateurs eux-mêmes ou le fruit de leur œuvre créative. Cet « output » synthétique, souvent très difficile à reconnaître, peut donc entrer en concurrence directe avec le travail humain et avoir même des conséquences désastreuses pour la réputation des artistes et autres créateurs face à une opinion publique dupée par le réalisme de ces contenus.
D’un point de vue réglementaire, deux axes d’action s’imposent : le premier consiste à interdire ou du moins à rendre plus difficile la collecte et l’extraction des contenus protégés ainsi que des données biométriques sans un consentement informé préalable et une compensation afin de nourrir l’IA générative. D’autre part, il est aussi nécessaire d’imposer une transparence maximale concernant les contenus synthétiques, c’est-à-dire ceux qui sont produits ou modifiés par l’IA générative.
C’est donc une règlementation courageuse et forte tant du point de vue de l’input que de l’output qu’on aurait pu espérer du dernier volet des négociations de l’AI Act. Cependant, la Commission a clarifié dès le départ que ce règlement n’avait pas pour objectif de modifier les règles actuelles en matière de propriété intellectuelle, notamment celles établies par la directive 2019/790 sur le Droit d’Auteur et les Droits Voisins dans le Marché Unique Numérique, ni le règlement européen sur la protection des données personnelles (RGPD). Ainsi, le volet sur l’IA générative s’est ouvert sur des bases peu favorables en fin de parcours, sous la pression des élections européennes imminentes exigeant une finalisation rapide, et face à la réticence de certains États membres, notamment la France et l’Allemagne, à élargir le champ d’application de ce texte à l’IA générative.
En effet, ni la directive DAMUN ni le RGPD ne sont équipés pour protéger adéquatement les créateurs contre l’extraction par l’IA générative de leurs œuvres et de leurs données. La première, principalement en raison de l’exception pour la fouille de textes et de données (article 4 de la directive 2019/790) et de la possibilité plus qu’hypothétique pour les artistes de réserver leurs droits. Le deuxième, en raison du manque de transparence et de l’opacité des modèles d’IA générative, ainsi que des pratiques contractuelles qui font souvent du « consentement » des artistes à l’exploitation de leurs données biométriques une condition pour conclure un contrat de travail.
Face à ces contraintes, la FIA, accompagnée de 12 autres organisations de créateurs, parmi lesquelles des journalistes, des compositeurs, des musiciens, des scénaristes, des réalisateurs, des traducteurs, des artistes de la voix et d’autres encore, a dû opter pour une approche plus restreinte visant à promouvoir une transparence maximale, tant du point de vue de l’input que de l’output. Ainsi, les créateurs pourraient être pleinement informés des données extraites par l’IA, tandis que les consommateurs pourraient également être conscients de l’utilisation de l’IA générative dans les contenus auxquels ils ont accès.
Le résultat final, bien qu’étant un pas dans la bonne direction, reste bien en deçà de nos attentes : le règlement récemment adopté catégorise l’IA en fonction de différents degrés de risque que ces applications impliquent pour la santé et la sécurité des individus et de nos sociétés. Ceux parmi ces derniers jugés comporter des risques inacceptables sont bel et bien interdits. Les applications à haut risque doivent, quant à elles, respecter des obligations strictes en matière de sécurité, de transparence et de qualité, tandis que celles qui présentent un facteur de risque moindre ne doivent respecter que des obligations de transparence. Les préoccupations des créateurs, par contre, ont bel et bien été ignorées.
Il est vrai que les exigences en matière d’étiquetage concernant les contenus produits ou altérés par l’intelligence artificielle ont été renforcées, et qu’une généreuse exemption prévue dans la proposition initiale pour ces altérations au nom de la « liberté d’expression » ou de la « liberté des arts et des sciences » a été éliminée. Le secteur audiovisuel n’échappe pas à ces règles, bien que les obligations de transparence puissent être mises en place de manière à ne pas entraver la présentation ou la jouissance de l’œuvre.
Mais là où cette loi est particulièrement décevante, c’est en ce qui concerne l’extraction de données personnelles et de contenus protégés par le droit d’auteur à des fins d’entraînement de modèles d’IA générative: les fournisseurs de ces modèles doivent désormais établir une politique visant à respecter la législation de l’Union en matière de droits d’auteur et s’engager à identifier et à respecter toute réserve de droit exprimée dans le cadre de l’exception relative à la fouille de textes et de données. Ils doivent également rédiger et rendre accessible au public un « résumé suffisamment détaillé » des contenus utilisés pour l’entraînement du modèle
Il est évident que ce dispositif ne permettra pas aux artistes d’atteindre le niveau de détail nécessaire pour comprendre dans quelle mesure leurs œuvres et données personnelles sont utilisées pour entraîner l’intelligence artificielle générative. Ainsi, en l’absence de preuves, ils auront beaucoup de difficulté à faire valoir leur droit de réserve. Ce droit, d’ailleurs, est mal défini quant à son exercice vis-à-vis de l’IA. De plus, les artistes, qui la plupart du temps cèdent leurs droits aux producteurs, ne pourraient probablement pas l’invoquer de toute façon. Quant au RGPD, il ne semble pas être d’une grande utilité dans ce contexte, en raison du manque d’informations détaillées, des pratiques contractuelles douteuses ou tout simplement du volume énorme de données personnelles et biométriques extraites par l’intelligence artificielle générative à des fins d’entraînement, sans qu’il soit tenu compte d’informer ou d’obtenir le consentement préalable des personnes concernées.
Le règlement, qui n’a pas encore été publié au Journal Officiel, devra nécessitera encore de nombreuses mesures d’application, notamment des modèles et des codes de conduite élaborés par une section spécialisée de la Commission européenne (le IA Office), en consultation avec les parties prenantes. Il reste donc encore une marge pour parfaire ces dispositifs. Le prochain défi sera toutefois d’obtenir une mise à jour de la directive DAMUN et le RGPD sur initiative de la prochaine Commission, ce qui ne sera pas chose facile compte tenu des craintes concernant la réouverture de ces textes réglementaires, déjà le résultat d’un lobbying intense et de compromis arrachés non sans difficulté.