L’intelligence artificielle (IA) est omniprésente et son utilisation, alimentée par des algorithmes de plus en plus sophistiqués, se répand rapidement. En termes simples, cette technologie est conçue pour entraîner une machine à produire les mêmes résultats qu’un humain dans l’exécution de certaines tâches, en utilisant l’intelligence humaine comme modèle. Alors qu’elle s’est initialement développée pour automatiser des tâches chronophages et peu créatives, les technologies d’apprentissage profond lui ont permis d’envahir le processus créatif et de rendre possible la génération de contenus synthétiques audio, audiovisuels ou écrits, rapidement et à moindre coût. Aujourd’hui, l’IA imprègne l’ensemble de la chaîne de valeur des contenus, de la création à la production, la distribution et la consommation de textes, d’images, de musique et de contenus audiovisuels. Les services de recherche et de référencement, l’indexation, la classification et la valorisation des contenus, la reconnaissance vocale, l’édition et l’amélioration post-production, la synchronisation labiale, le sous-titrage mécanique et les traductions automatiques, la génération de musique et de vidéo grâce aux technologies de conversion de texte en audio et/ou en vidéo ne sont que quelques exemples de ce phénomène.
L’IA générative soulève de nombreuses questions juridiques, éthiques, sociétales et relatives à l’emploi : elle teste les limites du droit d’auteur, qui est destiné à encourager et à récompenser la créativité, les compétences et le travail de chaque personne plutôt qu’une œuvre produite uniquement par des machines. L’IA se nourrit de vastes quantités de données, qui proviennent de différentes sources, qu’il s’agisse de bases de données accessibles au public, de contenus générés par les utilisateurs, de données de commerce électronique ou de bases de données privées. Stimulée par les exemptions relatives à l’extraction de données profondes, lorsqu’elles existent, et par d’autres limitations ou exceptions prévues par les systèmes nationaux de droits d’auteur, l’IA traite des données relevant du domaine public, mais aussi des contenus protégés par le droit d’auteur et d’autres médias inégalement protégés par d’autres régimes juridiques, tels que les lois sur la protection de la vie privée, de la personnalité ou de la publicité. Les « deepfakes », c’est-à-dire les contenus générés artificiellement dans lesquels la voix et/ou l’image d’une personne est remplacée par celle de quelqu’un d’autre, sont un exemple courant de la manière dont l’IA peut exploiter ces failles, en portant atteinte à la réputation des personnes, en sapant les principes démocratiques fondamentaux ou même en menaçant la sécurité nationale.
L’utilisation de l’IA peut soulever des questions importantes lorsque les ensembles de données sont entachés de biais d’échantillonnage, de labellisation, de caractérisation ou de préjugés préexistants, qui peuvent perpétuer, voire amplifier, les stéréotypes et les comportements ou décisions discriminatoires. Les systèmes d’IA peuvent prendre des décisions qui ont des répercussions importantes sur les individus et la société dans son ensemble. Il peut être difficile de comprendre comment ces décisions sont prises et de demander des comptes aux parties responsables. Cela peut conduire à la méfiance et à un manque de transparence dans les processus de prise de décision. L’IA peut également automatiser des tâches qui étaient auparavant effectuées par des humains, provoquant des pertes d’emplois dans certains secteurs – avec un impact économique et sociétal significatif lorsque les travailleurs ne peuvent pas, ou ne sont pas en mesure, de se reconvertir.
La FIA est fermement convaincue que l’IA ne peut pas se développer dans un vide juridique et qu’un cadre réglementaire, de responsabilité et de transparence solide est essentiel pour minimiser les risques que l’utilisation de cette technologie peut poser à la société et pour lui permettre de se développer d’une manière éthique, juste et non-biaisée.
C’est pour cette raison que la FIA salue le règlement de l’UE sur l’IA comme un pas dans la bonne direction. Cependant, nous insistons sur le fait que toute utilisation de l’IA doit être totalement transparente et responsable. Nous nous opposons donc à ce que les utilisateurs d’un système d’IA qui génère ou manipule du contenu image, audio ou vidéo soient exemptés des obligations minimales de transparence lorsque le contenu « fait partie d’une œuvre ou d’un programme manifestement créatif, satirique, artistique ou de fiction, sous réserve des garanties appropriées pour les droits et libertés des tiers« , comme l’a récemment suggéré l’approche générale du Conseil (art. 52, §3). Cette exemption est totalement injustifiée et ambiguë. Elle menacerait indûment les intérêts légitimes des artistes-interprètes que nous représentons et pourrait conduire à une tromperie du consommateur.
Nous sommes également convaincus que la loi sur l’IA doit fortement ancrer le consentement et la compensation au cœur de la manière dont le contenu, y compris les voix et les apparences de nos membres, sont utilisés ou réutilisés pour entraîner les systèmes d’IA. C’est ce qui ressort d’une déclaration publiée conjointement par la FIA, l’Alliance Européenne des Compositeurs et Auteurs de la Musique, le Conseil Européen des Scénaristes, la Fédération européenne des réalisateurs, la Fédération Internationale des Musiciens et la Fédération Européenne des Scénaristes.
Nos revendications fondamentales concernant le développement et l’utilisation sûrs, éthiques et équitables des systèmes d’IA sont également reprises par une initiative qui a récemment rassemblé plus de 40 organisations parties prenantes aux États-Unis et au-delà, visant à mettre l’IA au service de l’art humain plutôt que de voir les machines remplacer le talent, le travail et la créativité de l’homme.
Téléchargez la Déclaration conjointe FIA/ECSA/EWC, FERA, FIM et FSE (EN) ici.