L’UE peine à donner l’exemple en matière de transparence et de responsabilité dans le domaine de l’IA

Conditions de travail Propriété intellectuelle Actualités

La FIA et plusieurs organisations de créateurs, représentant des artistes-interprètes, des écrivains, des traducteurs, des compositeurs, des chansonniers, des scénaristes, des réalisateurs, des artistes visuels et des journalistes, ont collectivement appelé les décideurs politiques de l’UE à intégrer de solides protections en matière de transparence au cœur de la réglementation de l’UE sur l’IA. Cette législation, se trouve actuellement dans la phase finale de négociation dite de « trilogue », impliquant que le Parlement européen, le Conseil et la Commission alignent leurs positions afin de parvenir à un consensus. Il s’agit d’un effort novateur de la part d’un organe législatif majeur pour réglementer le développement et la mise en œuvre de l’IA, y compris les systèmes et modèles d’IA à usage multiple, tout en sauvegardant les droits fondamentaux des personnes et de la société.

Des obligations de transparence étendues et solides sont essentielles pour permettre aux créateurs de protéger leur image, leur ressemblance, leurs caractéristiques personnelles et leur travail artistique contre l’exploitation non autorisée et l’absence de compensation à des fins d’entraînement à l’IA. Cela inclut la création de répliques numériques synthétiques et de clones capables de prononcer des mots jamais prononcés et et d’accomplir des mouvements jamais effectués par une personne réelle. Si les “hypertrucages » constituent une menace sérieuse pour la réputation personnelle et professionnelle des créateurs que nous représentons, la capacité de générer et de diffuser de la désinformation engendre également de sérieux défis sociétaux et politiques, ce qui incite la FIA et ses partenaires de coalition à plaider en faveur d’exigences d’étiquetage obligatoires pour tous les contenus générés ou manipulés par l’IA.

Actuellement, le projet de loi sur l’IA n’est pas à la hauteur tant sur le plan de la transparence que sur celui de l’étiquetage, avec des dispositions qui ne répondent pas encore aux standards nécessaires pour un déploiement de l’IA qui soit à la fois respectueux des créateurs et responsable pour la société dans son ensemble. Si certaines propositions de compromis suggèrent d’améliorer la transparence autour de l’IA générative, elles devraient être renforcées pour rendre les développeurs de ces technologies pleinement responsables de la manière dont leurs modèles sont entraînés. Cela implique de prouver la conformité avec l’acquis de l’UE, y compris le droit d’auteur et les droit voisins mais aussi les règles de protection des données personnelles, et de respecter des obligations strictes en matière d’archivage des données utilisées pour former leurs systèmes.

En ce qui concerne le  » output « , la FIA et ses partenaires coalisés s’opposent avec véhémence à toute tentative d’introduire des exceptions sous prétexte de  » liberté d’expression  » et de  » liberté de l’art et de la science « . De telles exceptions rendraient les obligations de labellisation largement inefficaces, provoquant une grande confusion parmi les citoyens quant à ce qui est authentique et ce qui ne l’est pas.

Lisez le contenu intégral de la déclaration (en anglais) ici.

Retour en haut
This site is registered on wpml.org as a development site.