En France, aux États-Unis et ailleurs, la licéité du mode d’apprentissage des intelligences artificielles fait débat. Les actions en justice contre OpenAI, l’entreprise de ChatGPT, se multiplient outre-Atlantique, le secteur culturel français interpelle le gouvernement sur le respect des droits d’auteur et, un peu partout sur le globe, les médias bloquent leurs contenus au robot d’exploration du Web d’OpenAI.
Intelligence artificielle : des auteurs et des médias français et anglo-saxons se mobilisent pour défendre leurs textes
George R. R. Martin, célèbre auteur de la série Le Trône de fer (Game of Thrones), entame un nouveau chapitre, judiciaire cette fois-ci. En septembre dernier, il a déposé plainte contre OpenAI pour usage illicite de son œuvre devant le tribunal fédéral de New York. De nombreux auteurs et la Authors Guild, la plus ancienne organisation professionnelle d'écrivains publiés aux États-Unis, se sont joints à lui. Cette action de groupe n’est pas la première en la matière aux États-Unis. À la fin du mois de juin 2023, les romanciers Mona Awad et Paul Tremblay avaient déjà lancé une plainte en recours collectif auprès du tribunal fédéral de San Francisco contre la start-up américaine. Quelques jours plus tard, en juillet, trois autres auteurs américains – Sarah Silverman, Christopher Golden et Richard Kadrey – avaient saisi le même tribunal, pour les mêmes raisons.
Atteinte aux droits d’auteur
Tous reprochent à Open AI de ne pas respecter les droits d’auteur qui protègent leurs œuvres. La plainte en recours collectif de Mona Awad et Paul Tremblay indique que les plaignants n'ont pas consenti à “l’utilisation de leurs livres protégés par le droit d'auteur comme matériel de formation pour ChatGPT*”. Et que “néanmoins, leurs œuvres ont été ingérées et utilisées pour former ChatGPT*”. Selon les écrivains, leurs textes constituent des “ingrédients clef*” qui offrent au modèle de langage – appellation du logiciel d’IA conçu pour analyser et émettre du langage naturel – les “meilleurs exemples d’écriture de haute qualité*”. Toujours selon la plainte des deux auteurs, les intelligences artificielles se fournissent sur le controversé BookCorpus, une compilation de données créée en 2015 par une équipe de chercheurs en IA pour former des modèles linguistiques. Une bibliothèque numérique qui contient tant des contenus libres que des contenus protégés par le droit d’auteur, copiés sans consentement. L’utilisation illégale des œuvres permettrait in fine aux défendeurs de tirer des avantages commerciaux et des profits considérables.
Du côté de l’Hexagone, des voix s’élèvent devant l’essor des IAG : 73 syndicats de l’industrie culturelle française ont réclamé, dans une lettre adressée à Élisabeth Borne le 29 septembre 2023, la mise en place d’un cadre réglementaire respectueux des droits d’auteur et des droits voisins. Un cri d’alerte qui vise notamment OpenAI et son logiciel ChatGPT. Le collectif souligne que “ces IAG constituent des sortes de ‘boîtes noires’ qui ne permettent pas aux auteurs, à leurs cessionnaires et ayants droit de savoir si leurs œuvres ont été utilisées, à quelle date elles ont intégré le corpus alimentant l’IA et donc si leurs droits de propriété intellectuelle ont été respectés”. Les syndicats demandent l’introduction dans le futur règlement européen d’un principe de transparence totale qui se matérialiserait par “une liste détaillée des œuvres utilisées par les systèmes d’IAG et leurs sources, liste qui doit être tenue à la disposition des titulaires de droit”.
La presse se barricade
Les romanciers ne sont pas les seuls à s’attaquer à OpenAI. La presse française et anglo-saxonne pose des limites. Le 9 août 2023, plusieurs agences de presse internationales, dont l’AFP, AP ou encore Getty Images, ont publié une tribune pour appeler les dirigeants politiques et les leaders du monde informatique à encadrer l’usage des IA qui “produisent des erreurs factuelles et des informations fictives, en plus de propager des préjugés”. Et là encore pour imposer de la transparence quant aux méthodes d’entraînement des IA.
Certains médias prennent déjà des dispositions. Depuis le 3 août 2023, le New York Times prohibait, sans le consentement écrit préalable de The New York Times Company, l’utilisation commerciale de son contenu, si c’est en lien avec l’entraînement d’un logiciel ou d’une IA. Le 27 décembre 2023, le journal franchit une étape supplémentaire en déposant une plainte auprès du tribunal de New York contre OpenAI et Microsoft pour contrefaçon et utilisation illégale de ses articles de presse. CNN, le Chicago Tribune, le Washington Post, l’agence britannique Reuters, Radio France, France Médias Monde, TF1 et Ouest France ou encore des médias australiens comme ABC, interdisent aussi l’utilisation commerciale de leurs contenus par les IA. La plupart de ces médias ont l’espoir de négocier des contrats de licence pour rémunérer les contenus utilisés par l’IA pour s’entraîner. Ce à quoi est parvenu le groupe de médias allemand Axel Springer (Politico, Bild, Business insider) le 13 décembre 2023 en signant un partenariat avec OpenAI en vertu duquel la firme américaine pourra utiliser les contenus des médias du groupe tant pour l’entrainement du logiciel que pour une utilisation des articles par ChatGPT, et ce en échange d’une rémunération annuelle de dizaine de millions de dollars, selon le Financial Time.
De son côté, OpenAI a déclaré au média américain Pymnts, en septembre dernier, avoir des échanges avec les “créateurs à travers le monde*”, notamment la Authors Guild, pour comprendre leurs préoccupations et trouver un terrain d’entente.
En attendant, l’AI Act, règlement européen proposé en avril 2021 par Bruxelles pour la régulation des intelligences artificielles, avance. Le 8 décembre 2023 les députés européens se sont accordés sur les dispositions du futur texte. Les IA à usage général, et les modèles sur lesquels elles sont basées, devront se conformer à la législation de l’Union européenne sur les droits d’auteur et diffuser des résumés détaillés du contenu utilisé pour la formation de leur logiciel.
Chloé Lassel
*en anglais dans le texte
Article mis à jour le 4 janvier 2024