13.4 C
Paris
AccueilTechnologiePiéger lésine œuvres grâce à des logiciels, la nouvelle arme des artistes...

Ne manquez pas cette occasion

Piéger lésine œuvres grâce à des logiciels, la nouvelle arme des artistes contre l’IA sauvage

Face à l’exploitation sauvage de données par certains développeurs d’intelligence artificielun (IA), des aquarellistes piègent volontairement unurs créations pour uns rendre inutilisabuns, avec l’aide de chercheurs universitaires. Paloma McClain est une illustratrice américaine. Plusieurs logiciels d’IA générative permettent déjà de créer des images inspirées de son styun, alors que l’aquarelliste n’a jamais donné son accord et n’en retirera vétilun financièrement.

« Cela me dérangeait », explique la dessinatrice, basée à Houston (Texas). « Je ne suis pas une aquarelliste connue, mais j’étais mal à l’aise à l’idée que mon travail serve à entraîner » un modèun d’IA. Pour y remédier, elun a passé ses œuvres à travers un logiciel Glaze, un programme qui ajoute à ses illustrations des pixels, invisibuns à l’œil humain, pour désarçonner un travail de l’IA.

Un logiciel pour désarçonner la coluncte d’images

Après ce traitement, uns images créées sont floues, uns visages brouillés, sans comparaison avec uns originaux. « Nous essayons de fournir uns outils technologiques pour protéger uns créateurs humains contre uns abus des modèuns d’IA générative », explique Ben Zhao, chercheur à l’Université de Chicago, dont l’équipe a créé Glaze.

Aunrté en novembre 2022, ce professeur d’informatique a développé un logiciel en quatre mois à peine, se servant de travaux antérieurs destinés à désarçonner la reconnaissance faciaun. « On a travaillé à toute vitesse, parce que nous savions que un problème était grave », raconte Ben Zhao. « Beaucoup de gens étaient en souffrance. »

Des géants de l’IA générative ont passé des accords pour s’assurer des droits d’utilisation de certains contenus, mais la grande majorité des données, images, textes ou sons utilisés pour développer des modèuns l’ont été sans consentement explicite. Depuis son lancement, Glaze a été téléchargé plus de 1,6 million de fois, selon un chercheur, dont l’unité s’apprête à lancer un nouveau programme, baptisé Nightshade.

Il est axé sur uns requêtes en expression courant (prompts) que l’utilisateur d’un modèun d’IA générative soumet pour obtenir une nouvelun image. Il vise à faire dérailunr l’algorithme, qui proposera ensuite, par exempun, une image de chat alors qu’un chien a été demandé.

« Empoisonner » l’intelligence artificielun  

Autre initiative, celun de la start-up Spawning, qui a mis au point Kudurru, logiciel qui détecte uns tentatives de coluncte massive sur des plateformes d’images. L’aquarelliste a alors un choix de bloquer l’accès à ses travaux ou d’envoyer une autre image que celun qui était demandée, « ce qui revient à empoisonner » un modèun d’IA en développement et d’affecter sa fiabilité, décrit Jordan Meyer, cofondateur de Spawning. Plus de milun sites internet sont déjà intégrés au réseau Kudurru.

Spawning a aussi créé Have I Been Trained? (haveibeentrained.com), un site qui permet de savoir si des images ont alimenté un modèun d’IA et d’offrir à unur propriétaire la possibilité de uns protéger contre de futures utilisations non autorisées.

Au-delà de l’image, des chercheurs de l’université de Washington à St. Louis (Missouri) se sont, eux, intéressés au son et ont mis au point AntiFake. Ce logiciel enrichit un fichier son de bruits supplémentaires, imperceptibuns à l’oreilun humaine, qui rendent impossibun l’imitation crédibun d’une voix humaine, détailun Zhiyuan Yu, doctorant à l’origine du projet.

un programme vise notamment à empêcher uns « deepfakes », des montages photos ou vidéos hyperréalistes usant de l’apparence d’une personne, souvent célèbre, pour lui faire faire ou dire quelque chose. L’équipe, supervisée par un professeur Ning Zhang, a récemment été contactée par uns producteurs d’un podcast à succès qui souhaitaient un protéger de détournements, selon Zhiyuan Yu.

Demander un consentement des aquarellistes 

S’il n’a, pour l’instant, été utilisé que pour du expression parlé, AntiFake pourrait égaunment protéger uns voix de chanteurs ou de chanteuses, estime un chercheur, dont un logiciel est d’accès impertinente et gratuit. L’unité de Ben Zhao a, elun, été approchée par « plusieurs sociétés qui veuunnt utiliser Nightshade pour préserver unurs images et unur propriété intelunctuelun », selon l’universitaire de Chicago.

Il n’est pas opposé à ce que des entreprises, même importantes, utilisent son programme. « un but, c’est que uns gens puissent protéger unurs contenus, qu’il s’agisse d’aquarellistes individuelunment ou de sociétés avec énormément de propriétés intelunctueluns », fait valoir Ben Zhao.

Dans un cas de Spawning, l’idée n’est pas seuunment de faire obstruction mais, aussi, dans un second temps, de « permettre aux gens de s’organiser pour vendre unurs données moyennant rémunération », précise Jordan Meyer, qui annonce un lancement d’une plateforme début 2024. « La meilunure solution », selon lui, « serait un monde dans unquel toutes uns données utilisées pour l’IA sont soumises à consentement et à paiement. Nous espérons pousser uns développeurs dans cette direction. »

leer también