Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Je suis journaliste en intelligence artificielle et l’année prochaine, je veux m’ennuyer. Je ne veux pas entendre parler d’une augmentation des tarifs Escroqueries à l’intelligence artificielleMessi la lutte pour le pouvoir dans les conseils d’administration ou des personnes qui abusent des programmes d’IA pour créer des photos et des vidéos nuisibles, trompeuses ou délibérément incendiaires.
C’est une tâche difficile et je sais que mon souhait ne se réalisera probablement pas. Il y a tout simplement trop d’entreprises développant l’intelligence artificielle et trop peu de directives et de réglementations. Mais si je devais demander une chose en cette période des fêtes, c’est celle-ci : 2025 devrait être l’année où nous obtiendrons des balises de contenu IA significatives, en particulier pour les images et les vidéos.
Les images et vidéos générées par l’IA ont parcouru un long chemin, notamment au cours de l’année écoulée. Mais l’évolution des générateurs d’images IA est une arme à double tranchant. Les améliorations du modèle signifient que les images sortent avec moins hallucinations ou un coup de chance. Mais ces choses étranges, des personnes avec 12 doigts et des objets en train de disparaître, étaient l’une des rares choses que les gens pouvaient marquer et deviner si l’image avait été créée par des humains ou par l’IA. À mesure que les générateurs d’IA s’amélioreront et que ces signes disparaîtront, cela deviendra un gros problème pour nous tous.
Les luttes de pouvoir juridiques et les débats éthiques sur l’imagerie IA se poursuivront sans aucun doute l’année prochaine. Mais pour l’instant, les générateurs d’images et les services d’édition d’IA sont légaux et faciles à utiliser. Cela signifie que le contenu de l’IA continuera d’inonder nos expériences en ligne et qu’identifier l’origine d’une image deviendra plus difficile – et plus important – que jamais. Il n’existe pas de solution miracle et universelle. Mais je suis convaincu que l’adoption généralisée des balises de contenu IA serait d’une grande aide.
S’il y a un bouton sur lequel vous pouvez appuyer pour rendre n’importe quel artiste fou, c’est bien pour démarrer le générateur d’images IA. La technologie, alimentée par l’IA générative, peut créer des images entières à partir de quelques mots simples dans vos requêtes. Je suis utilisé et révisé plusieurs d’entre eux pour CNET, et cela me surprend toujours à quel point les images peuvent être détaillées et claires. (Ils sont tous ne sont pas gagnantsmais ils peuvent être plutôt bons.)
Comme mon ancien collègue de CNET Stephen Shankland pour le dire succinctement“L’IA peut vous permettre de mentir avec des photos. Mais vous ne voulez pas d’une photo épargnée par le traitement numérique.” Trouver l’équilibre entre retoucher et éditer la vérité est une tâche à laquelle les photojournalistes, les éditeurs et les créateurs sont confrontés depuis des années. L’IA générative et l’édition de l’IA ne font que compliquer les choses.
Prenons Adobe par exemple. Cet automne, Adobe a présenté un tas de nouvelles fonctionnalitésdont beaucoup sont alimentés par l’intelligence artificielle générative. Photoshop peut désormais supprimer les fils et câbles gênants des images, et les utilisateurs de Premiere Pro peuvent étendre les clips vidéo existants avec la génération AI. Le remplissage génératif est l’un des les outils Photoshop les plus populairesà côté de l’outil de recadrage, m’a dit Deepa Subramaniam d’Adobe. Adobe a clairement indiqué que son édition générative sera la nouvelle norme et l’avenir. Et comme Adobe est la norme de l’industrie, cela place les créateurs face à un dilemme : se lancer dans l’IA ou se laisser distancer.
Bien qu’Adobe promette de ne jamais former le travail de ses utilisateurs (l’un des plus gros problèmes de l’IA générative), toutes les entreprises ne le font pas, ni même ne divulguent comment leurs modèles d’IA sont construits. Les créateurs qui partagent leur travail en ligne sont déjà confrontés au « vol d’œuvres d’art et au plagiat », selon l’artiste numérique René Ramos il m’a dit plus tôt cette année, soulignant comment les outils de génération d’images donnent accès à des styles que les artistes ont passé leur vie à perfectionner.
Les balises IA sont tout type d’avis numériques qui indiquent quand une IA peut avoir créé ou modifié de manière significative une image. Certaines entreprises ajoutent automatiquement un filigrane numérique à leurs générations (par exemple Image de la méta-IA), mais beaucoup offrent la possibilité de les supprimer en passant à des niveaux payants (tels qu’OpenAI Dall-E 3). Les utilisateurs peuvent également simplement recadrer l’image pour découper l’identifiant.
Beaucoup de bon travail a été accompli au cours de la dernière année pour contribuer à cet effort. L’initiative d’authenticité du contenu d’Adobe a lancé cette année une nouvelle application appelée Informations d’identification du contenu qui permet à quiconque d’attacher des signatures numériques invisibles à son travail. Les créateurs peuvent également utiliser ces informations d’identification pour divulguer et suivre l’utilisation de l’intelligence artificielle dans leur travail. Adobe dispose également d’une extension Google Chrome qui permet d’identifier ces informations d’identification dans le contenu du Web.
Google a adopté une nouvelle norme d’identification de contenu pour images et annonces dans la recherche Google dans le cadre de la Coalition for Content Origin and Authenticity, cofondée par Adobe. Il a également ajouté un nouvelle rubrique aux informations d’image dans la recherche Google mettant en évidence toute modification de l’IA pour une “plus grande transparence”. Le programme bêta de Google pour le filigranage et l’identification du contenu IA, appelé ID de synthétiseura fait un pas en avant et a été introduction de l’open source pour les développeurs cette année.
Les sociétés de médias sociaux travaillent également sur le balisage du contenu par l’IA. Les gens sont deux fois plus susceptibles de rencontrer des images en ligne fausses ou trompeuses sur les réseaux sociaux que sur tout autre canal, selon un rapport. Initiative MediaVise de Pointer. Instagram et Meta, la société mère de Facebook, ont introduit l’automatisation Balises « Fabriqué avec l’IA ». pour les publications sur les réseaux sociaux et le marquage rapide, signalé par erreur photos réalisées par l’IA. Cibler plus tard clarifié que les étiquettes s’appliquent lorsqu’elles « détectent des indicateurs d’image IA standard de l’industrie » et modifient l’étiquette pour lire « informations IA » afin d’éviter l’implication que l’image a été entièrement générée par un programme informatique. D’autres plateformes de médias sociaux, telles que Pinterest et TikTok, disposent de balises IA avec plus ou moins de succès. D’après mon expérience, Pinterest est fortement submergé par l’IA, et les balises IA de TikTok sont omniprésentes mais faciles à ignorer.
Adam Mosseri, responsable d’Instagram, a récemment partagé un série de messages sur le sujet, en disant: “Notre rôle en tant que plate-forme Internet est de signaler du mieux que nous pouvons le contenu généré par l’IA.” Mais certains contenus passeront inévitablement entre les mailles du filet, et toutes les fausses déclarations ne seront pas générées par l’IA, nous devons donc également fournir un contexte sur qui partage afin que vous puissiez juger par vous-même à quel point vous voulez croire leur contenu.
Si Mossery a un conseil utile autre que « considérez la source » – que la plupart d’entre nous apprennent en cours d’anglais au lycée – j’aimerais l’entendre. Mais de manière plus optimiste, cela pourrait faire allusion au développement futur de produits pour donner aux gens plus de contexte, comme les notes de la communauté Twitter/X. Ces choses comme les balises IA seront encore plus importantes si la Meta décide d’ajouter sa propre expérience Suggestions de publications générées par l’intelligence artificielle nos flux.
Tout cela est formidable, mais nous avons besoin de plus. Nous avons besoin d’une signalisation cohérente et visiblement évidente sur tous les coins d’Internet. Il n’est pas enfoui dans les métadonnées de la photo, mais placé dessus (ou au-dessus/en dessous). Plus c’est évident, mieux c’est.
Il n’existe pas de solution simple à ce problème. Ce type d’infrastructure en ligne nécessiterait beaucoup de travail et de collaboration entre les groupes technologiques, sociaux et éventuellement gouvernementaux et la société civile. Mais ce type d’investissement visant à distinguer les images brutes de celles entièrement générées par l’IA pour tout ce qui se trouve entre les deux est essentiel. Apprendre aux gens à identifier le contenu de l’IA est formidable, mais à mesure que l’IA s’améliore, même les experts comme moi auront plus de mal à évaluer avec précision les images. Alors pourquoi ne pas rendre cela très évident et donner aux gens les informations dont ils ont besoin sur l’origine de l’image – ou au moins les aider à reconsidérer leur décision lorsqu’ils voient quelque chose de bizarre ?
Je crains que ce problème ne figure actuellement au bas de la liste des tâches à accomplir par de nombreuses sociétés d’IA, d’autant plus que la tendance semble se tourner vers le développement. Vidéos IA. Mais pour le bien de ma santé mentale et de celle de tous les autres, 2025 doit être l’année où nous établirons un meilleur système d’identification et de marquage des images d’IA.