Les IA inventent des citations fausses d’auteurs réels

Dès l’émergence de ChatGPT, il est apparu qu’une IA conversationnelle pouvait inventer du contenu, ce qui est un peu ce que l’on attend d’elle, mais aussi des références. Un avocat qui avait demandé à ChatGPT de lui produire sa plaidoirie s’est retrouvé avec des références à des articles de loi tout à fait crédibles mais absolument farfelues. Il s'est fait explosé au tribunal est a gagné en notoriété grâce à ce bad buzz.

On retrouve le même problème pour les sources d’un propos, qui sont attribuées à n’importe qui. C’est l’expérience qu’à vécu Émilie M Bender, qui s’est vu attribuer des propos qu’elle n’a jamais tenus par une IA générative. Un nouveau média, Biharprabha, dont le contenu est généré non pas par des journalistes mais par une IA générative, a mis en ligne un article prêtant des propos faux à Émilie M Bender. Celle-ci se retrouve donc cité comme auteur de propos qui entache sa crédibilité de scientifique, totalement à son insu. Ce n’est que par ce qu’elle fait une veille des articles la citant qu’elle l’a découvert.

Partager Partager ce billet sur les réseaux sociaux

Ajouter un commentaire

Le code HTML est affiché comme du texte et les adresses web sont automatiquement transformées.

Fil des commentaires de ce billet