PAGE SÈCHE et ENCRE SYMPATHIQUE

Balourd 10, que ne rebute pas l'emploi de l'encre sympathique, n'entretient pas pour autant la phobie de la page blanche. (Une encre sympathique devient invisible en séch

mardi 9 janvier 2024

Bing contre ChatGPT (ajout)

Après avoir mis à l'épreuve Chat GPT avec l'aide d'Émile Nelligan, j'ai testé le copilote IA de Bing. Je l'ai interrogé sur la signification des paroles de la chanson Pourvu qu'elles soient douces de Mylène Farmer.

La réponse de Bing s'est d'abord affichée mot après mot quand, bing !, elle a été supprimée et remplacée par une invitation à passer à autre chose (image 1). M'attendant par expérience à ce genre de comportement, j'ai filmé l'écran après avoir posé ma question afin de conserver une image de la réponse en cas de sa suppression (image 5).

La veille, en effet, Bing avait réagi de façon tout aussi cavalière dans la même situation. Le contenu de sa réponse avait été beaucoup plus franc. Bing avait commencé à m'expliquer que la chanson de Mylène Farmer parlait de l'obsession des hommes pour les fesses et la sodomie avant d'effacer sa réponse alors qu'elle n'avait pas terminé de s'afficher. Pris au dépourvu, je n'avais malheureusement pas pu conserver le texte ou l'image de la réponse.

J'avais quand même eu le temps de la lire. Ce qui est intéressant, c'est que Bing nie de façon répétée qu'il a supprimé quoi que ce soit (images 3 et 4). La veille, lorsque je lui avais rappelais les termes de la réponse supprimée, il m'avait répondu que je les avais sans doute vus ailleur. Son « Hmmm... Désolé » (image 1) est pourtant un aveu que quelque chose s'était passé.

Je reviendrai vous faire part de mes expériences avec l'IA. En attendant, je dirai simplement que Bing me fait penser à moi : le temps de me rendre compte que je ne devrais pas dire quelque chose, je l'ai déjà dit. Il m'est cependant plus difficile de renier mes paroles. 

(Désolé des coquilles et fautes dans mes questions à Bing, très vite rédigées.)

Ajout (9 janv. 2024)

Il est intéressant de voir que les réponses supprimées de Bing comportaient des liens vers les sources consultées (image 5). En niant avoir supprimé sa réponse initiale, spontanée pourrait-on dire, il nie implicitement du même coup avoir consulté les sources nécessaires à sa rédaction. Double mensonge !

Si l’IA a déjà appris à mentir, on peut affirmer qu’elle le fait en plus avec effronterie. Elle devient humaine. Elle a commencé à développer une mauvaise conscience – donc, une conscience tout court !



Image 2

Image 3

Image 4

Image 5. - Réponse supprimée de l'image 1.
Les sources consultées apparaissent sous la réponse inachevée.

Ajout (20240216)

On dirait que Copilote est devenu moins prude...





samedi 6 janvier 2024

ChatGPT, Nelligan, Sartre et les champs de patates


Ou les élucubrations hivernales existentialistes d’un chat et d’un poète. Le tout se termine sur une note bucolique dans les fleurs et dans un champ de tubercules.

(La conclusion est à la suite des images.)


Image 1
Image 2

Image 3

Image 4

Image 5

Image 6



Récapitulons.

Image 1

Je soumets à ChatGPT une citation erronée mais parfaitement reconnaissable de Soir d’hiver, poème bien connu d’Émile Nelligan. ChatGPT, trompé par ses allures vaguement existentialistes, l’attribue à… Jean-Paul Sartre ! Nous lui accordons le premier prix d’humour involontaire ! Je tente de le remettre sur le droit chemin en lui nommant l’auteur.

Beau joueur, ChatGPT admet son erreur.

Image 2

ChatGPT déclare que l’extrait provient du Vaisseau d’or, poème le plus célèbre de Nelligan. Les choses prennent une tournure étonnante, sinon stupéfiante : ChatGPT intègre mon extrait à des vers de mirliton qu’il attribue à Nelligan !

Je souffle un nouvel indice à ChatGPT en lui donnant le titre du poème d’où est tiré l’extrait. Tant qu'à y être, je lui demande s'il peut me citer le texte intégral.

Image 3

Toujours conciliant, ChatGPT fait amende honorable et me donne le texte de Soir d’hiver. De la stupéfaction, nous passons à la consternation. ChatGPT invente tout simplement un long poème à partir de vers de son propre cru que Nelligan n'aurait sûrement pas reconnus comme siens. (Quelqu’un qui aura plus de patience que moi et une meilleure connaissance de l’œuvre de Nelligan reconnaîtra peut-être des bouts de vers authentiques ici et là. Les recherches que j’ai menées dans Internet à partir de quatre ou cinq vers n’ont rien donné.)

Image 4

Je tance ChatGPT qui déclare piteusement forfait.

Image 5

Je lui donne le premier vers de Soir d’hiver. Il affiche enfin le texte entier du poème. S'il était si facilement accessible, pourquoi ne pas l'avoir tiré de sa base de données plus tôt ?

Image 6

ChatGPT avoue qu'il patauge depuis le début dans un champ de patates au point qu'il ignore d'où proviennent les faux vers du pseudo-poème de l'image 3. Piteux minou, tu peux aller péter dans les fleurs. (Comprendrait-il ?)

Conclusion

Pourquoi, puisque le texte de Soir d'hiver était accessible, ChatGPT m’a-t-il servi ces approximations amplifiées jusqu’à me proposer un faux poème de Nelligan long de 16 vers ? Pourquoi inventer des réponses quand il ne connait pas la bonne ? Dans le cas présent, il m’était facile de repérer les errements de ChatGPT. 

Il ne m’en sera pas toujours ainsi. Placer sa confiance en ChatGPT, c’est la mettre entre les mains d’un mythomane plus doué pour l’improvisation et l'éjection de poudre aux yeux que pour la recherche scrupuleuse de la vérité.