The collapse of ChatGPT’s reliability in the face of contamination by Grokipedia

https://blogs.mediapart.fr/romain-leclaire/blog/240126/l-effondrement-de-la-fiabilite-de-chatgpt-face-la-contamination-par-grokipedia

Posted by taigaV

12 Comments

  1. Ahaha cet ouroboros de foutaises, j’adore !
    Dans 10 ans si Wikipedia n’existe plus les gens n’auront plus rien de fiable à lire vu que tout sera écrit par des machines à foutaises. Super !

  2. Il faut vraiment répéter aux gens que les IA génératives ne sont PAS des moteurs de recherche.

  3. ChatGPT ça a *jamais* été fiable. Ce machin merdique fabrique des phrases sans jamais comprendre ce wu’il dit – l’utiliser de quelque manière que ce soit est une preuve de connerie profonde.

  4. Je me demande combien de zéro il y avait sur le chèque qu’Elon Musk a dû faire à OpenAI pour que ChatGPT traite désormais Grokipédia comme une source “fiable”.

  5. ChatGPT était ivre bien avant cela.

    Autant je lui fais confiance pour les exercices de style / reformulation / écriture à 4 mains,

    Autant dès qu’on entre sur de la recherche d’infos, je lui demande de chercher sur le net avant de me donner la réponse. 

    Ça reste un bon outil mais dangereux au sens où il arrive à te dire la pire connerie avec le plus grand aplomb du monde.

  6. Attention aux titres exagérateurs. Les tests de fiabilité des IA qui nous sortent des chiffres effarants ont souvent une méthodologie qui rend amha ce genre de titre mensonger.

    TL:NR : l’effondrement de la fiabilité du journalisme est plus rapide encore que celui des IA.

    Il faut regarder les tests, généralement : des questions “piège” sont posées à l’IA. Pour voir comment elle va s’en dépatouiller. Ce n’est donc pas vraiment la “fiabilité” au sens général qui est testé, mais plutôt la résistance à la désinformation. Dans un usage courant et quotidien, non destiné à piéger/tester, les LLM ont fait des progrès spectaculaire et atteignent des taux de fiabilité acceptables qui n’ont rien à voir avec les chiffres toujours cités en gros quand on rapport ces études.
    Je suis à peu près certain que si on pose ces mêmes questions à un panel d’humain, le score sera encore moins bon. Ce sont des tests qui sont pertinents, mais qui ne sont jamais présentés pour ce qu’ils sont. Et c’est dommage.

    Alors oui, Grokipedia en source, ça pique, faut faire quelque chose. Oui, elles continuent à dire des connerie et à halluciner. Mais non, on est loin, en usage quotidien, de quelque chose de dramatique. Même s’il est sain de pointer les limites pour les améliorer, malheureusement, ces articles sont tout le temps détournés pour nourir des conversations où les gens vont s’offusquer/s’amuser de l’incurie des LLMs sans comprendre ce dont il s’agit ici, etc.

    Les LLMs me disent bien moins de connerie que les humains. Et il ne faut pas plus croire un LLM sur parole qu’un moteur de recherhce (google aussi va vous servir du Grokipedia. La différence c’est que ça se voit). Mais ça ne va pas émouvoir une bonne partie du public malheureusement.

    Ce qu’on lit dans l’article est que Grokipedia a été cité neuf fois sur plus d’une douzaines de questions. J’aurais aimé de la précision. 9/12 c’est pas pareil que 9/15, 9/20 ou 9/100.

    D’ailleurs ici, le billet sur Mediapart se prête au jeur de l’exagération. Son article est basé sur une source du Guardian :

    >”Latest ChatGPT model uses Elon Musk’s Grokipedia as source, tests reveal”

    devient en français :

    >”L’effondrement de la fiabilité de ChatGPT face à la contamination par Grokipedia”

    Il y a des nuances qui changent ! (suite dans le commentaire suivant pour cause de bug si commentaire trop long)

  7. Sans_Les_Mains on

    >When asked for comment, a spokesperson for xAI, the owner of Grokipedia, said: “Legacy media lies.”

    Tout est là. Quand le guardian termine là-dessus, marquant clairement leur position comme quoi cette phrase serait complotiste, et que par conséquent les médias “traditionnels” (ceux donc qui, pour rappel, sont détenus et exploités à perte par de riches influenceurs) seraient fiables, on peut voir que cet article est très orienté.

    Ça ne veut pas dire que grokipedia serait plus fiable évidemment (je connais pas mais connaissant Musk je suis sûr que non), ça ne veut pas non plus dire que les tradis seraient les pires. Mais il faut aujourd’hui, plus que jamais mais moins que demain, se méfier de TOUT et absolument privilégier la confrontation de sources et la réflexion personnelle (et du coup, l’éducation), pour démêler le vrai du faux en passant par le fourbe.

    Pour moi, article orienté propagande mainstream sans grand intérêt autre que d’informer sur le fonctionnement de grokupedia.

  8. Je ne comprends pas.

    Tu embauches des techniciens et scientifiques super spécialisés, capable de mettre en œuvre un peutain de réseau de neurones a presque mille milliards de paramètres. Tu mets en place une machine d’entraînement super sophistiquée qui combine et optimise masse de données et curation. Tu mets le truc régulièrement à jour en te nourrissant des recherches de pointe. 

    Et quand t’as un truc qui marche à peu près, tu inclus Grokipedia.

  9. Comment on peu salir le miracle de l’utopie à la Aaron Swartz qu’est Wikipedia (oui il n’y a pas travaillé, mais ca respecte son idéal), avec ce moteur à étron de grokipedia qui l’aspire et le réécrit de manière subjective, déjà de base. Et pire encore, l’estimer comme source légitime? Ca me depasse

  10. dynamic-entropy on

    Précision importante : on parle de LLMs qui citent Grokipedia en “source” suite à une recherche. C’est assez grave, mais c’est une influence ponctuelle, limitée à la conversation, et qu’on peut vite constater en vérifiant les sources (à faire systématiquement dans tous les cas).

    Pendant un moment j’ai cru qu’on parlait d’un entraînement fait sur les pages de Grokipedia. Ça, ce serait nettement plus insidieux et problématique, l’influence serait difficilement visible mais toujours là en arrière plan. Ça pourrait arriver un jour mais pour l’instant c’est pas le cas.