
From the article:
Ippr researchers tested four popular AI tools – ChatGPT, Google Gemini, Google AI Overviews and Perplexity – by asking them 100 random questions about UK news, ranging from politics to sport, business to entertainment. Overall, over 2,500 links and citations were analyzed, with all personalization functions deactivated, to observe the “neutral” behavior of the models. The main finding is clear: AIs cite a very small number of news sources, focusing on a few dominant brands.
According to the study data, The Guardian is the most cited newspaper by ChatGPT and Google Gemini, appearing in 58% and 53% of responses respectively. The BBC, despite being the most used and most trusted media in the United Kingdom, appears unevenly: it is very present in the Google AI Overviews (52.5%), but totally absent in the responses of ChatGPT and Gemini. In contrast, widely read conservative newspapers or tabloids such as the Daily Mail, The Sun or GB News only appear in a marginal share of responses, often between 0% and 3%, despite a significant presence in the real UK news market.
The study calls for caution when speaking of “ideological bias” in the strict sense. The differences in citations do not depend only on the editorial orientation of the newspapers, but on a combination of factors:
– Licensing agreements: some publications, such as the Guardian or the Financial Times, have commercial agreements with AI companies that make their content more easily usable.
– Access blocks: The Daily Mail and the BBC, for example, limit or prohibit chatbots from scraping their content, pushing AI to use alternative sources.
– Preference for “prestigious” or generalist brands, perceived as more reliable or easier to integrate into automatic response systems.
– Use of “synthetic” agencies and media, such as Reuters or the Press Association, which offer already structured information.
In other words, the final result may appear politically unbalanced even without an explicit ideological decision.
https://www.adnkronos.com/media-comunicazione/i-chatbot-di-ai-citano-solo-i-media-che-tendono-a-sinistra-cosa-dice-lo-studio_71xfa6gUfVH0o63UdFzi6S
Posted by Dr_Neurol
3 Comments
Il mondo dell’informazione,e in particolare dei social media, lotta da anni contro la diffusione delle fake news e dei contenuti non verificati, il ricorso ai chatbot introduce questa nuova problematica descritta nell’articolo:le persone conferiscono un grado di eccessiva affidabilità e imparzialità alle notizie veicolate dall’AI.
La soluzione può essere soltanto una maggiore educazione degli utenti all’uso critico e consapevole dei mezzi digitali.
Ci sono anche altri bias:
– istruzioni e pesi introdotti da chi esegue sui propri server i modelli (che, ricordiamolo, sono nel 99% dei casi closed-sourced e hostati in remoto)
– i modelli vengono addestrati sul web, quindi assorbono i bias del web
i chatbot AI potrebbero essere più imparziali… per ora.
Siamo ancora nella fase di sviluppo ( e si fatica a controllarle) e stiamo arrivando ora al riscontro col mercato, passato qualche anno tutte le maggiori piattaforme di AI saranno in mano a pochi potenti che cercheranno di mettere a frutto gli investimenti con metodi aggiuntivi come la manipolazioni politiche.
Già Elon Musk con la sua AI Grok ha dichiarato imparzialità politica, è stato accusato di influenzare Grok verso destra ed ha accusato OpenAI di pendere verso sinistra specialmente con la censura stile “politically correct”.A quel che ho visto le accuse sono spesso giustificate in entrambe le direzioni.
Mi pare ovvio tutto peggiorerà esponenzialmente fra qualche anno.
Dal mio punto di vista la pubblicità e gli atteggiamenti delle testate giornalistiche su internet sono cancro, a partire dai siti inaccessibili pieni di pop up e contro-adblocker, chiedere a chat-GPT è 10000 volte più comodo anche se incorre in più bias o manipolazioni.