Autore Redazione
venerdì
20 Marzo 2026
11:43
Condividi
Cronaca - Pavia

Le “scorciatoie” automatiche nell’intelligenza artificiale: lo studio dell’Università di Pavia

Le “scorciatoie” automatiche nell’intelligenza artificiale: lo studio dell’Università di Pavia

PAVIA – I bias cognitivi nei sistemi di intelligenza artificiale non sono sempre errori da eliminare. È questo il punto centrale dello studio coordinato dall’Università di Pavia e pubblicato su Nature Machine Intelligence, che apre una riflessione su come funzionano i modelli linguistici usati ogni giorno. I cosiddetti Large Language Models, alla base di molti sistemi di IA generativa, apprendono da enormi quantità di dati e testi. In questo processo assorbono non solo contenuti e stereotipi sociali, ma anche schemi di ragionamento tipici degli esseri umani, cioè i bias cognitivi.

Lo studio nasce dalla collaborazione tra il Dipartimento di Scienze del sistema nervoso e del comportamento dell’Università di Pavia, con Vittoria Dentella e Luca Rinaldi, insieme a Marco Marelli dell’Università di Milano-Bicocca. Negli ultimi anni la ricerca si è concentrata soprattutto sulla necessità di correggere i bias sociali, come stereotipi di genere o culturali, per evitare discriminazioni. Più di recente, però, è emerso che anche i bias cognitivi sono presenti negli LLM, perché derivano dai modelli di linguaggio su cui si basano.

Il punto sollevato dai ricercatori è chiaro: i bias cognitivi non sono automaticamente errori. In molti casi rappresentano scorciatoie mentali che aiutano a prendere decisioni in contesti complessi o incerti. Quello che può sembrare un errore logico può essere, in realtà, un modo pratico e funzionale di ragionare. Da qui nasce una domanda centrale: ridurre questi bias rende davvero l’intelligenza artificiale più affidabile? Secondo gli autori, la risposta non è scontata. Eliminare un bias significa anche scegliere quale tipo di ragionamento privilegiare e quali risultati considerare migliori.

Questo apre una questione etica rilevante: decidere quali bias mantenere o correggere non è solo un problema tecnico, ma implica scelte su come vogliamo che le tecnologie interpretino il mondo e prendano decisioni. Lo studio invita quindi la comunità scientifica a fermarsi e chiarire prima gli obiettivi: prima di ridurre i bias, bisogna capire perché farlo e con quali criteri. In un contesto in cui gli LLM sono sempre più presenti nella vita quotidiana, dalla produzione di contenuti ai processi decisionali automatizzati, il messaggio è netto: rendere l’intelligenza artificiale meno simile al ragionamento umano non significa automaticamente renderla più giusta o più neutrale.

Condividi