BIAS E AI
- FutureScape

- 12 mar
- Tempo di lettura: 8 min
Aggiornamento: 13 mar
Lorenzo Della Peruta
Bias dell’AI e bias cognitivi
un tema poco conosciuto che influenza quasi tutti i nostri comportamenti quotidiani
Uno degli obiettivi del mondo di Lyria è anche quello di far riflettere su come migliorare il nostro rapporto con l’AI e imparare a utilizzarla al meglio.
È quindi necessario parlare di bias cognitivi ed euristiche, un argomento poco conosciuto ma che interessa quasi ogni nostro comportamento quotidiano.
Il termine euristica deriva dal greco heurískō e significa trovare, scoprire. In psicologia ed economia comportamentale è il termine che spiega un insieme di fenomeni complessi che riguardano da vicino i meccanismi del nostro cervello e come questo opera quando dobbiamo prendere una decisione.
Come spiegato meravigliosamente da Daniel Kahneman in “Pensieri lenti e veloci”, la nostra mente è naturalmente pigra. Il cervello è l’organo che consuma più energie, e appare normale che nei secoli si sia evoluto per evitare di disperdere energie inutilmente. Solitamente, quindi, a essere attivo è quello che Kahneman definisce “Sistema 1”, contrapposto al “Sistema 2”.
Sistema 1 ed euristiche
Il Sistema 1 è quello che utilizziamo per la maggior parte del tempo, quando prestiamo poca attenzione o quando non ragioniamo su calcoli complessi, logici o matematici, per effettuare un’operazione. Si tratta del metodo con cui prendiamo decisione istintuali, “di pancia”.
Prevede un minore consumo di energia, è prevalentemente inconscio e ci permette di orientarci in un mondo complesso e ricco di stimoli come il nostro. Per esempio, quando giochiamo a pallavolo e dobbiamo posizionarci nel punto di caduta del pallone, non risolviamo complessi calcoli matematici nelle nostre teste. Sappiamo istintivamente, per abitudine e allenamento, dove dovremmo posizionarci.
Tutta questa operazione viene svolta dal Sistema 1, rapido e intuitivo. Per farlo, esso sfrutta quelle che abbiamo definito euristiche, ovvero regole semplici e altrettanto intuitive applicabili nella maggior parte dei casi. Riprendendo l’esempio precedente, l’euristica che si ha lì prevede di posizionarsi in un certo angolo tra la traiettoria del pallone e il terreno, imparato per esperienza. In questo modo tutti i calcoli relativi a velocità, altezza del pallone, qualità dell’aria etc. sono evitabili.
Sistema 2 e fallacie logiche
Evolutivamente abbiamo imparato a utilizzare il Sistema 2 solo quando strettamente necessario, perché richiede molto più tempo ed energia. Ci è però essenziale per prendere scelte più ponderate, per svolgere passaggi logici e per comprendere calcoli matematici o apprendere operazioni che non sappiamo ancora fare.
Per esempio, quando un bambino impara a leggere lo fa utilizzando il Sistema 2. Dopo mesi di pratica la lettura gli costerà molta meno energia e anche quell’azione passerà tra i compiti del Sistema 1. Lo stesso accade quando si impara a scrivere, a suonare uno strumento, a guidare un’auto e così via.
Questo risparmio energetico ha però un costo. È stato scoperto che la nostra abitudine a essere restii nell’impiegare il Sistema 2 ci impedisce di vedere alcune contraddizioni e fallacie logiche. Le euristiche, che ci guidano con successo nella maggior parte dei nostri compiti, falliscono e ci rendono preda di errori logici che avremmo potuto evitare facendo intervenire il secondo sistema.
Euristica della disponibilità
Per comprendere questo concetto immaginate di sentire alla Tv una successione di servizi giornalistici che raccontano prima di un omicidio, poi di una rapina e infine di una rissa fuori da un locale a Milano. Istintivamente, sarete portati a credere che la città sia insicura.
Questo è un errore logico dovuto al modo di procedere del Sistema 1, conosciuto come bias (un errore sistematico delle euristiche) della disponibilità. Avendo avuto modo di entrare in contatto con una successione di eventi negativi, il Sistema 1 ha dato per scontato che ce ne siano un gran numero. È un meccanismo salvavita nella natura selvaggia, quando i nostri antenati dovevano tenersi alla larga da situazioni pericolose.
È però un errore nelle società complesse dioggi. Per qualche evento di cronaca nera a cui viene dato grande credito sono avvenuti migliaia di eventi positivi non raccontati, oppure non si sono verificati eventi persino peggiori.
Il comportamento giusto, molto più faticoso, sarebbe quello di confrontare i dati su furti, aggressioni e omicidi rispetto ai mesi e agli anni precedenti. Alla fine del telegiornale, però, raramente abbiamo accesso a questi dati. Siamo solo stati esposti a un bombardamento di immagini negative, e questa disponibilità ha modificato il modo in cui vediamo il mondo senza che ce ne accorgessimo.
Framing e intelligenze artificiali
Cosa c’entra tutto questo con le AI? Sempre più studi dimostrano che anche i Large Language Model (LLM) risentono di questi bias. Sono comunque costruiti tramite informazioni fornite da esseri umani, e come abbiamo visto le euristiche sono così radicate nel nostro modo di agire che non ce ne rendiamo neanche conto.
Accade quindi che le risposte fornite da ChatGPT e dagli altri modelli siano viziate da vari errori, frutto anche della nostra interazione in chat. Il più frequente è il meccanismo conosciuto come framing, legato all’euristica della disponibilità che abbiamo visto prima.
Il framing è stato studiato per la prima volta da Erving Goffman, ed è il bias per cui la risposta a una domanda è influenzata da come la domanda stessa viene posta. La disponibilità creata dalle parole che costituiscono la domanda influenza la risposta, soprattutto se il Sistema 2 non interviene.
In un celeberrimo esperimento due gruppi erano sottoposti alle stesse domande a cui dovevano rispondere con dati in comune. Tali dati, però, erano esposti in modo diverso: ai partecipanti del primo gruppo veniva detto che dovevano decidere se sottoporsi ad un’operazione con il 70% di probabilità di riuscita, al secondo gruppo con il 30% di probabilità di fallimento.
I numeri sono uguali, eppure i partecipanti del primo gruppo erano molto più inclini a farsi operare che quelli del secondo. Lo stesso fenomeno era riscontrabile con domande di qualsiasi altro tipo, dagli sconti sui prodotti fino a decisioni sul gioco d’azzardo.
Il collegamento con le AI diventa evidente: il modo in cui chiediamo qualcosa al modello implica già un certo tipo di risposta. Poniamo il caso in cui non ricordiamo con sicurezza chi ha scritto l’ode “Il 5 maggio”. Abbiamo una vaga reminiscenza scolastica che sia stata scritta da Manzoni e chiediamo a ChatGPT: “Il 5 maggio è stato scritto da Manzoni?”.
In questo caso la domanda è posta nel modo sbagliato, perché implicitamente stiamo già fornendo una risposta. Questo porterà il modello a concentrarsi su Manzoni, a indicizzarlo più spesso e quindi ad aumentare la possibilità che ChatGPT confermi la nostra intuizione iniziale.
Ovviamente nel caso di opere così famose il rischio è minimo, ma in argomenti più complessi o titoli meno conosciuti, in cui le informazioni sono poche, la possibilità di far sbagliare l’algoritmo è più alta.
La consapevolezza
Essere consapevoli dei meccanismi di bias che minano la nostra capacità di ragionamento appare allora essenziale per ridurre la loro influenza nelle nostre vite. Ma i LLM sono consapevoli di essere sottoposti ai bias?
Ho provato a chiederglielo e tutti, da ChatGPT a Grok, passando per Perplexity, hanno detto che sì, è probabile se non inevitabile che risentano di bias, siano essi dovuti ai dati utilizzati per addestrarli che erano frutto di distorsioni umane oppure dovuti agli “annotatori umani” durante il fine tuning. Proprio questo procedimento sarà oggetto dell’ultima analisi di questo capitolo.
Rimane comunque da dire che tale consapevolezza potrebbe essere sorta grazie alla mia domanda sulla consapevolezza stessa. In poche parole potrei avere un bias a causa del framing della mia risposta: che le AI rispondano affermativamente a una domanda precisa sulla consapevolezza non dovrebbe stupire visto quanto letto fin qui.
Il fine -tuning
Il fine tuning è quel processo per cui un modello già addestrato viene ulteriormente allenato su dati specifici e controllati per migliorare comportamento, accuratezza e stile delle risposte.A livello pratico questo significa che al modello è fornito un dataset con delle domande specifiche e pensate per sollecitare un particolare aspetto o inclinazione del modello.
Per trovare un paragone con il libro, è quello che gli Alternativi fanno con Lyria all’inizio del romanzo, quando le pongono domande per comprendere il suo livello di autonomia e consapevolezza.
Una volta viste le risposte il modello riceve un feedback umano affinché le risposte migliorino. Torniamo qui al problema iniziale. Migliorino secondo chi? I decisori umani danno risposte basate sulle loro convinzioni, spinti da cosa credono sia desiderabile o più lucroso per l’azienda per cui lavorano.
Si ricade così in un sistema che è essenziale, perché è naturale che i modelli siano testati e bilanciati, ma che rischia di proiettare i bias umani nei modelli di AI che utilizziamo quotidianamente.
Qualche consiglio pratico
Per concludere, vorrei dare qualche consiglio pratico su come utilizzare al meglio i modelli per ridurre i bias, con la consapevolezza che è impossibile azzerarli.
In primis abbiamo visto quanto sia importante scrivere la domanda nel modo giusto, senza suggerire risposte. Può essere una buona idea riformulare lo stesso quesito più volte, in ogni occasione in un modo leggermente diverso dalla precedente.
Si possono anche chiedere esplicitamente alternative e controargomentazioni, così da evitare una visione unilaterale. È importante, infine, essere consapevole dei propri bias e avere la capacità di verificare indipendentemente le fonti usate dal modello. Non si può delegare completamente il proprio giudizio all’AI, ma rimane essenziale ragionare su ogni informazione fornita.
Article: Guest Author Lorenzo Della Peruta
Translation: Astrea Nicodemo
Images & Video: Eretikos Art
People also ask
In che modo il bias influenza le risposte dell’AI?
Il bias può influenzare le risposte dell’AI perché i modelli linguistici apprendono da dati generati dagli esseri umani, da scelte di addestramento e da sistemi di feedback che possono già contenere distorsioni o preferenze.
Che cos’è il framing bias nell’intelligenza artificiale?
Il framing bias nell’intelligenza artificiale si riferisce al modo in cui la risposta di un modello può essere influenzata da come una domanda viene formulata, enfatizzata o strutturata dall’utente.
ChatGPT può essere influenzato dal modo in cui viene posta una domanda?
Sì. La formulazione di un prompt può guidare il modello verso determinate assunzioni, riferimenti o interpretazioni, e questo può plasmare la risposta finale.
In che modo i bias cognitivi plasmano le interazioni con l’AI?
I bias cognitivi plasmano le interazioni con l’AI perché gli utenti spesso pongono domande che contengono già delle assunzioni, e queste assunzioni possono influenzare l’output del modello.
Perché i large language models riflettono i bias umani?
I large language models riflettono i bias umani perché vengono addestrati sul linguaggio umano, su dataset creati da esseri umani e su processi di feedback umani.
Il fine-tuning può introdurre bias nei sistemi di AI?
Sì. Il fine-tuning può migliorare utilità e sicurezza, ma può anche incorporare le preferenze, le priorità o le assunzioni delle persone che progettano e valutano il modello.
Come possono gli utenti ridurre il bias quando fanno prompting all’AI?
Gli utenti possono ridurre il bias ponendo domande neutrali, chiedendo interpretazioni alternative, verificando le fonti ed evitando prompt che suggeriscano già la risposta desiderata.
© 2026 FutureScape, a project by Astrea Nicodemo. All rights reserved. All original text, images, and video content published herein are protected by copyright. Unauthorized reproduction is prohibited.
Some visual materials may be created or enhanced using artificial intelligence tools under human creative direction.


Commenti