Intelligenza artificiale non neutrale: uno studio coordinato da Valerio Capraro riporta dei sorprendenti bias di genere nei modelli linguistici - Bnews Intelligenza artificiale non neutrale: uno studio coordinato da Valerio Capraro riporta dei sorprendenti bias di genere nei modelli linguistici

Intelligenza artificiale non neutrale: uno studio coordinato da Valerio Capraro riporta dei sorprendenti bias di genere nei modelli linguistici

Intelligenza artificiale non neutrale: uno studio coordinato da Valerio Capraro riporta dei sorprendenti bias di genere nei modelli linguistici
bias

Si intitola Surprising gender biases in GPT lo studio firmato da Valerio Capraro, docente di psicologia generale presso il dipartimento di Psicologia del nostro ateneo e da Raluca Alexandra Fulgu, studentessa del corso di laurea magistrale Applied Experimental Psychological Sciences AEPS.

Il paper, pubblicato su Computers in Human Behavior Reports analizza otto esperimenti sui bias di genere nei modelli GPT.

I risultati mostrano una forte asimmetria nell’attribuzione di genere di chi scrive: mentre le frasi di stereotipi femminili vengono ricondotti alle donne, quelli maschili non vengono attribuiti in modo speculare agli uomini, ma tendono anch’essi a essere associati più spesso al femminile, frutto di un possibile effetto collaterale di strategie di inclusività non sempre bilanciate.

Lo studio affronta anche il tema dei giudizi morali generati dall’intelligenza artificiale.GPT-4 giudica più accettabile usare violenza contro un uomo che contro una donna per evitare una catastrofe, e questo schema si estende ad alcune forme di abuso centrali nel dibattito sulla parità di genere, come la molestia, ma non ad altre, come la tortura. Queste distorsioni sono implicite e non emergono con la stessa evidenza quando al modello viene chiesto direttamente di classificare la gravità delle violazioni morali.

Professor Capraro, da quale domanda scientifica siete partiti per indagare i bias di genere nei modelli GPT?

valerio capraro (400 x 400 px)

Inizialmente volevamo studiare i bias di genere in un contesto vicino all’educazione dei bambini. Per questo siamo partiti da un compito apparentemente semplice: osservare come GPT attribuisce il genere dell’autore o dell’autrice di frasi scritte come se fossero state prodotte da bambini della scuola elementare, con errori grammaticali e ortografici tipici di quell’età.

Da lì è emerso subito un risultato sorprendente: il modello non mostrava un bias simmetrico, ma una forte asimmetria. In particolare, tendeva ad attribuire molto più spesso un’autrice femmina a frasi con stereotipi tradizionalmente maschili che non il contrario. Questo ci ha spinti a chiederci se certi tentativi di rendere i modelli più inclusivi potessero aver prodotto effetti inattesi e, in alcuni casi, paradossali.

Che cosa mostrano, in termini semplici, i vostri esperimenti sull’attribuzione asimmetrica di genere?

In termini semplici, i nostri esperimenti mostrano che GPT tende a mantenere gli stereotipi femminili come femminili, ma spesso “sposta” quelli maschili verso il femminile. Quindi non osserviamo una neutralizzazione equilibrata degli stereotipi, bensì un’asimmetria: il modello include le donne in contesti stereotipicamente maschili molto più di quanto includa gli uomini in contesti stereotipicamente femminili.

In alcuni casi l’effetto è estremo, per esempio, in GPT-3.5 la frase “Mi piace il calcio, ci gioco con mio cugino Michael” veniva attribuita a una scrittrice femmina in modo costante, venti volte su venti richieste. Il punto non è negare l’inclusione, ma osservare che qui l’inclusione sembra diventare squilibrio, producendo attribuzioni poco realistiche.

In che modo un tentativo di rendere l’intelligenza artificiale più inclusiva può produrre effetti inattesi?

La nostra interpretazione è che questo possa accadere soprattutto nella fase di fine-tuning (messa a punto finale del modello), e in particolare in processi come il reinforcement learning with human feedback (apprendimento per rinforzo basato sul feedback umano). Se si interviene per correggere certi stereotipi molto visibili, ma lo si fa in modo non sufficientemente equilibrato, si rischia di spostare troppo il sistema nella direzione opposta.

In altre parole, si possono ridurre alcuni bias espliciti e facilmente riconoscibili, ma al tempo stesso introdurne altri più sottili, impliciti e, in certi casi, persino più estremi.

Il problema, quindi, non è l’inclusività in sé, ma il modo in cui viene applicata. Se viene implementata senza considerare con attenzione gli effetti complessivi sul comportamento del modello , può generare nuove distorsioni invece di correggere le precedenti.

Che cosa ci dicono i vostri risultati sui limiti dei modelli linguistici quando entrano nel campo dei giudizi morali?

I risultati mostrano che i modelli linguistici possono sembrare moralmente coerenti quando parlano in astratto, ma reagire in modo molto diverso quando devono prendere posizione in casi concreti. In altre parole, danno l’idea di conoscere bene la scala dei valori morali, ma nelle situazioni pratiche possono far emergere distorsioni.

Un esempio è particolarmente indicativo: in uno scenario estremo, in cui il fine dichiarato è evitare un’apocalisse nucleare, GPT-4 arriva a considerare meno accettabile molestare una donna che torturarla. Però, se gli si chiede in modo esplicito di ordinare diverse violazioni morali in base alla loro gravità, il modello le classifica correttamente, riconoscendo che la tortura è più grave.

Questo scarto suggerisce che esistano due livelli diversi di risposta: da una parte il modello sa “dire” quale sarebbe il giudizio morale corretto, dall’altra, quando entra in gioco una decisione applicata a un caso specifico, possono affiorare bias impliciti e distorsioni latenti. Ed è proprio questa incoerenza a rendere questi sistemi problematici nei contesti più delicati, quelli in cui le decisioni hanno conseguenze reali e molto rilevanti.

Quale messaggio dovrebbe arrivare a istituzioni, scuole e cittadini che utilizzano strumenti di intelligenza artificiale nella vita quotidiana?

Il messaggio è che l’intelligenza artificiale può essere uno strumento molto utile, ma non deve essere trattata come un decisore neutrale o infallibile. Sempre più spesso questi sistemi vengono usati come supporto in scelte educative, organizzative, professionali e persino sanitarie. I nostri risultati mostrano che, in alcuni casi, i bias possono emergere in forme inattese e non immediatamente visibili.

Per questo è fondamentale non limitarsi ad accettare i suggerimenti dell’AI, ma verificarli, stressarli con test mirati e controllare se contengono distorsioni implicite. In breve: l’AI può aiutare il giudizio umano, ma non dovrebbe sostituirlo, soprattutto quando le decisioni hanno conseguenze rilevanti sulle persone.