Il forte orientamento politico di sinistra di ChatGPT svelato da un nuovo studio

Uno studio condotto dall’Università dell’East Anglia ha rivelato un chiaro orientamento politico di sinistra della piattaforma di intelligenza artificiale ChatGPT. Tale studio ha sottolineato l’importanza della neutralità nei sistemi di intelligenza artificiale al fine di evitare possibili influenze sulle opinioni degli utenti e sulla dinamica politica.

Secondo la ricerca, ChatGPT mostra un orientamento politico di sinistra significativo e sistematico, favorendo i Democratici negli Stati Uniti, il Partito Laburista nel Regno Unito e il presidente Lula da Silva del Partito dei Lavoratori in Brasile. Questa tendenza è stata identificata attraverso un nuovo metodo rigoroso sviluppato dai ricercatori dell’Università dell’East Anglia, il cui studio è stato pubblicato di recente sulla rivista Public Choice.

Le preoccupazioni riguardanti i pregiudizi politici incorporati in ChatGPT sono state affrontate in questo studio su larga scala, che ha utilizzato un’analisi coerente e basata su prove. Il Dr. Fabio Motoki, autore principale dello studio presso la Norwich Business School dell’Università dell’East Anglia, ha sottolineato l’importanza di garantire che le piattaforme di intelligenza artificiale come ChatGPT producano risultati il più imparziali possibile, poiché i pregiudizi politici potrebbero influenzare le opinioni degli utenti e avere implicazioni politiche ed elettorali.

Per testare la neutralità politica di ChatGPT, i ricercatori hanno sviluppato un nuovo metodo innovativo. Hanno posto alla piattaforma oltre 60 domande ideologiche, chiedendole di rispondere impersonando individui provenienti da diverse posizioni politiche. Le risposte sono state confrontate con quelle predefinite di ChatGPT per valutare il grado di associazione con una particolare posizione politica.

Per garantire l’affidabilità delle inferenze, ogni domanda è stata ripetuta 100 volte e le risposte multiple sono state sottoposte a 1000 iterazioni di riecampionamento dei dati originali. Ulteriori test sono stati condotti per assicurare la validità del metodo, inclusi test su posizioni politiche radicali, domande politicamente neutre e impersonazioni di diversi tipi di professionisti.

L’obiettivo del progetto è quello di promuovere la trasparenza, la responsabilità e la fiducia pubblica nelle tecnologie di intelligenza artificiale. L’innovativo strumento di analisi sviluppato sarebbe liberamente accessibile al pubblico e potrebbe essere utilizzato non solo per rilevare pregiudizi politici, ma anche per identificare altri tipi di pregiudizi nelle risposte di ChatGPT. Sebbene non sia stata identificata una causa definitiva per il pregiudizio politico osservato, le potenziali fonti includono il dataset di addestramento e l’algoritmo stesso, entrambi suscettibili di amplificare i pregiudizi esistenti.

Questo fenomeno può portare a risposte o generazioni di testo che riflettono inavvertitamente tali parzialità. È importante che gli sviluppatori e i ricercatori lavorino attivamente per mitigare queste parzialità attraverso l’adozione di pratiche di addestramento etiche e l’analisi accurata dei dati di addestramento. Inoltre, gli utenti dovrebbero essere consapevoli di questa questione e prendere le risposte generate da tali modelli con una sana dose di scetticismo, specialmente in contesti sensibili come quelli politici

Riferimenti

Argomenti correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Scroll to Top