Innovazione

L'ultima versione di ChatGPT ha (quasi) passato il test di Turing

ChatGPT4 sta imparando a mimetizzarsi bene: ormai è in grado di sostenere una vera conversazione e viene scambiato per essere umano nel 54% dei casi.

Immaginate il futuro descritto in film di fantascienza come Her o nella serie televisiva Black Mirror, nel quale è impossibile distinguere l'intelligenza artificiale dagli esseri umani. Ecco, uno scenario del genere potrebbe essere più vicino di quanto pensiamo.

Ad affermarlo è una recente ricerca dell'Università della California, San Diego, che ha dimostrato come i modelli linguistici più avanzati – primo tra tutti il GPT-4 di OpenAI – possano facilmente confondere gli utenti, rendendo difficile distinguere tra le risposte formulate da una persona e quelle generate da un LLM (Large Language Model).

Test rivelatore. Per valutare se le intelligenze artificiali si possono comportare come menti pensanti, i ricercatori hanno utilizzato una versione aggiornata del celebre Test di Turing, ideato dal matematico e crittografo britannico Alan Turing (1912-1954). Gli esperimenti si sono basati su una serie di dialoghi tra un "interrogatore" e un "risponditore". Il primo doveva determinare se la controparte fosse anch'essa umana o se fosse invece un'entità artificiale.

In questo contesto, GPT-4 è stato capace di ingannare più della metà dei diretti interessati, un risultato ottenuto nonostante alcune limitazioni nel controllo delle variabili sperimentali come, per esempio, la possibilità che i partecipanti al test avessero preconcetti sul modo in cui dovesse rispondere una macchina o come la mancanza di informazioni riguardanti l'interlocutore (eventuale sesso, età, razza), aspetti che i ricercatori hanno affermato di voler inserire nei prossimi esperimenti.

Tratti in inganno. Nel dettaglio, chi si è sottoposto al test poteva interagire con tre diversi modelli di LLM: GPT-4, GPT 3.5 e ELIZA. Mentre quest'ultimo è stato riconosciuto con maggiore facilità, ingannando solo il 22% degli utenti, le due versioni di ChatGPT hanno dimostrato un'abilità sorprendente nel mimetizzarsi da essere pensante, totalizzando rispettivamente il 50% e il 54% di successi. Chi poneva le domande spesso non è stato in grado di distinguere se stesse parlando con una persona reale o con un'intelligenza artificiale.

Amabili conversazioni. A rendere ancora più significativi questi risultati è stato il fatto che le conversazioni potevano durare fino a cinque minuti e coprire una vasta gamma di argomenti, a esclusione di alcuni temi filtrati dai ricercatori. La capacità di ChatGPT di mantenere una conversazione fluida e naturale è stata l'asso della manica dell'IA. Per quanto riguarda, invece, il caso in cui a conversare siano stati due esseri umani, è interessante notare come questi si siano riconosciuti in due casi su tre (67%), mentre nel restante 33% chi ha fatto le domande ha creduto di parlare con un chatbot.

Implicazioni pericolose. I ricercatori stanno esplorando nuove ipotesi per i futuri test, verificando per esempio il potenziale delle IA nel convincere le persone a credere ad argomentazioni false, a sostenere politiche specifiche o a donare denaro per cause sensibili. Tutto ciò fa sorgere interrogativi su come questa tecnologia possa essere utilizzata in modo amorale e irresponsabile.

Utilizzo etico. Il fatto che i LLM siano in grado di simulare conversazioni così convincenti, renderà presto inaffidabili le interazioni online, aumentando la possibilità di essere raggirati o influenzati da sistemi sempre più complessi. Scenari di questo tipo richiederanno perciò regolamentazioni e precauzioni, che siano in grado di gestire una rivoluzione capace di stravolgere vari ambiti della società.

4 luglio 2024 Simone Valtieri
Ora in Edicola
Scopri il mondo Focus. Ogni mese in edicola potrai scegliere la rivista che più di appassiona. Focus il magazine di divulgazione scientifica più letto in Italia, Focus Storia per conoscere la storia in modo nuovo ed avvincente e Focus Domande & Risposte per chi ama l'intrattenimento curioso e intelligente.

Focus Storia torna con un nuovo numero ricco di approfondimenti appassionanti. Questo mese, uno speciale dedicato al fallito attentato a Hitler del 20 luglio 1944. Scopri come Claus von Stauffenberg pianificò l'Operazione Valchiria, la spietata rappresaglia che ne seguì e gli incredibili colpi di fortuna che salvarono il Führer da 40 attentati.

Esaminiamo anche come Stalin riuscì a sopravvivere ai numerosi tentativi di eliminarlo e i rischi corsi da Mussolini.

Esploriamo poi le grandi imprese come la conquista del K2, la spedizione che scalò la seconda cima più alta del mondo e la storia delle crociere con “E il navigar m’è dolce”, tra balli, sport, cibo e divertimento.

Raccontiamo la Grande Guerra attraverso le cartoline dell’epoca e vi diamo un'anteprima di una bella mostra a Buckingham Palace con le foto private dei reali.

Approfondiamo la storia del servizio di leva e delle Olimpiadi antiche, e rivivi l'epoca d'oro della televisione italiana con Corrado.

Non perdere questo numero di Focus Storia!

ABBONATI A 29,90€

Focus torna con un nuovo numero ricco di spunti e approfondimenti. Questo mese, ci immergeremo nel complesso mondo delle relazioni amorose, esplorando le basi scientifiche che le rendono durature e felici.

Cosa rende un amore duraturo? Quali sono i segreti delle coppie che superano le sfide del tempo? Focus risponde a queste domande svelando i meccanismi ormonali e fisiologici dei legami più solidi. Scopri il tuo profilo di coppia con un test utile e divertente per comprendere meglio la tua relazione.

Esploriamo anche il mondo della scienza e della tecnologia, dall'internet quantistica all'atomtronica, celebriamo il centenario dei planetari e scopriamo i segreti dell'alpinismo estremo.

Non perdere questo numero di Focus: conoscenza, passione e scoperta ti aspettano in ogni pagina!

ABBONATI A 31,90€
Follow us