banner

Blog

Oct 13, 2023

Come l'intelligenza artificiale sta cambiando la scrittura

Nel 1950, lo scienziato informatico Alan Turing propose quello che oggi chiamiamo il test di Turing dell'intelligenza artificiale, secondo il quale una macchina potrebbe "pensare" se riesce a passare per umana in una chat scritta a macchina. Anche se hai familiarità con questa storia, potresti non sapere che Turing immaginava di iniziare il suo test con una richiesta letteraria: "Per favore, scrivimi un sonetto sull'argomento del Forth Bridge". Predisse una risposta evasiva ma molto umana da parte di un futuro computer: "Contatemi su questo. Non potrei mai scrivere poesie". È proprio quello che direbbe mio padre.

La settimana scorsa ho inviato la stessa richiesta a ChatGPT, l'ultimo chatbot di intelligenza artificiale di OpenAI. "Sul Firth of Forth c'è un ponte", iniziava. In meno di un minuto, il programma aveva creato integralmente un sonetto shakespeariano in rima. Ad eccezione degli argomenti offensivi o controversi bloccati dai filtri dei contenuti, ChatGPT comporrà versi originali su qualsiasi tema: amore perduto, calzini perduti, posti di lavoro persi a causa dell'automazione. Strumenti come ChatGPT sembrano pronti a cambiare il mondo della poesia – e molto altro – ma i poeti hanno anche molto da insegnarci sull’intelligenza artificiale. Se gli algoritmi stanno diventando bravi a scrivere poesie, è in parte perché la poesia è sempre stata un affare algoritmico.

Anche i poeti più ribelli seguono più regole di quanto vorrebbero ammettere. Un buon poeta comprende le norme grammaticali e quando infrangerle. Alcune poesie rimano secondo uno schema, alcune in modo irregolare e altre per niente. Le regole più sottili della poesia sembrano difficili da programmare, ma senza alcune norme di base su cosa sia una poesia, non potremmo mai riconoscerla o scriverne una. Quando agli scolari viene insegnato a imitare la struttura di un haiku o il ritmo breve-lungo del pentametro giambico, stanno effettivamente imparando a seguire i vincoli algoritmici. Dovrebbe sorprenderci il fatto che anche i computer possano farlo?

Ma considerando come funziona ChatGPT, la sua capacità di seguire le regole per i sonetti sembra un po’ più impressionante. Nessuno gli ha insegnato queste regole. Una tecnologia precedente, chiamata IA simbolica, prevedeva la programmazione di computer con assiomi per argomenti specifici, come la biologia molecolare o l’architettura. Questi sistemi funzionavano bene all’interno di aree ristrette ma mancavano di adattabilità più generale. ChatGPT si basa su un nuovo tipo di intelligenza artificiale noto come modello linguistico di grandi dimensioni (LLM). Semplificati all’estremo, gli LLM analizzano enormi quantità di scrittura umana e imparano a prevedere quale dovrebbe essere la parola successiva in una stringa di testo, in base al contesto. Questo metodo di indovinare le parole consente all'intelligenza artificiale di scrivere saggi coerenti per l'ammissione al college, trattamenti approssimativi per sceneggiature di film e persino sonetti sui ponti scozzesi, nessuno dei quali viene programmato direttamente.

Una critica frequente ai LLM è che non capiscono quello che scrivono; fanno semplicemente un ottimo lavoro nell'indovinare la parola successiva. I risultati sembrano plausibili ma spesso non centrano l’obiettivo. Ad esempio, ho chiesto a ChatGPT di spiegare questa battuta: "Qual è la cosa migliore della Svizzera? Non lo so, ma la bandiera è un grande vantaggio". Ha risposto che il "riferimento alla bandiera" è divertente perché "contraddice l'aspettativa che la risposta fosse qualcosa legato agli attributi positivi del Paese". Mancava il gioco di parole "più", che è il nocciolo della battuta. Alcuni studiosi sostengono che i LLM sviluppano la conoscenza del mondo, ma la maggior parte degli esperti afferma il contrario: mentre queste tecnologie scrivono in modo coerente, non c’è nessuno a casa.

1/3

Ma lo stesso vale per il linguaggio stesso. Come ci dice il poeta modernista William Carlos Williams, "Una poesia è una piccola (o grande) macchina fatta di parole". Quando un verso appassionato di Keats o Dickinson ci fa sentire come se il poeta ci parlasse direttamente, stiamo sperimentando gli effetti di una tecnologia chiamata linguaggio. Le poesie sono fatte di carta e inchiostro o, oggigiorno, di elettricità e luce. Non c'è nessuno "dentro" una poesia di Dickinson più di una di ChatGPT.

Naturalmente, ogni poesia di Dickinson riflette la sua intenzione di creare significato. Quando ChatGPT mette insieme le parole, non intende nulla. Alcuni sostengono che gli scritti dei LLM non abbiano quindi alcun significato, ma solo l'apparenza. Se vedo una nuvola nel cielo che somiglia ad una giraffa, la riconosco per una somiglianza casuale. Allo stesso modo, secondo questo argomento, dovremmo considerare gli scritti di ChatGPT semplicemente come somiglianti al linguaggio reale, privi di significato e casuali come forme di nuvole.

CONDIVIDERE