banner

Blog

Sep 17, 2023

ChatGPT e strumenti linguistici AI vietati dalla conferenza AI per la scrittura di documenti

Di James Vincent, un reporter senior che si è occupato di intelligenza artificiale, robotica e altro per otto anni presso The Verge.

Una delle conferenze sull'apprendimento automatico più prestigiose al mondo ha vietato agli autori di utilizzare strumenti di intelligenza artificiale come ChatGPT per scrivere articoli scientifici, innescando un dibattito sul ruolo del testo generato dall'intelligenza artificiale nel mondo accademico.

La Conferenza internazionale sull'apprendimento automatico (ICML) ha annunciato la politica all'inizio di questa settimana, affermando: "I documenti che includono testo generato da un modello linguistico su larga scala (LLM) come ChatGPT sono vietati a meno che il testo prodotto non sia presentato come parte del analisi sperimentale del documento." La notizia ha scatenato un’ampia discussione sui social media, con accademici e ricercatori sull’intelligenza artificiale che difendono e criticano la politica. Gli organizzatori della conferenza hanno risposto pubblicando una dichiarazione più lunga in cui spiegavano il loro pensiero. (L'ICML ha risposto alle richieste di commento di The Verge indirizzandoci a questa stessa dichiarazione.)

Secondo l'ICML, l'ascesa di modelli linguistici di intelligenza artificiale accessibili al pubblico come ChatGPT - un chatbot di intelligenza artificiale di uso generale lanciato sul web lo scorso novembre - rappresenta uno sviluppo "entusiasmante" che tuttavia comporta "conseguenze impreviste [e] domande senza risposta". L'ICML afferma che queste includono domande su chi possiede l'output di tali sistemi (sono addestrati su dati pubblici, che di solito vengono raccolti senza consenso e talvolta rigurgitano queste informazioni parola per parola) e se il testo e le immagini generate dall'intelligenza artificiale dovrebbero essere "considerati nuovi o semplici derivati ​​del lavoro esistente."

Gli strumenti di scrittura AI sono solo assistenti o qualcosa di più?

Quest’ultima domanda si collega a un delicato dibattito sulla paternità, ovvero chi “scrive” un testo generato dall’intelligenza artificiale: la macchina o il suo controllore umano? Ciò è particolarmente importante dato che l'ICML vieta solo il testo "prodotto interamente" dall'intelligenza artificiale. Gli organizzatori della conferenza affermano che non vietano l'uso di strumenti come ChatGPT "per modificare o perfezionare il testo scritto dall'autore" e notano che molti autori hanno già utilizzato "strumenti di editing semiautomatici" come il software di correzione grammaticale Grammarly per questo scopo.

"È certo che queste domande, e molte altre, troveranno risposta nel tempo, man mano che questi modelli generativi su larga scala saranno adottati più ampiamente. Tuttavia, non abbiamo ancora risposte chiare a nessuna di queste domande", scrivono i partecipanti alla conferenza. organizzatori.

Di conseguenza, l’ICML afferma che il suo divieto di testo generato dall’intelligenza artificiale sarà rivalutato l’anno prossimo.

Tuttavia, le questioni a cui si rivolge l’ICML potrebbero non essere facilmente risolte. La disponibilità di strumenti di intelligenza artificiale come ChatGPT sta causando confusione in molte organizzazioni, alcune delle quali hanno risposto con i propri divieti. L'anno scorso, il sito di domande e risposte Stack Overflow ha vietato agli utenti di inviare risposte create con ChatGPT, mentre il Dipartimento dell'Istruzione di New York City ha bloccato l'accesso allo strumento a chiunque sulla sua rete proprio questa settimana.

I modelli linguistici dell’intelligenza artificiale sono strumenti di completamento automatico privi di senso intrinseco di fattualità

In ciascun caso, ci sono timori diversi sugli effetti dannosi del testo generato dall’intelligenza artificiale. Uno dei più comuni è che l’output di questi sistemi è semplicemente inaffidabile. Questi strumenti di intelligenza artificiale sono vasti sistemi di completamento automatico, addestrati a prevedere quale parola segue quella successiva in una determinata frase. In quanto tali, non hanno un database di “fatti” codificato a cui attingere, ma solo la capacità di scrivere affermazioni dal suono plausibile. Ciò significa che hanno la tendenza a presentare informazioni false come verità poiché il fatto che una determinata frase sembri plausibile non ne garantisce la fattualità.

Nel caso del divieto dell’ICML sul testo generato dall’intelligenza artificiale, un’altra potenziale sfida è distinguere tra la scrittura che è stata solo “rifinita” o “modificata” dall’intelligenza artificiale e quella che è stata “prodotta interamente” da questi strumenti. A che punto una serie di piccole correzioni guidate dall’intelligenza artificiale costituiscono una riscrittura più ampia? Cosa succede se un utente chiede a uno strumento di intelligenza artificiale di riassumere il proprio articolo in un abstract accattivante? Questo conta come testo appena generato (perché il testo è nuovo) o mera rifinitura (perché è un riassunto delle parole scritte dall'autore)?

CONDIVIDERE