top of page

Per favore, calmatevi tutti su ChatGPT

Il panico e il clamore intorno alla chatbot sorprendentemente stupido ci impediscono di parlare dei problemi reali dell'IA.


Nelle ultime due settimane si è scatenato un nuovo panico da AI: questa volta si tratta di ChatGPT, una chatbot creato da OpenAI, pronto a rendere obsolete vaste fasce della nostra società.


Sam Altman, cofondatore di OpenAI (e creatore del progetto di criptovaluta WorldCoin, apparentemente in fase di stallo, che cercava di scansionare i bulbi oculari alla ricerca di criptovalute, ma che è passato sotto silenzio dopo che diverse inchieste hanno portato alla luce un'operazione disfunzionale con numerosi problemi di lavoro e di privacy) dubita che ChatGPT sia effettivamente degno della reazione che sta suscitando in questo momento.


"ChatGPT è incredibilmente limitato, ma abbastanza buono in alcune cose da creare un'impressione fuorviante di grandezza", ha dichiarato Altman in un tweet del 10 dicembre. "È un errore fare affidamento su di essa per qualsiasi cosa importante in questo momento. è un'anteprima del progresso; abbiamo molto lavoro da fare sulla robustezza e sulla veridicità".


Questo non sembra aver impedito a nessuno di prevedere l'imminente scomparsa di università, professori, giornalismo e molto altro.


Un articolo del Guardian si apre con l'avvertimento che "professori, programmatori e giornalisti potrebbero trovarsi tutti senza lavoro nel giro di pochi anni" e indica esempi di ChatGPT e altri chat bot che imitano la prosa dei pezzi di opinione del Guardian, oltre a generare saggi per i compiti assegnati da un professore di giornalismo dell'Arizona State University.


Preoccupazioni simili sono state riprese in un saggio di Nature, che solleva dubbi sulla possibilità per gli studenti di inviare saggi generati da ChatGPT. Sebbene l'articolo ammetta l'esistenza di "fabbriche di saggi" che consentono agli studenti di affidare la stesura dei saggi a terzi, avverte che ChatGPT potrebbe rappresentare una minaccia unica, senza spiegarne esattamente il motivo.


Altri sono stati più roboanti nelle loro affermazioni. "Penso che possiamo sostanzialmente reinventare il concetto di istruzione su scala. L'università come la conosciamo cesserà di esistere", ha twittato Peter Wang, amministratore delegato di Anaconda, una piattaforma di data science.


L'unico problema, tuttavia, è che nulla di tutto ciò sembra essere vero, o addirittura possibile. ChatGPT è un modello linguistico di grandi dimensioni che imita efficacemente una via di mezzo del tipico discorso online, ma non ha alcun senso del significato; si limita a prevedere la parola successiva statisticamente più probabile in una frase in base ai suoi dati di addestramento, che possono essere errati. Questo ha fatto sì che Stack Overflow, un forum che funge da una delle più grandi risorse di codifica, abbia recentemente bandito ChatGPT perché non smetteva di dare risposte sbagliate.


"Nel complesso, poiché la percentuale media di risposte corrette fornite da ChatGPT è troppo bassa, la pubblicazione di risposte create da ChatGPT è sostanzialmente dannosa per il sito e per gli utenti che chiedono o cercano risposte corrette", hanno scritto i moderatori del sito in un post sul forum. "Il problema principale è che le risposte prodotte da ChatGPT hanno un'alta percentuale di errori, ma in genere sembrano buone e sono molto facili da produrre. Ci sono anche molte persone che provano ChatGPT per creare risposte, senza avere la competenza o la volontà di verificare che la risposta sia corretta prima di pubblicarla".


Ian Bogost di The Atlantic si è soffermato su questo aspetto nel suo articolo "ChatGPT Is Dumber Than You Think" (ChatGPT è più stupido di quanto pensiate), in cui si sottolinea che la chatbot non è molto più che divertente. Bogost sostiene che può spacciare il testo come persuasivo, ma solo perché siamo arrivati ad aspettarci così poco dal testo. Un blog ha mostrato come sia possibile utilizzare ChatGPT per contestare le multe per divieto di sosta, ma un altro modo per contestare una multa per divieto di sosta è semplicemente presentarsi. È possibile utilizzare ChatGPT per creare un copione per il rimborso da parte dei rappresentanti del servizio clienti, ma anche questi ultimi si basano su un copione e di solito vi daranno un rimborso o un credito se lo chiedete semplicemente. In questo caso la chatbot viene utilizzato per un compito incredibilmente banale che qualcuno non si preoccupa di affrontare e che un sistema artificiale non intelligente potrebbe facilmente svolgere: si tratta di persuasione o di accidia?


ChatGPT si occupa più di stronzate che di creatività, il che serve come metafora di ciò che è accaduto al nostro settore tecnologico e di come esso "si senta come un gigantesco organo per le stronzate, per l'aumento dell'accesso umano alla parola e per l'amplificazione delle bugie". Quando Bogost si è seduto con ChatGPT, ha trovato qualcosa di simile a ciò che hanno fatto i moderatori di Stack Overflow.


"In quasi tutti i casi, l'intelligenza artificiale sembrava possedere sia la conoscenza che i mezzi per esprimerla. Ma quando veniva sollecitato - e l'interfaccia della chat lo rendeva facile - il bot doveva quasi sempre ammettere di essersi inventato tutto", ha scritto Bogost. Nel suo esperimento con ChatGPT questo si è manifestato in vari modi: a volte il chatbot si è affidato a risposte modello che apparivano in vari prompt, altre volte le sue risposte erano piene di errori tecnici e di fatto quando gli si chiedeva di riprodurre un certo stile, e in più di un caso Bogost ha scoperto che le risposte del chatbot assomigliavano più a "un'icona della risposta che cercavo piuttosto che alla risposta stessa".


È importante ricordare che ci siamo già passati: a giugno, quando l'ingegnere di Google Blake Lemoine ha dichiarato in un'intervista al Washington Post che il modello linguistico di grandi dimensioni LaMDA di Google era vivo, addirittura senziente. Secondo lo stesso Lemoine, quel modello sembrava molto più persuasivo e convincente di ChatGPT. Lemoine ha insistito sul fatto che LaMDA è stato in grado di parlargli di diritti e di personalità e di fargli cambiare idea sulla terza legge della robotica di Isaac Asimov ("Un robot deve proteggere la propria esistenza finché tale protezione non è in conflitto con la prima o la seconda legge").


Le sue affermazioni sono state esaminate e respinte dai dirigenti di Google, compreso l'autore di un articolo dell'Economist scritto in precedenza dal vicepresidente di Google Blaise Aguera y Arcas. In quell'articolo, Aguera y Arcas ammetteva che le conversazioni con LaMDA gli avevano fatto sentire "il terreno sotto i piedi. Mi sembrava sempre più di parlare con qualcosa di intelligente", ma che non si trattava di coscienza, ma solo di un passo verso di essa.


La risposta a queste affermazioni è stata univoca e ridicola. Come si può affermare che un chatbot, anche molto convincente, sia intelligente? Non sappiamo tutti cosa sta succedendo? Qualche mese dopo, e improvvisamente ci sono legioni di Lemoines tutti abbagliati da ChatGPT.


Cosa distingue ChatGPT da LaMDA? Un fattore importante potrebbe essere il fatto che il pubblico sta interagendo con esso e lo sta manipolando per generare ogni sorta di risultati interessanti, mentre Google non ha rilasciato il suo modello. Da qui, la discussione più ampia e pubblica di ChatGPT cede il passo a una tradizione di lunga data nel nostro settore tecnologico di usare l'"intelligenza artificiale" come copertura per finanziare tutt'altro. Molti casi di tecnologie apparentemente algoritmiche o automatizzate sono, se si guarda al loro funzionamento interno, in realtà lavoro umano mascherato da artificio digitale, quello che il ricercatore (e co-conduttore del nostro podcast congiunto This Machine Kills) Jathan Sadowski chiama "IA potemkin". I venture capitalist e gli imprenditori, desiderosi di razionalizzare e trarre profitto da valutazioni gonfiate, si affrettano a promuovere funzionalità che pretendono di ridurre i costi del lavoro o di ottimizzare l'efficienza, ma che in realtà si basano semplicemente su esseri umani sottoposti a condizioni di lavoro deplorevoli al servizio di questo miraggio.


"I veicoli autonomi utilizzano la guida a distanza e i conducenti umani travestiti da sedili per nascondere la loro IA Potemkin. Gli sviluppatori di app per servizi basati sulle e-mail, come annunci personalizzati, confronti di prezzi e pianificazioni automatiche di itinerari di viaggio, utilizzano esseri umani per leggere e-mail private", ha scritto Sadowski su Real Mag. "L'elenco delle IA Potemkin continua a crescere a ogni ciclo di investimenti VC".


ChatGPT non sembra essere solo un altro sistema umano sotto mentite spoglie, anche se si limita a ripetere gli sforzi degli esseri umani che hanno scritto tutto il testo su cui è stato addestrato. Il fervore attorno a questo sistema è indistinguibile da quello delle IA Potemkin, vista la foga con cui i finanziatori vanno a caccia di prodotti funzionali che sembrano funzionare senza l'intervento dell'uomo. Il che ci riporta al saggio di Bogost, perché è lì che fa un'osservazione importante che, a mio avviso, centra in pieno il problema:


"GPT e altri modelli linguistici di grandi dimensioni sono strumenti estetici piuttosto che epistemologici. Immaginate uno strano, empio sintetizzatore i cui tasti campionano informazioni testuali, stile e semantica. Una cosa del genere è avvincente non perché offre risposte sotto forma di testo, ma perché rende possibile suonare il testo, tutto il testo, quasi come uno strumento", ha scritto Bogost.


Che cosa si ottiene quando si prende un'istanza pubblica di un chatbot facile da usare e da manipolare che fa cose interessanti con il linguaggio, e poi lo si rilascia nel mondo dei finanziatori tecnologici e degli hype-man acritici? Questi gruppi sono costantemente alla ricerca di modi per ingannare gli investitori e il pubblico e indurli a sostenere sistemi di IA che in realtà non lo sono. Se a questo si aggiungono i creatori del chatbot (in particolare Sam Altman di OpenAI), che ammettono docilmente che il sistema non è impressionante e al tempo stesso non offrono una vera e propria visione del fine a cui sarà destinato, si ottiene un sacco di persone che si esprimono su come questo possa sconvolgere la civiltà, un sacco di persone che confondono la mimica con la senzienza e la possibilità di avere conversazioni più interessanti che si allontanano.


Francamente, non importa se creiamo chatbot intelligenti o se vogliamo farlo: è una distrazione. Dovremmo invece porci domande del tipo: "I modelli linguistici di grandi dimensioni sono giustificabili o auspicabili per addestrare i sistemi artificiali?" o "Cosa dovremmo progettare per fare questi sistemi artificiali?" o se liberare una chatbot a un pubblico la cui immaginazione è costantemente assediata da rappresentazioni propagandistiche e ingannevoli dell'intelligenza artificiale (e usare quel pubblico per addestrare ulteriormente la chatbot) è qualcosa che dovrebbe essere permesso.


Questo non vuol dire che nessuno si ponga mai queste domande. Dopo tutto, è passato poco più di un anno da quando Timnit Gebru è stato licenziato da Google per averle poste. Ma ChatGPT aspira tutta l'aria dalla stanza e invece centra domande sciocche come "Come facciamo a salvare i compiti?" o intrattiene sciocche illusioni, come l'idea che si possa generare un intero videogioco AAA usando sistemi come ChatGPT che non esistono. Queste sono sciocchezze perché ci sono vere c dietro l'isteria e l'ottimismo sfrenato, ovvero quale ruolo dovrebbero avere i sistemi algoritmici e automatizzati nel nostro sistema educativo e nella nostra produzione culturale.


È qualcosa che vale la pena discutere e negoziare, ma lo spettacolo della ChatGPT, il modo in cui l'IA viene presentata e raccontata dai finanzieri e dalle aziende tecnologiche e il modo in cui il pubblico è stato ingannato sulle sue capacità ci rendono difficile trovare lo spazio per parlarne.


Fino ad allora, siamo bloccati con un'IA fittizia che oscura lo sfruttamento del lavoro che alimenta la maggior parte della nostra tecnologia, e con le chatbot che oscurano le questioni più ampie sul ruolo che i sistemi digitali dovrebbero avere nelle nostre vite, specialmente quando sono di proprietà e gestione privata, antidemocratici e pieni di pregiudizi.








8 visualizzazioni0 commenti

Post recenti

Mostra tutti

Hai mai pensato di non essere normale?

Ci sono due tipi di persone: persone normali e "pazzi". Le persone normali vanno in vacanza, prendono il sole, si rilassano e ricaricano le batterie prima di tornare al lavoro. I "pazzi" sono andati i

Comments


bottom of page