“Le persone stanno iniziando a parlare come ChatGPT”, ha avvertito Adam Aleksic in un articolo per The Washington Post, in cui ha analizzato come il linguaggio generato dai chatbot di intelligenza artificiale stia influenzando sempre più il modo in cui gli esseri umani comunicano. L’autore del libro Algospeak: How Social Media Is Transforming the Future of Language (Algospeak: come i social media stanno trasformando il futuro del linguaggio), noto come il “nerd dell’etimologia” e specialista nell’evoluzione del linguaggio, ha affermato che ciò che è inquietante non è solo la sofisticazione di questi sistemi, ma il fatto che “le parole sovrarappresentate nelle risposte dei chatbot stanno apparendo sempre più spesso nella conversazione umana”.
Il linguaggio dell’intelligenza artificiale: come funziona e cosa si perde
Aleksic ha spiegato che, sebbene gli utenti di ChatGPT, Claude, Gemini e altri chatbot di intelligenza artificiale credano di interagire nella stessa lingua, in realtà si tratta di linguaggi diversi. Come ha spiegato, “invece di elaborare il testo come un essere umano, il chatbot converte il tuo messaggio in un embedding, un gruppo di numeri rappresentati in uno ‘spazio vettoriale’, qualcosa di simile alle coordinate su una mappa”.
Il linguista ha chiarito che, proprio come una mappa è una rappresentazione appiattita di un territorio, questo embedding è una rappresentazione appiattita del linguaggio, il che implica che “una certa quantità di variazione e contesto umano va necessariamente persa”.
Il processo di risposta delle piattaforme, secondo Aleksic, si basa su previsioni parola per parola, guidate dai dati di addestramento e dall’apprendimento per rinforzo, entrambi con pregiudizi intrinseci. “Ciò che sembra inglese per te è in realtà un simulacro del linguaggio umano reale”, ha affermato l’autore nella sua rubrica.
La cosa preoccupante, ha sottolineato, è che “ora, con centinaia di milioni di persone che interagiscono regolarmente con i chatbot, gli esseri umani che parlano inglese stanno iniziando a parlare come il comunicatore disumano dall’altra parte”.
Il caso di “delve” e altre parole sovrarappresentate
Uno degli esempi più chiari esposti da Aleksic è l’uso sproporzionato della parola “delve” (‘approfondire’ o “indagare”) nei testi generati da ChatGPT, rispetto all’uso abituale nell’inglese parlato o scritto dagli esseri umani. Ha citato ricerche condotte da Tom S. Juzek e Zina B. Ward della Florida State University, che hanno attribuito questo fenomeno a “piccoli pregiudizi ed errori nel processo di feedback umano che si accumulano nel tempo”.
L’autore ha inoltre spiegato che i dipendenti incaricati di revisionare i risultati dei modelli linguistici sono spesso lavoratori a basso reddito in paesi come la Nigeria e il Kenya, dove “delve” è usato più frequentemente che nell’inglese americano o britannico. “Piccole sovrarappresentazioni lessicali potrebbero essere state rafforzate nel modello, a volte anche più che nell’uso stesso dei revisori”, ha scritto Aleksic, aggiungendo che le condizioni di lavoro e la pressione del tempo potrebbero aver impedito ai revisori di rilevare la frequenza di “delve”, portando a un’amplificazione ancora maggiore.
Ha citato anche altri esempi di parole sovrarappresentate nella lingua inglese, come “intricate” (“intricato”), “commendable” (“lodevole”) e ‘meticulous’ (“meticoloso”). Ha sottolineato che questo uso eccessivo sta già permeando la cultura globale. Dal lancio di ChatGPT alla fine del 2022, “la comparsa di ‘delve’ nelle pubblicazioni accademiche è aumentata di dieci volte, poiché i ricercatori hanno iniziato a ricorrere all’IA per redigere i loro articoli”.
Lo stesso autore ha confessato: “Mi piaceva usare la parola ‘delve’; ora cerco di evitarla”. Come ha spiegato nell’articolo di opinione, man mano che scienziati e scrittori sono diventati più consapevoli di questo fenomeno, hanno cercato di “suonare meno come un’IA”.
Tuttavia, la maggior parte delle persone probabilmente non è a conoscenza di questi pregiudizi dei chatbot verso determinate parole. Aleksic ha sostenuto che gli utenti presumono che ChatGPT si esprima in un inglese “normale”, perché così suggerisce l’interfaccia utente.
Inoltre, credono che anche i testi quotidiani che trovano siano in inglese normale, anche se potrebbero essere stati generati dall’IA. A questo proposito, il linguista ha avvertito: “Con il tempo, diventa sempre più facile confondere la rappresentazione con la realtà”.
Dalla scrittura al parlato: quando il vocabolario dell’IA si integra
Il fenomeno non si limita alla scrittura. Aleksic ha citato uno studio pubblicato su Scientific American il mese scorso, che ha rivelato che le persone hanno iniziato a dire “delve” con maggiore frequenza nelle conversazioni spontanee. “Questo non è più opera dell’IA; abbiamo iniziato a interiorizzarne i pregiudizi e a ripeterli per conto nostro”, ha affermato.
Anche coloro che cercano di evitare le parole più associate a ChatGPT non ne sono esenti, poiché “tante parole stanno comparendo con una frequenza innaturale che non possiamo evitarle tutte”. Lo specialista Aleksic si è chiesto: “Dovremmo anche smettere di usare ‘inquiry’ (‘consultazione’), un’altra parola abusata dai chatbot? O ‘surpass’ (‘superare’)? C’è troppo da tenere traccia”.
Ha anche avvertito che la tendenza ad adottare involontariamente il vocabolario dei modelli linguistici probabilmente aumenterà, man mano che il circolo di testi generati dall’IA, testi umani che non sappiamo essere IA e il linguaggio umano reale accelererà.
Nel campo della psicolinguistica, ha spiegato, è chiaro che “la frequenza con cui una parola viene rappresentata influisce sulla sua disponibilità nel lessico mentale delle persone, ovvero il ‘dizionario’ di opzioni possibili da utilizzare nella conversazione”. In sostanza, “più vediamo una parola rappresentata, più è intuitivo usarla noi stessi”.
Confini sfumati tra linguaggio umano e artificiale
Aleksic ha riflettuto sul fatto che è normale che le nostre mappe mentali del linguaggio evolvano, ma ora “siamo in un ciclo di retroazione in cui le nostre ‘mappe’ stanno convergendo con quelle dei chatbot”. Entrambi differiscono dal panorama reale – l’immensa varietà di modi in cui gli esseri umani parlano – ma la confusione rende sempre più difficile distinguere tra il linguaggio umano autentico e quello generato artificialmente.
“Man mano che questa distinzione diventa più difficile da discernere, continueremo a sfumare i confini della realtà, utilizzando ciclicamente questa confusione per costruire le nostre nuove realtà”, ha scritto l’autore. Considerando che “man mano che i modelli di IA continuano ad allenarsi sia con la propria produzione che con la scrittura umana influenzata dall’IA, l’onnipresenza del linguaggio dei modelli di linguaggio di grandi dimensioni (‘LLM-speak’) non potrà che intensificarsi”.
Implicazioni sociali e cognitive della trasformazione linguistica
Dal punto di vista linguistico, Adam Aleksic ha chiarito che non c’è nulla di sbagliato in questo: “La parola ‘delve’ non è peggiore per il tuo cervello rispetto ai suoi sinonimi”. Tuttavia, ha avvertito che il linguaggio è foriero di cambiamenti sociali più profondi.
“Esistono molte altre distorsioni molto più insidiose che sono anche codificate nei modelli di linguaggio di grandi dimensioni. Pregiudizi razziali, di genere e politici: tutti questi sono probabilmente addestrati nei modelli in modo simile ai pregiudizi linguistici, ma sono più difficili da misurare in modo definitivo”, ha affermato con sicurezza sul futuro di queste tecnologie.