Key4biz

“Macchine per scrivere” – Possibili applicazioni e limiti delle IA generative

Nel suo interessante intervento, tenutosi in occasione del convegno “La fabbrica della realtà” – Giornalismo e informazione nell’era dell’IA generativa (organizzato dall’Osservatorio Intelligenza Artificiale di ANSA.it), Roberto Navigli, professore alla Sapienza Università di Roma, spiega come funziona l’IA generativa, quali sono le sue possibili applicazioni e quali invece i suoi limiti.

Alla base di sistemi come ChatGPT e altre IA generative c’è un modello linguistico che, dato un input (il prompt), produce un output. Il modello calcola una distribuzione di probabilità su tutte le parole del vocabolario e sceglie quali utilizzare per completare la sequenza di input. A seconda del prompt e del contesto che esso pone ci saranno più o meno probabilità che una certa parola venga generata: per esempio se si scrive su ChatGPT “ChatGPT è un” i termini che avranno più probabilità di uscire sono “software”, “modello”, “computer” e non “casa”; al contrario se come prompt si fornisce “Oggi mi trovo a” è molto più probabile che la parola generata sia “casa” piuttosto che “software”. La generazione continua così, aggiungendo una parola alla volta, fino a quando il sistema non arriva al token di completamento del testo.

I modelli linguistici di questo tipo si chiamano “large language model” e hanno quattro caratteristiche principali:

L’IA può essere applicata in numerosi campi:

Esistono poi molte altre applicazioni, come i chatbot e gli assistenti virtuali, la risoluzione di problemi, lo storytelling personalizzato, la question answering per i motori di ricerca, il riconoscimento automatico del parlato (per esempio la sottotitolazione automatica e il dettato), la classificazione di testi (come spam, tossico, inappropriato per un determinato pubblico…) e il processamento multimodale dalla descrizione all’immagine e viceversa.

L’IA generativa si è quindi rivelata in grado di produrre risultati impressionanti, dimostrando il suo straordinario potenziale in diverse aree. Il tutto in pochissimi secondi.

Tuttavia, questi sistemi presentano anche dei limiti. Quello principale è che non possiedono un senso comune e non sono capaci di comprendere le sfumature, come il tono ironico di una battuta.

Per esempio la frase “Pope Wojtyla shot. World shaken” viene tradotta dall’IA come “Papa Wojtyla ha sparato. Il mondo è scosso”. Qualsiasi essere umano, essendo dotato di senso comune, non troverebbe nessuna ambiguità in questa frase e la tradurrebbe nel modo corretto, perché sa che è più probabile che il papa sia stato colpito piuttosto che abbia colpito qualcuno.

I large language model sono sistemi che si limitano a ripetere e rielaborare ingenti quantità di dati tramite pattern di parole appresi, senza realmente comprenderne il significato, senza un vero intento comunicativo, amplificando i bias e inquinando sempre di più il web con contenuti potenzialmente problematici, oltre che sollevando problemi etici.

Il vantaggio dell’intelligenza umana rispetto a quella artificiale sta nel fatto che gli esseri umani usano euristiche semplici per risolvere tanti tipi diversi di problemi, razionalità ecologica, intuito (cosa che gli algoritmi non possiedono) ed esperienza (accumulano informazioni nel tempo per migliorare le proprie prestazioni e si adattano a seconda del problema scegliendo lo strumento più adeguato per affrontarlo).

Il rischio che i contenuti sbagliati si vadano a stratificare e che le prossime versioni dei software facciano training su di essi è purtroppo presente. Ci sono due possibilità di soluzione a questo problema: si può intervenire a monte, se si è ancora in grado di evitare che i sistemi producano contenuti problematici (e già oggi è difficile, perché chiunque può mettere online un contenuto generato da ChatGPT o da altri sistemi), oppure a valle, ovvero si dovrebbero sviluppare degli algoritmi che identificano quel tipo di contenuti o far sì che le aziende inseriscano dei metadati che agiscano come una filigrana e permettano di capire quali contenuti sono stati generati automaticamente.

Navigli conclude l’incontro con l’invito a utilizzare le IA generative ma nella giusta misura e in modo ragionato.

Exit mobile version