“Macchine per scrivere”: applicazioni e limiti delle IA generative

Nel suo interessante intervento, tenutosi in occasione del convegno “La fabbrica della realtà” – Giornalismo e informazione nell’era dell’IA generativa organizzato dall’Osservatorio Intelligenza Artificiale di ANSA.it, Roberto Navigli, professore alla Sapienza di Roma, spiega come funzionano le IA generative, quali sono le loro possibili applicazioni e quali invece i loro limiti.

I modelli linguistici

Alla base di sistemi come ChatGPT e altre IA generative c’è un modello linguistico che, dato un input (il prompt), produce un output. Il modello calcola una distribuzione di probabilità su tutte le parole del vocabolario e sceglie quali utilizzare per completare la sequenza di input. A seconda del prompt e del contesto che esso pone ci saranno più o meno probabilità che una certa parola venga generata: per esempio se si scrive su ChatGPT “ChatGPT è un” i termini che avranno più probabilità di uscire sono “software”, “modello”, “computer” e non “casa”; al contrario se come prompt si fornisce “Oggi mi trovo a” è molto più probabile che la parola generata sia “casa” piuttosto che “software”. La generazione continua così, aggiungendo una parola alla volta, fino a quando il sistema non arriva al token di completamento del testo. I modelli linguistici di questo tipo si chiamano “large language model” e hanno quattro caratteristiche principali:

  • la creazione di un enorme corpus di documenti, ovvero il web (prima del suo
    avvento non esisteva una collezione di queste dimensioni, multilingue e con una
    così estesa quantità di testi);
  • una grande rete neurale, un modello computazionale capace di fare calcoli algebrici
    (unitariamente abbastanza semplici ma complessivamente molto sofisticati);
  • un’elevata capacità di calcolo, quindi server che possano svolgere e mettere in atto i
    complessi calcoli della rete neurale;
  • un’enorme quantità di esempi di richieste o istruzioni e le corrispondenti risposte.

Le applicazioni dell’IA

L’IA può essere applicata in numerosi campi:

  • per la traduzione automatica, un’applicazione storica, che risale addirittura alla fine
    degli anni ’40 con i primi studi americani sulla traduzione dei testi russi;
  • per la scrittura di articoli, capitoli o interi libri, come è capitato nel 2020 con un
    articolo del The Guardian intitolato “A robot wrote this entire article. Are you
    scared yet, human?”;
  • per la scrittura automatica di codice, per esempio per creare un’app;
  • per la creazione automatica dei riassunti, che si rivelano corretti;
  • per la correzione automatica della grammatica e dell’ortografia in diverse lingue,
    allo scopo di migliorare la qualità della scrittura.

Esistono poi molte altre applicazioni, come i chatbot e gli assistenti virtuali, la risoluzione
di problemi, lo storytelling personalizzato, la question answering per i motori di ricerca, il
riconoscimento automatico del parlato (per esempio la sottotitolazione automatica e il
dettato), la classificazione di testi (come spam, tossico, inappropriato per un determinato
pubblico…) e il processamento multimodale dalla descrizione all’immagine e viceversa.
L’IA generativa si è quindi rivelata in grado di produrre risultati impressionanti,
dimostrando il suo straordinario potenziale in diverse aree. Il tutto in pochissimi secondi.

I limiti del sistema

Tuttavia, questi sistemi presentano anche dei limiti. Quello principale è che non possiedono un senso comune e non sono capaci di comprendere le sfumature, come il tono ironico di una battuta.
Per esempio la frase “Pope Wojtyla shot. World shaken” viene tradotta dall’IA come “Papa Wojtyla ha sparato. Il mondo è scosso”. Qualsiasi essere umano, essendo dotato di senso comune, non troverebbe nessuna ambiguità in questa frase e la tradurrebbe nel modo corretto, perché sa che è più probabile che il papa sia stato colpito piuttosto che abbia colpito qualcuno. I large language model sono sistemi che si limitano a ripetere e rielaborare ingenti quantità di dati tramite pattern di parole appresi, senza realmente comprenderne il significato, senza un vero intento comunicativo, amplificando i bias e inquinando sempre di più il web con contenuti potenzialmente problematici, oltre che sollevando problemi etici. Il vantaggio dell’intelligenza umana rispetto a quella artificiale sta nel fatto che gli esseri umani usano euristiche semplici per risolvere tanti tipi diversi di problemi, razionalità ecologica, intuito (cosa che gli algoritmi non possiedono) ed esperienza (accumulano informazioni nel tempo per migliorare le proprie prestazioni e si adattano a seconda del problema scegliendo lo strumento più adeguato per affrontarlo).
Il rischio che i contenuti sbagliati si vadano a stratificare e che le prossime versioni dei software facciano training su di essi è purtroppo presente. Ci sono due possibilità di soluzione a questo problema: si può intervenire a monte, se si è ancora in grado di evitare che i sistemi producano contenuti problematici (e già oggi è difficile, perché chiunque può mettere online un contenuto generato da ChatGPT o da altri sistemi), oppure a valle, ovvero si dovrebbero sviluppare degli algoritmi che identificano quel tipo di contenuti o far sì che le aziende inseriscano dei metadati che agiscano come una filigrana e permettano di capire quali contenuti sono stati generati automaticamente.
Navigli conclude l’incontro con l’invito a utilizzare le IA generative ma nella giusta misura e in modo ragionato.

Categories:

Tags:

No responses yet

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.