Le principali aziende tecnologiche stanno accelerando gli sforzi per ridurre le cosiddette “allucinazioni” dell’intelligenza artificiale generativa, ovvero le risposte inventate dai chatbot che compromettono l’affidabilità dei sistemi in ambiti critici come sanità, diritto e finanza. Secondo quanto riportato dal Financial Times, giganti come Google, Amazon, OpenAI, Mistral e Cohere stanno investendo in nuove tecniche e architetture per minimizzare questi errori.
Nonostante i progressi, molti esperti ritengono che l’eliminazione totale delle allucinazioni sia praticamente impossibile. La ragione è strutturale: i modelli linguistici di grandi dimensioni (LLM) funzionano sulla base di previsioni probabilistiche, generando la parola successiva di una frase senza sempre verificare coerenza e veridicità dell’informazione.
Le soluzioni allo studio
Per affrontare il problema, le aziende stanno adottando approcci complementari:
- Miglioramento dei dati di addestramento, per ridurre bias e lacune che portano a risposte inventate.
- Tecniche di grounding, che ancorano le risposte a database e fonti verificate, come nel caso dei modelli di Mistral connessi ai flussi dell’agenzia AFP.
- RAG (Retrieval-Augmented Generation), che consente ai modelli di accedere a fonti esterne controllate, diminuendo gli errori fattuali.
- Algoritmi di decodifica avanzati come il beam search, capaci di valutare più opzioni e scartare quelle incoerenti.
- Sistemi di verifica automatica, come gli evaluator models e i controlli logici introdotti da AWS, che analizzano la correttezza delle risposte prima che vengano fornite agli utenti.
Un equilibrio delicato
Ridurre le allucinazioni non è privo di compromessi. Modelli più “rigidi” risultano più accurati ma meno creativi, mentre quelli con maggiore libertà creativa possono generare contenuti più interessanti ma anche meno affidabili. L’uso di dati online, inoltre, espone a rischi come i prompt injection, attacchi che inducono i modelli a produrre errori sistematici.
Infine, alcuni studiosi criticano l’uso del termine “allucinazione”, ritenendolo fuorviante perché attribuisce caratteristiche umane a sistemi che, di fatto, operano esclusivamente attraverso calcoli statistici.