l'analisi

Fraternità nell’era dell’IA, l’appello di Roma e la bussola di Leone XIV

di Raffaele Buscemi, Professore di comunicazione Pontificia Università della Santa Croce |

Limiti invalicabili, responsabilità umana e un trattato internazionale. Dalla voce del Papa arriva la cornice etica: l’IA è strumento, non autorità; mai decisioni di vita o di morte affidate a macchine.

Nessuna IA possa decidere sulla vita dell’uomo. Un gruppo indipendente di esperti, leader tecnologici e studiosi ha diffuso a Roma l’appello “Fraternità nell’era dell’IA – Il nostro appello globale per una coesistenza umana pacifica e una responsabilità condivisa, presentato durante il World Meeting on Human Fraternity.

Il testo chiede con chiarezza: sistemi sotto controllo umano, stop a qualsiasi delega di decisioni vitali, prudenza regolatoria sulle tecnologie di “superintelligenza” finché non esista un consenso scientifico sulla loro controllabilità e un consenso pubblico sulla loro introduzione; responsabilità legale in capo a sviluppatori, fornitori, aziende, implementatori e governi; tutela ambientale lungo l’intera filiera; contrasto a monopoli e competizioni irresponsabili; diritto delle persone a vivere anche senza IA. L’appello sollecita inoltre un trattato internazionale vincolante con un’autorità indipendente dotata di poteri di controllo e sanzione.

I capisaldi del manifesto sull’IA

Il documento fissa alcuni limiti invalicabili: nessuna personalità giuridica per i sistemi di IA, divieto di decisioni di vita o di morte affidate a macchine in contesti militari e civili (ordine pubblico, frontiere, sanità, giustizia), sviluppo sicuro ed etico con testing indipendente prima del rilascio e durante l’intero ciclo di vita, progettazione che eviti inganno, illusione, dipendenza e perdita di autonomia, responsabilità ecologica su energia, acqua e terre rare lungo la supply chain.

Non un’astrazione etica: il testo si appoggia a un filone di ricerca internazionale sulla sicurezza dei modelli avanzati, con l’obiettivo di spostare il baricentro dalla pura “performance” a veridicità, equilibrio e bene umano come metriche di qualità.

Chi firma (e perché è rilevante)

I firmatari includono personalità di primo piano dell’AI safety, dell’etica tecnologica e dell’industria: Geoffrey Hinton, Yoshua Bengio, Max Tegmark, Stuart Russell, Abeba Birhane, Nnenna Nwakanma, Jimena Sofía Viveros Álvarez, Alexander Waibel, Lorena Jaume-Palasí, Valerie Pisano, Cornelius Boersch, will.i.am, Paolo Benanti, Ernesto Belisario, Marco Trombetti. Coordinamento a cura di Riccardo Luna.

La composizione del gruppo racconta una convergenza rara fra scienza dei modelli, specialisti di policy digitale, esperti di diritti e di impresa: non un cartello di settore quindi, ma un largo perimetro che vuole creare una responsabilità condivisa.

Che cosa ha detto il Papa sull’AI

Nel suo intervento ai partecipanti al World Meeting on Human Fraternity, Leone XIV ha delineato una cornice chiara: l’AI può favorire uguaglianza e cooperazione, ma piegata a fini egoistici alimenta conflitti e aggressioni. La tecnologia resta strumento; la saggezza umana non coincide con la disponibilità di dati. L’invito è a comprendere e governare l’IA senza smarrire l’orientamento alla verità e alla bellezza, con un’attenzione speciale ai più vulnerabili.

La linea è netta su due fronti: nessuna macchina deve scegliere sulla vita di una persona e serve un controllo umano significativo sulle sue applicazioni belliche e su ogni impiego che tocchi la dignità della persona. Il Papa propone un vero e proprio “patto di umanità” fondato su cura, dono e responsabilità reciproca: criterio concreto per valutare scelte tecnologiche, economiche e giuridiche.

Dove si incastrano appello e magistero

Il manifesto civile e l’insegnamento pontificio convergono su quattro assi operativi:

1. IA come mezzo, non fine. Divieto di sistemi incontrollabili e centralità della responsabilità umana. Implicazione: accountability by design, catene di responsabilità chiare, procedure di override nei processi critici.

2. Decisioni di vita o di morte: perimetro invalicabile. Esclusioni d’uso esplicite per contesti militari e civili sensibili, disegno di controlli ex ante e monitoraggio continuo.

3. Superintelligenza e prudenza regolatoria. Sospensione condizionata finché non esistano prove credibili di controllabilità e consenso pubblico informato.

4. Giustizia ambientale e sociale. Standard su energia, acqua e terre rare insieme a metriche di veridicità e qualità informativa, per evitare nuove forme di esclusione e “inquinamento informativo”.

IA: la posta in gioco

Lo spostamento d’asse da “quanto è potente il modello” a “quanto è vero, equo, orientato al bene umano” segna il passaggio dalla retorica sulle IA. La fraternità diventa criterio di progettazione: non sentimento, ma architettura di responsabilità. Se l’IA deve servire l’umanità intera e non una ristretta minoranza, allora regole, contratti e metriche devono rendere esigibili quei principi. L’appello di Roma fornisce il perimetro normativo desiderabile; la parola del Papa offre la bussola etica che consente a imprese, PA e comunità scientifica di convergere su limiti chiari, responsabilità piena, controllabilità dei sistemi, tutela dei più vulnerabili e sostenibilità dei modelli.

La convergenza fra manifesto e magistero può quindi accelerare una governance dell’IA capace di unire innovazione e diritto, tecnica e giustizia. La domanda, ora, è operativa: piani aziendali, policy pubbliche e contratti sono già allineati a questo perimetro? Se la risposta non è un sì robusto, è il momento di colmare il divario. Se l’unica risposta a queste domande è “tutte le ai, in fondo, servono a generare profitto” c’è già un all’allarme che suona ma non lo stiamo sentendo (o non lo vogliamo sentire).

Per approfondire

Leggi le altre notizie sull’home page di Key4biz