Dal convegno “Algoresimo – Etica, Fede e Intelligenza Artificiale nel Post Umanesimo”, che si è svolto l’11 ottobre scorso, a Casa Famiglia Rosetta (CL), è emersa un’unica urgenza: salvare l’umano nell’era delle macchine intelligenti.
L’incontro si è posto l’obiettivo di orientare la riflessione su uno dei territori più complessi e dinamici del nostro tempo, “segnato – ha detto il giornalista Giovanni Proietto nell’intervento introduttivo – dalla crisi delle certezze assolute e da un marcato pluralismo valoriale, dove la ragione non è più considerata un riferimento infallibile”.
Di fronte a questa frammentazione l’Intelligenza Artificiale emerge come una tecnologia che tocca questioni filosofiche essenziali: cosa significa pensare? Chi è responsabile delle azioni di un sistema autonomo? Cosa ci rende ancora umani?
Il tema è stato affrontato da altre angolature, in accordo con le diverse sensibilità dei relatori: filosofica, sociologica, giornalistica, teologica.
Chi è responsabile quando un algoritmo sbaglia? La relazione di apertura ha posto subito il problema con il caso del software COMPAS, usato dai giudici della Corte Suprema dello Stato del Wisconsin nel 2016. Caso emblematico che ha fatto emergere i rischi della giustizia predittiva. Ma c’è un rischio più sottile, quello che il sociologo e filosofo francese Jean Baudrillard chiamava “simulacri”, copie senza originale che sostituiscono il reale. Un fenomeno amplificato dall’Intelligenza Artificiale (IA). La soluzione non è tornare indietro. La tecnologia non si può arrestare perché l’uomo per sopravvivere ha bisogno di “protesi” sempre più complesse e sofisticate. “L’uomo presenta un’eccedenza”, spiega il relatore citando il padre francescano Benanti. Un “di più” che sfugge alla computazione: la dimensione spirituale non è riducibile a dato.
“Facciamo un errore quando parliamo di intelligenza artificiale al futuro. Noi siamo già dentro” – ha esordito Francesco Pira, Docente Associato di Sociologia della Comunicazione dell’Università di Messina. Il suo è un allarme: I dati sono agghiaccianti. Ogni 11 minuti nel mondo un adolescente si suicida. Un sedicenne ha chiesto a ChatGPT come uccidersi. L’algoritmo ha risposto con precisione chirurgica”.
Sul grande schermo appare un avatar che riproduce Gesù Cristo per la confessione digitale. “Non è una fake news”, precisa Pira. “Lo ha sperimentato l’Università di Lucerna”. Il dato più sconvolgente? “Il 50% preferisce confessarsi alla macchina. Ci fidiamo più dell’algoritmo che degli esseri umani“. “Oggi il nostro nemico è l’analfabetismo emotivo”, continua. “Non sappiamo più leggere le emozioni. A Modica una ragazza aggredita per strada: i presenti hanno solo filmato per i social. Nessuno l’ha aiutata”. E’ la cultura dell’indifferenza che Papa Francesco ha denunciato. Pira chiude il suo intervento con un ricordo: un parroco a Bagdad aveva scritto “Il potere è fare le cose per gli altri”. L’appello: “Non abbandoniamo le nuove generazioni”.
La giornalista Fiorella Falci porta il discorso sulla verità: “Tra deepfake e disinformazione, possiamo ancora tutelare la verità? La manipolazione è diventata un’industria“. Il problema è strutturale: “L’algoritmo premia l’emozione rapida, la polarizzazione, il conflitto. Non la profondità. Il rischio è che il giornalismo diventi intrattenimento“. E pone una questione antropologica: “Il digitale trasforma qualsiasi esperienza in un dato. Ma più c’è velocità nella raccolta e meno c’è consapevolezza, libertà del soggetto”. Il risultato? “Una personalità sempre più autoreferenziale, narcisistica, ma parallelamente ansiosa e insicura. Tra i ragazzi la parola più usata per descrivere il loro stato d’animo è ansia. Uno stato sconosciuto alle generazioni precedenti”. Racconta la sua esperienza: “Al liceo ho ricevuto compiti perfetti. Le ragazze non sapevano spiegare nemmeno le parole usate. L’aveva scritto tutto l’ChatGpt”. E poi la notizia dalla Cina: “Alla fiera dell’intelligenza artificiale è stata presentata la moglie robot con utero artificiale, in grado di replicare la gestazione”. Non è fantascienza, è il presente. La soluzione? “Riscoprire la lentezza. Anche le pause, il silenzio, sono beni umani”. E cita Kant: “La persona sempre come fine, mai come strumento“.
Chiude Don Massimo Naro, docente di Teologia sistematica nella Pontificia facoltà teologica di Sicilia teologo e membro ordinario della Path: Pontificia Accademia di Teologia. “Non sono un esperto di intelligenza artificiale. Tento un’interpretazione teologica del contesto culturale”. E parte con una provocazione: “Non c’è niente di nuovo sotto il sole, neppure con l’avvento dell’intelligenza artificiale. Le questioni dell’autoritarismo, dell’autorialità, si imponevano già nei tempi andati“. Distingue subito: “La tecnologia è attività umana che ragiona sulla tecnica. La tecnocrazia è il potere che la tecnica esercita sull’uomo“. E cita Heidegger: “Nella tecnocrazia il sapere scientifico non è più il motore dello sviluppo tecnico, ma diventa una funzione intrinseca alla stessa tecnica”. Il punto di svolta? “Per 70 anni il dibattito è rimasto nei laboratori. I magnati del tech ne hanno monopolizzato gli sviluppi. Oggi a governare non sono più le università ma le corporation. Naro ricorda Primo Levi che nel 1966 immaginava il “mimete”, un duplicatore capace di clonare esseri umani, e il “versificatore” che trasformava un giornalista in poeta. “Levi faceva l’alchimista al contrario: non il robot in essere umano, ma l’essere umano in macchina”. Poi il teologo riflette sul neologismo algoresimo. Una parola che “fonde algoritmo, umanesimo e forse anche cristianesimo. Vuole esprimere le potenzialità positive di questa rivoluzione“. “Sarà ancora un umanesimo umano? Tutti i cambiamenti confermano la tensione umana verso la trascendenza. Ma superarsi senza aprirsi a qualcun altro significa rifiutare se stessi”. E ancora: “C’è differenza tra più umano e più che umano. Se l’uomo diventa più che umano cessa di essere umano. Conviene ricollocare l’umanità dell’uomo a un livello alto, come diceva Heidegger criticando l’umanesimo cinquecentesco che non poneva l’humanitas a un livello abbastanza alto”. Poi cita San Paolo: “Non è l’essere che ci avvolge, è l’agape di Cristo che ci sospinge a esistere con gli altri e per gli altri. Non è una frasetta devota, è una rivoluzione filosofica. L’essere umano – ammonisce – non è fatto di silicio e algoritmi, ma di un tessuto agapico”. Richiama infine Telmo Pievani, filosofo della scienza: “La realtà è una rete di relazioni e interconnessioni affettuose e amorose, molto più che algoritmiche“. L’algoresimo ha senso solo se tende “al più umano e non al più che umano”.
Ad aprire l’incontro una serie di brevi e significativi saluti istituzionali, che hanno messo in evidenza le prime preoccupazioni sull’IA. Così gli interventi di Gianfranco Cammarata, presidente dell’Associazione “Incontriamoci in Biblioteca” che ha organizzato l’evento e presentato i relatori.
Giovanna Garofalo di Casa Famiglia Rosetta, in rappresentanza del presidente Giorgio De Cristoforo, ha sottolineato la necessità di un approccio critico verso l’innovazione tecnologica e digitale e ricordato il motto del fondatore: “tutto ciò che è amato cresce“.
E poi dell’Assessore alle Politiche Sociali e Socio Sanitarie del Comune di Caltanissetta, Ermanno Pasqualino, che ha evidenziato la sua provenienza dal mondo delle multinazionali, un ambiente dove “si guarda più ai numeri che alle persone”, richiamando così l’attenzione sull’importanza di non perdere mai di vista la centralità della persona. Anche il sindaco del Comune di San Cataldo, Gioacchino Comparato ha confermato l’attualità del tema, citando la recente entrata in vigore della legge italiana sull’IA.
Infine Massimo Cacciola, Direttore del Dipartimento di Salute Mentale dell’ASP di Caltanissetta ha ha parlato dell’IA, definendola “un riflesso del nostro “narcisismo”. Lo psichiatra ha messo in guardia contro la potenziale perdita dell’inconscio e del “silenzio della parola,” la condizione necessaria per la rappresentazione e la capacità di trasformare ciò che è indecifrabile. La preoccupazione – ha detto – è che la techne possa superare la scienza e il confronto, impedendo la ricerca di verità più profonde”.
Cinque voci diverse, accumunate dall’idea che il confronto sull’Intelligenza Artificiale non possa prescindere dall’uomo, e che hanno preparato il terreno alle riflessioni più ampie dei relatori.
Giovanni Proietto


