ROMA - Una riflessione profonda, lucida e plurale sull’intelligenza artificiale e sul suo impatto antropologico e generazionale. È ciò che ha animato il terzo seminario promosso dal Senatore Francesco Giacobbe (PD), tenutosi lo scorso 24 luglio nella Sala dell’Istituto di Santa Maria in Aquiro. L’incontro, dal titolo AI: la prospettiva antropocentrica, ha posto al centro del dibattito una questione cruciale e ancora aperta: quale ruolo può e deve assumere l’intelligenza artificiale nello sviluppo della società, in particolare nella formazione dei giovani? La tecnologia è neutra o sta già modificando in profondità le competenze, i comportamenti e perfino l’immaginario delle nuove generazioni?

A introdurre i lavori è stato lo stesso Senatore Giacobbe, promotore del ciclo di seminari sul tema. “L’intelligenza artificiale non è altro che uno strumento, e dovrebbe rimanere tale: nelle mani delle persone, per aiutarle a risolvere problemi. Ma se i problemi vengono risolti da una macchina al posto nostro, senza che noi capiamo come e perché, rischiamo di formare una generazione di futuri leader incapaci di affrontare l’imprevisto”, ha affermato con preoccupazione, nel corso di un intervento che ha voluto essere un invito alla prudenza, e non alla chiusura: “Non sto dicendo che l’intelligenza artificiale vada accantonata, assolutamente no. Piuttosto, dobbiamo continuare a svilupparla con la consapevolezza che è uno strumento e non un fine”.

Un appello raccolto e declinato secondo diverse angolazioni dai relatori invitati alla giornata. Il dottor Mauro Tuvo, del Comitato scientifico di Dama Chapter Italy, ha posto l’accento sull’aspetto meno visibile, ma decisivo, dell’AI: la gestione dei dati. “Il campione dei dati con cui istruiamo l’intelligenza artificiale deve rappresentare l’evoluzione della popolazione nel tempo, altrimenti si verifica il cosiddetto ‘drift’: i dati non descrivono più la realtà a cui vogliamo applicare quella logica”. Un errore che si amplifica quando, per compensare la scarsità di dati reali, si utilizzano dati sintetici generati da altre intelligenze artificiali. “A poco a poco, ciò che accade è che la realtà descritta dalla macchina diventa essa stessa una realtà sintetica”, ha osservato Tuvo, aprendo interrogativi inquietanti sul confine tra verità e finzione algoritmica.

Un nodo, quello del controllo umano sulla macchina, rilanciato anche dal professor Manlio D’Agostino Panebianco, docente dell’Università di Milano Bicocca e membro del Comitato scientifico di Federprivacy. “L’AI è utile, è comoda e perfino bella, ma deve restare uno strumento, oppure rischiamo una ‘Super AI’ che ci sostituisce”, ha ammonito. Il vero pericolo, secondo Panebianco, è la perdita della creatività umana, intesa come capacità di immaginare e progettare. “Utilizziamo la tecnologia perché comoda, ma sempre sotto la nostra sorveglianza. I posti di lavoro non scompariranno, ma cambieranno radicalmente: dobbiamo capire come, e prepararci”.

A offrire un punto di vista internazionale è stato S.E. The Hon Keith Pitt, Ambasciatore d’Australia presso la Santa Sede, che ha illustrato la convergenza tra Australia e Vaticano sul tema di un’intelligenza artificiale etica e umanocentrica. “Nel 2020 il Vaticano ha promosso un documento con sei principi fondamentali per lo sviluppo etico dell’AI: trasparenza, inclusione, responsabilità, imparzialità, sicurezza e privacy”, ha ricordato. Un documento sostenuto da colossi del digitale come Microsoft, Cisco e IBM, ma anche da università, istituzioni e organizzazioni internazionali. “La Santa Sede ha coniato il termine ‘Algoretica’, ovvero l’etica nella progettazione degli algoritmi”, ha sottolineato Pitt.

Ma il solo richiamo etico non basta: “Abbiamo constatato che l’adesione volontaria ai principi non è più sufficiente per regolare le applicazioni dell’AI ad alto rischio”. Da qui la dichiarazione congiunta firmata da Australia e Santa Sede, l’11 febbraio 2025, per uno sviluppo dell’AI inclusivo e sostenibile. “I benefici dell’AI sono ovvi, ma anche la sua parte oscura è evidente e molto preoccupante. Serve un approccio cauto. Parafrasando Papa Francesco e Papa Leone, l’AI deve avanzare l’umanità, non sostituirla”.

Un esempio concreto di applicazione dell’intelligenza artificiale a servizio dell’uomo è arrivato dal dottor Antonio Coppola, direttore dell’UOC Telemedicina e Intelligenza Artificiale dell’ASL di Salerno, che ha illustrato quanto sta accadendo nel campo della sanità digitale. “Grazie all’AI e alle piattaforme di telemedicina siamo riusciti a costruire una vera inclusione sociale. Abbiamo attivato il telemonitoraggio a domicilio per pazienti fragili, nelle RSA, nei centri Alzheimer. E a Salerno, anche se non ancora inaugurato per via della pausa estiva, abbiamo realizzato il primo ospedale virtuale della Campania: una struttura interamente basata su tecnologie AI che permetterà di seguire cinquemila pazienti a distanza”. Un’esperienza che, per Coppola, dimostra come l’intelligenza artificiale possa essere non solo uno strumento, ma un’opportunità per ridurre le disuguaglianze e garantire equità.

A emergere con forza, in tutti gli interventi, è stata la consapevolezza che l’intelligenza artificiale rappresenti una sfida culturale prima ancora che tecnologica. Non basta svilupparla: occorre educare al suo uso, fin dalle scuole, e costruire un’alleanza tra istituzioni, educatori, imprese e cittadini per non lasciarsi travolgere da un’evoluzione che corre più veloce della nostra capacità di comprenderla.

Serve una governance attenta, una vigilanza condivisa, e soprattutto una visione antropocentrica che metta l’essere umano al centro del processo tecnologico. Se è vero, come ha ricordato l’ambasciatore Pitt, che l’AI può aiutare a “velocizzare”, è altrettanto vero che la velocità non deve sostituire il pensiero. L’intelligenza artificiale, ha concluso Giacobbe, deve servire l’uomo, non sostituirlo. E proprio per questo è urgente continuare il dibattito, ascoltando voci diverse e costruendo un percorso collettivo di consapevolezza.