PAPA FRANCESCO PARTECIPA ALLA SESSIONE DEL G7 SULL’INTELLIGENZA ARTIFICIALE
[13-15 giugno 2024]ย
DISCORSO DEL SANTO PADRE FRANCESCO
- Pubblicitร -
Borgo Egnazia (Puglia)
Venerdรฌ, 14 giugno 2024
- Versione integrale del Discorso preparato dal Santo Padre
- Discorso pronunciato dal Santo Padre al G7
Uno strumento affascinante e tremendo
Gentili Signore, illustri Signori!
Mi rivolgo oggi a Voi, Leader del Forum Intergovernativo del G7, con una riflessione sugli effetti dellโintelligenza artificiale sul futuro dellโumanitร .
ยซLa Sacra Scrittura attesta che Dio ha donato agli uomini il suo Spirito affinchรฉ abbiano โsaggezza, intelligenza e scienza in ogni genere di lavoroโ ( Es 35,31)ยป [1]. La scienza e la tecnologia sono dunque prodotti straordinari del potenziale creativo di noi esseri umani [2].
Ebbene, รจ proprio dallโutilizzo di questo potenziale creativo che Dio ci ha donato che viene alla luce lโintelligenza artificiale.
Questโultima,come รจ noto,รจ uno strumento estremamente potente, impiegato in tantissime aree dellโagire umano: dalla medicina al mondo del lavoro, dalla cultura allโambito della comunicazione, dallโeducazione alla politica. Ed รจ ora lecito ipotizzare che il suo uso influenzerร sempre di piรน il nostro modo di vivere, le nostre relazioni sociali e nel futuro persino la maniera in cui concepiamo la nostra identitร di esseri umani [3].
Il tema dellโintelligenza artificiale รจ, tuttavia, spesso percepito come ambivalente: da un lato, entusiasma per le possibilitร che offre, dallโaltro genera timore per le conseguenze che lascia presagire. A questo proposito si puรฒ dire che tutti noi siamo, anche se in misura diversa, attraversati da dueemozioni: siamo entusiasti, quando immaginiamo i progressi che dallโintelligenza artificiale possono derivare, ma, al tempo stesso, siamo impauriti quando constatiamo i pericoli inerenti al suo uso [4].
Non possiamo, del resto, dubitare che lโavvento dellโintelligenza artificiale rappresenti una vera e propria rivoluzione cognitivo-industriale, che contribuirร alla creazione di un nuovo sistema sociale caratterizzato da complesse trasformazioni epocali. Ad esempio, lโintelligenza artificiale potrebbe permettere una democratizzazione dellโaccesso al sapere, il progresso esponenziale della ricerca scientifica, la possibilitร di delegare alle macchine i lavori usuranti; ma, al tempo stesso, essa potrebbe portare con sรฉ una piรน grande ingiustizia fra nazioni avanzate e nazioni in via di sviluppo, fra ceti sociali dominanti e ceti sociali oppressi, mettendo cosรฌ in pericolo la possibilitร di una โcultura dellโincontroโ a vantaggio di una โcultura dello scartoโ.
La portata di queste complesse trasformazioni รจ ovviamente legata al rapido sviluppo tecnologico dellโintelligenza artificiale stessa.
Proprio questo vigoroso avanzamento tecnologico rende lโintelligenza artificiale uno strumento affascinante e tremendo al tempo stesso ed impone una riflessione allโaltezza della situazione.
In tale direzione forse si potrebbe partire dalla costatazione che lโintelligenza artificiale รจ innanzitutto uno strumento. E viene spontaneo affermare che i benefici o i danni che essa porterร dipenderanno dal suo impiego.
Questo รจ sicuramente vero, poichรฉ cosรฌ รจ stato per ogni utensile costruito dallโessere umano sin dalla notte dei tempi.
Questa nostra capacitร di costruire utensili, in una quantitร e complessitร che non ha pari tra i viventi, fa parlare di una condizione tecno-umana: lโessere umano ha da sempre mantenuto una relazione con lโambiente mediata dagli strumenti che via via produceva. Non รจ possibile separare la storia dellโuomo e della civilizzazione dalla storia di tali strumenti. Qualcuno ha voluto leggere in tutto ciรฒ una sorta di mancanza, un deficit, dellโessere umano, come se, a causa di tale carenza, fosse costretto a dare vita alla tecnologia [5]. Uno sguardo attento e oggettivo in realtร ci mostra lโopposto. Viviamo una condizione di ulterioritร rispetto al nostro essere biologico; siamo esseri sbilanciati verso il fuori-di-noi, anzi radicalmente aperti allโoltre. Da qui prende origine la nostra apertura agli altri e a Dio; da qui nasce il potenziale creativo della nostra intelligenza in termini di cultura e di bellezza; da qui, da ultimo, si origina la nostra capacitร tecnica. La tecnologia รจ cosรฌ una traccia di questa nostra ulterioritร .
Tuttavia, lโuso dei nostri utensili non sempre รจ univocamente rivolto al bene. Anche se lโessere umano sente dentro di sรฉ una vocazione allโoltre e alla conoscenza vissuta come strumento di bene al servizio dei fratelli e delle sorelle e della casa comune (cfr Gaudium et spes, 16), non sempre questo accade. Anzi, non di rado, proprio grazie alla sua radicale libertร , lโumanitร ha pervertito i fini del suo essere trasformandosi in nemica di sรฉ stessa e del pianeta [6]. Stessa sorte possono avere gli strumenti tecnologici. Solo se sarร garantita la loro vocazione al servizio dellโumano, gli strumenti tecnologici riveleranno non solo la grandezza e la dignitร unica dellโessere umano, ma anche il mandato che questโultimo ha ricevuto di โcoltivare e custodireโ (cfr Gen 2,15) il pianeta e tutti i suoi abitanti. Parlare di tecnologia รจ parlare di cosa significhi essere umani e quindi di quella nostra unica condizione tra libertร e responsabilitร , cioรจ vuol dire parlare di etica.
Quando i nostri antenati, infatti, affilarono delle pietre di selce per costruire dei coltelli, li usarono sia per tagliare il pellame per i vestiti sia per uccidersi gli uni gli altri. Lo stesso si potrebbe dire di altre tecnologie molto piรน avanzate, quali lโenergia prodotta dalla fusione degli atomi come avviene sul Sole, che potrebbe essere utilizzata certamente per produrre energia pulita e rinnovabile ma anche per ridurre il nostro pianeta in un cumulo di cenere.
Lโintelligenza artificiale, perรฒ, รจ uno strumento ancora piรน complesso. Direi quasi che si tratta di uno strumento sui generis. Cosรฌ, mentre lโuso di un utensile semplice (come il coltello) รจ sotto il controllo dellโessere umano che lo utilizza e solo da questโultimo dipende un suo buon uso, lโintelligenza artificiale, invece, puรฒ adattarsi autonomamente al compito che le viene assegnato e, se progettata con questa modalitร , operare scelte indipendenti dallโessere umano per raggiungere lโobiettivo prefissato [7].
Conviene sempre ricordare che la macchina puรฒ, in alcune forme e con questi nuovi mezzi, produrre delle scelte algoritmiche. Ciรฒ che la macchina fa รจ una scelta tecnica tra piรน possibilitร e si basa o su criteri ben definiti o su inferenze statistiche. Lโessere umano, invece, non solo sceglie, ma in cuor suo รจ capace di decidere. La decisione รจ un elemento che potremmo definire maggiormente strategico di una scelta e richiede una valutazione pratica. A volte, spesso nel difficile compito del governare, siamo chiamati a decidere con conseguenze anche su molte persone. Da sempre la riflessione umana parla a tale proposito di saggezza, la phronesis della filosofia greca e almeno in parte la sapienza della Sacra Scrittura. Di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che allโessere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita. Condanneremmo lโumanitร a un futuro senza speranza, se sottraessimo alle persone la capacitร di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine. Abbiamo bisogno di garantire e tutelare uno spazio di controllo significativo dellโessere umano sul processo di scelta dei programmi di intelligenza artificiale: ne va della stessa dignitร umana.
Proprio su questo tema permettetemi di insistere: in un dramma come quello dei conflitti armati รจ urgente ripensare lo sviluppo e lโutilizzo di dispositivi come le cosiddette โarmi letali autonomeโ per bandirne lโuso, cominciando giร da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano.
Cโรจ da aggiungere, inoltre, che il buon uso, almeno delle forme avanzate di intelligenza artificiale, non sarร pienamente sotto il controllo nรฉ degli utilizzatori nรฉ dei programmatori che ne hanno definito gli scopi originari al momento dellโideazione. E questo รจ tanto piรน vero quanto รจ altamente probabile che, in un futuro non lontano, i programmi di intelligenze artificiali potranno comunicare direttamente gli uni con gli altri, per migliorare le loro performance. E, se in passato, gli esseri umani che hanno modellato utensili semplici hanno visto la loro esistenza modellata da questi ultimi โ il coltello ha permesso loro di sopravvivere al freddo ma anche di sviluppare lโarte della guerra โ adesso che gli esseri umani hanno modellato uno strumento complesso vedranno questโultimo modellare ancora di piรน la loro esistenza [8].
Il meccanismo basilare dellโintelligenza artificiale
Vorrei ora soffermarmi brevemente sulla complessitร dellโintelligenza artificiale. Nella sua essenza lโintelligenza artificiale รจ un utensile disegnato per la risoluzione di un problema e funziona per mezzo di un concatenamento logico di operazioni algebriche, effettuato su categorie di dati, che sono raffrontati per scoprire delle correlazioni, migliorandone il valore statistico, grazie a un processo di auto-apprendimento, basato sulla ricerca di ulteriori dati e sullโauto-modifica delle sue procedure di calcolo.
Lโintelligenza artificiale รจ cosรฌ disegnata per risolvere dei problemi specifici, ma per coloro che la utilizzano รจ spesso irresistibile la tentazione di trarre, a partire dalle soluzioni puntuali che essa propone, delle deduzioni generali, persino di ordine antropologico.
Un buon esempio รจ lโuso dei programmi disegnati per aiutare i magistrati nelle decisioni relative alla concessione dei domiciliari a detenuti che stanno scontando una pena in un istituto carcerario. In questo caso, si chiede allโintelligenza artificiale di prevedere la probabilitร di recidiva del crimine commesso da parte di un condannato a partire da categorie prefissate (tipo di reato, comportamento in prigione, valutazione psicologiche ed altro), permettendo allโintelligenza artificiale di avere accesso a categorie di dati inerenti alla vita privata del detenuto (origine etnica, livello educativo, linea di credito ed altro). Lโuso di una tale metodologia โ che rischia a volte di delegare de facto a una macchina lโultima parola sul destino di una persona โ puรฒ portare con sรฉ implicitamente il riferimento ai pregiudizi insiti alle categorie di dati utilizzati dallโintelligenza artificiale.
Lโessere classificato in un certo gruppo etnico o, piรน prosaicamente, lโaver commesso anni prima unโinfrazione minore (il non avere pagato, per esempio, una multa per una sosta vietata), influenzerร , infatti, la decisione circa la concessione dei domiciliari. Al contrario, lโessere umano รจ sempre in evoluzione ed รจ capace di sorprendere con le sue azioni, cosa di cui la macchina non puรฒ tenere conto.
Cโรจ da far presente poi che applicazioni simili a questa appena citata subiranno unโaccelerazione grazie al fatto che i programmi di intelligenza artificiale saranno sempre piรน dotati della capacitร di interagire direttamente con gli esseri umani (chatbots), sostenendo conversazioni con loro e stabilendo rapporti di vicinanza con loro, spesso molto piacevoli e rassicuranti, in quanto tali programmi di intelligenza artificiale saranno disegnati per imparare a rispondere, in forma personalizzata, ai bisogni fisici e psicologici degli esseri umani.
Dimenticare che lโintelligenza artificiale non รจ un altro essere umano e che essa non puรฒ proporre principi generali, รจ spesso un grave errore che trae origine o dalla profonda necessitร degli esseri umani di trovare una forma stabile di compagnia o da un loro presupposto subcosciente, ossia dal presupposto che le osservazioni ottenute mediante un meccanismo di calcolo siano dotate delle qualitร di certezza indiscutibile e di universalitร indubbia.
Questo presupposto, tuttavia, รจ azzardato, come dimostra lโesame dei limiti intrinseci del calcolo stesso. Lโintelligenza artificiale usa delle operazioni algebriche da effettuarsi secondo una sequenza logica (per esempio, se il valore di X รจ superiore a quello di Y, moltiplica X per Y; altrimenti dividi X per Y). Questo metodo di calcolo โ il cosiddetto โalgoritmoโ โ non รจ dotato nรฉ di oggettivitร nรฉ di neutralitร [9]. Essendo infatti basato sullโalgebra, puรฒ esaminare solo realtร formalizzate in termini numerici [10].
Non va dimenticato, inoltre, che gli algoritmi disegnati per risolvere problemi molto complessi sono cosรฌ sofisticati da rendere arduo agli stessi programmatori la comprensione esatta del come essi riescano a raggiungere i loro risultati. Questa tendenza alla sofisticazione rischia di accelerarsi notevolmente con lโintroduzione di computer quantistici che non opereranno con circuiti binari (semiconduttori o microchip), ma secondo le leggi, alquanto articolate, della fisica quantistica. Dโaltronde, la continua introduzione di microchip sempre piรน performanti รจ diventata giร una delle cause del predominio dellโuso dellโintelligenza artificiale da parte delle poche nazioni che ne sono dotate.
Sofisticate o meno che siano, la qualitร delle risposte che i programmi di intelligenza artificiale forniscono dipendono in ultima istanza dai dati che essi usano e come da questi ultimi vengono strutturati.
Mi permetto di segnalare, infine, un ultimo ambito in cui emerge chiaramente la complessitร del meccanismo della cosiddetta intelligenza artificiale generativa (Generative Artificial Intelligence). Nessuno dubita che oggi sono a disposizione magnifici strumenti di accesso alla conoscenza che permettono persino il self-learning e il self-tutoring in una miriade di campi. Molti di noi sono rimasti colpiti dalle applicazioni facilmente disponibili on-line per comporre un testo o produrre unโimmagine su qualsiasi tema o soggetto. Particolarmente attratti da questa prospettiva sono gli studenti che, quando devono preparare degli elaborati, ne fanno un uso sproporzionato.
Questi alunni, che spesso sono molto piรน preparati e abituati allโuso dellโintelligenza artificiale dei loro professori, dimenticano, tuttavia, che la cosiddetta intelligenza artificiale generativa, in senso stretto, non รจ propriamente โgenerativaโ. Questโultima, in veritร , cerca nei big data delle informazioni e le confeziona nello stile che le รจ stato richiesto. Non sviluppa concetti o analisi nuove. Ripete quelle che trova, dando loro una forma accattivante. E piรน trova ripetuta una nozione o una ipotesi, piรน la considera legittima e valida. Piรน che โgenerativaโ, essa รจ quindi โrafforzativaโ, nel senso che riordina i contenuti esistenti, contribuendo a consolidarli, spesso senza controllare se contengano errori o preconcetti.
In questo modo, non solo si corre il rischio di legittimare delle fake news e di irrobustire il vantaggio di una cultura dominante, ma di minare altresรฌ il processo educativo in nuce. Lโeducazione che dovrebbe fornire agli studenti la possibilitร di una riflessione autentica rischia di ridursi a una ripetizione di nozioni, che verranno sempre di piรน valutate come inoppugnabili, semplicemente in ragione della loro continua riproposizione [11].
Rimettere al centro la dignitร della persona in vista di una proposta etica condivisa
A quanto giร detto va ora aggiunta unโosservazione piรน generale. La stagione di innovazione tecnologica che stiamo attraversando, infatti, si accompagna a una particolare e inedita congiuntura sociale: sui grandi temi del vivere sociale si riesce con sempre minore facilitร a trovare intese. Anche in comunitร caratterizzate da una certa continuitร culturale, si creano spesso accesi dibattiti e confronti che rendono difficile produrre riflessioni e soluzioni politiche condivise, volte a cercare ciรฒ che รจ bene e giusto. Oltre la complessitร di legittime visioni che caratterizzano la famiglia umana, emerge un fattore che sembra accomunare queste diverse istanze. Si registra come uno smarrimento o quantomeno unโeclissi del senso dellโumano e unโapparente insignificanza del concetto di dignitร umana [12]. Sembra che si stia perdendo il valore e il profondo significato di una delle categorie fondamentali dellโOccidente: la categoria di persona umana. Ed รจ cosรฌ che in questa stagione in cui i programmi di intelligenza artificiale interrogano lโessere umano e il suo agire, proprio la debolezza dellโ ethos connesso alla percezione del valore e della dignitร della persona umana rischia di essere il piรน grande vulnus nellโimplementazione e nello sviluppo di questi sistemi. Non dobbiamo dimenticare infatti che nessuna innovazione รจ neutrale. La tecnologia nasce per uno scopo e, nel suo impatto con la societร umana, rappresenta sempre una forma di ordine nelle relazioni sociali e una disposizione di potere, che abilita qualcuno a compiere azioni e impedisce ad altri di compierne altre. Questa costitutiva dimensione di potere della tecnologia include sempre, in una maniera piรน o meno esplicita, la visione del mondo di chi lโha realizzata e sviluppata.
Questo vale anche per i programmi di intelligenza artificiale. Affinchรฉ questi ultimi siano strumenti per la costruzione del bene e di un domani migliore, debbono essere sempre ordinati al bene di ogni essere umano. Devono avere unโispirazione etica.
La decisione etica, infatti, รจ quella che tiene conto non solo degli esiti di unโazione, ma anche dei valori in gioco e dei doveri che da questi valori derivano. Per questo ho salutato con favore la firma a Roma, nel 2020, della Rome Call for AI Ethics [13] e il suo sostegno a quella forma di moderazione etica degli algoritmi e dei programmi di intelligenza artificiale che ho chiamato โalgoreticaโ [14]. In un contesto plurale e globale, in cui si mostrano anche sensibilitร diverse e gerarchie plurali nelle scale dei valori, sembrerebbe difficile trovare unโunica gerarchia di valori. Ma nellโanalisi etica possiamo ricorrere anche ad altri tipi di strumenti: se facciamo fatica a definire un solo insieme di valori globali, possiamo perรฒ trovare dei principi condivisi con cui affrontare e sciogliere eventuali dilemmi o conflitti del vivere.
Per questa ragione รจ nata la Rome Call: nel termine โalgoreticaโ si condensano una serie di principi che si dimostrano essere una piattaforma globale e plurale in grado di trovare il supporto di culture, religioni, organizzazioni internazionali e grandi aziende protagoniste di questo sviluppo.
La politica di cui cโรจ bisogno
Non possiamo, quindi, nascondere il rischio concreto, poichรฉ insito nel suo meccanismo fondamentale, che lโintelligenza artificiale limiti la visione del mondo a realtร esprimibili in numeri e racchiuse in categorie preconfezionate, estromettendo lโapporto di altre forme di veritร e imponendo modelli antropologici, socio-economici e culturali uniformi. Il paradigma tecnologico incarnato dallโintelligenza artificiale rischia allora di fare spazio a un paradigma ben piรน pericoloso, che ho giร identificato con il nome di โparadigma tecnocraticoโ [15]. Non possiamo permettere a uno strumento cosรฌ potente e cosรฌ indispensabile come lโintelligenza artificiale di rinforzare un tale paradigma, ma anzi, dobbiamo fare dellโintelligenza artificiale un baluardo proprio contro la sua espansione.
Ed รจ proprio qui che รจ urgente lโazione politica, come ricorda lโEnciclica Fratelli tutti. Certamente ยซper molti la politica oggi รจ una brutta parola, e non si puรฒ ignorare che dietro questo fatto ci sono spesso gli errori, la corruzione, lโinefficienza di alcuni politici. A ciรฒ si aggiungono le strategie che mirano a indebolirla, a sostituirla con lโeconomia o a dominarla con qualche ideologia. E tuttavia, puรฒ funzionare il mondo senza politica? Puรฒ trovare una via efficace verso la fraternitร universale e la pace sociale senza una buona politica?ยป [16].
La nostra risposta a queste ultime domande รจ: no! La politica serve! Voglio ribadire in questa occasione che ยซdavanti a tante forme di politica meschine e tese allโinteresse immediato [โฆ] la grandezza politica si mostra quando, in momenti difficili, si opera sulla base di grandi principi e pensando al bene comune a lungo termine. Il potere politico fa molta fatica ad accogliere questo dovere in un progetto di Nazione e ancora di piรน in un progetto comune per lโumanitร presente e futuraยป [17].
Gentili Signore, illustri Signori!
Questa mia riflessione sugli effetti dellโintelligenza artificiale sul futuro dellโumanitร ci conduce cosรฌ alla considerazione dellโimportanza della โsana politicaโ per guardare con speranza e fiducia al nostro avvenire. Come ho giร detto altrove, ยซla societร mondiale ha gravi carenze strutturali che non si risolvono con rattoppi o soluzioni veloci meramente occasionali. Ci sono cose che devono essere cambiate con reimpostazioni di fondo e trasformazioni importanti. Solo una sana politica potrebbe averne la guida, coinvolgendo i piรน diversi settori e i piรน vari saperi. In tal modo, unโeconomia integrata in un progetto politico, sociale, culturale e popolare che tenda al bene comune puรฒ โaprire la strada a opportunitร differenti, che non implicano di fermare la creativitร umana e il suo sogno di progresso, ma piuttosto di incanalare tale energia in modo nuovoโ ( Laudato siโ, 191)ยป [18].
Questo รจ proprio il caso dellโintelligenza artificiale. Spetta ad ognuno farne buon uso e spetta alla politica creare le condizioni perchรฉ un tale buon uso sia possibile e fruttuoso.
Grazie.
[1] Messaggio per la LVII Giornata Mondiale della Pace del 1ยฐ gennaio 2024, 1.
[4] Questa ambivalenza fu giร scorta da Papa San Paolo VI nel suo Discorso al personale del โCentro Automazione Analisi Linguisticaโ dellโAloysianum, del 19 giugno 1964.
[5] Cfr A. Gehlen, Lโuomo. La sua natura e il suo posto nel mondo, Milano 1983, 43.
[6] Lett. enc Laudato siโ (24 maggio 2015), 102-114.
[7] Cfr Messaggio per la LVII Giornata Mondiale della Pace del 1ยฐ gennaio 2024, 3.
[8] Le intuizioni di Marshall McLuhan e di John M. Culkin sono particolarmente pertinenti alle conseguenze dellโuso dellโintelligenza artificiale.
[9] Cfr Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.
[10] Cfr Messaggio per la LVII Giornata Mondiale della Pace del 1ยฐ gennaio 2024, 4.
[12] Cfr Dicastero per la Dottrina della Fede, Dichiarazione Dignitas infinita circa la dignitร umana (2 aprile 2024).
[13] Cfr Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.
[14] Cfr Discorso ai partecipanti al Convegno โPromoting Digital Child Dignity โ From Concet to Actionโ, 14 novembre 2019; Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.
[15] Per una piรน ampia esposizione, rimando alla mia Lettera Enciclica Laudato siโ sulla cura della casa comune del 24 maggio 2015.
[16] Lettera enc. Fratelli tutti sulla fraternitร e lโamicizia sociale (3 ottobre 2020), 176.
Fonte – Copyright ยฉ Dicastero per la Comunicazione – Libreria Editrice Vaticana



