Ricerca

    INTELLIGENZA ARTIFICIALE E ARMI LETALI AUTONOME: QUALE ETICA?

    INTELLIGENZA ARTIFICIALE E ARMI LETALI AUTONOME: QUALE ETICA? – DI GIUSEPPE RUSCONI – www.rossoporpora.org – 26 novembre 2024

    Ancora echi dal convegno promosso il 7 novembre alla Gregoriana dalle due ambasciate di Svizzera presso la Santa Sede e presso il Quirinale. Oltre all’intervento del cardinale Parolin (di cui abbiamo già riferito) spunti molto interessanti e attuali dalle relazioni ascoltate durante l’intera giornata. Martedì 10 dicembre (ore 20.30) serata sull'IA (paletti etici) con l'arcivescovo Vincenzo Paglia al Cinema delle Provincie nell'ambito del ciclo di incontri promossi dal Gruppo Cultura della parrocchia di sant'Ippolito a piazza Bologna

    Giovedì 7 novembre la Gregoriana ha ospitato un convegno su un tema di innegabile attualità: l’impatto dell’utilizzo dell’Intelligenza Artificiale (AI) sul diritto internazionale umanitario, a 75 anni dalla firma delle Convenzioni di Ginevra (agosto 1949). Già si è riferito su queste pagine del saluto introduttivo del cardinale Pietro Parolin, Segretario di Stato vaticano (vedi https://www.rossoporpora.org/rubriche/vaticano/1210-parolin-trump-intelligenza-artificiale-convegno-carlo-d-asburgo.html ). Oggi proponiamo a chi ci legge altri spunti di riflessione offerti dai numerosi relatori durante l’intensa giornata, promossa dalle due ambasciate di Svizzera presso la Santa Sede e il Quirinale.

    Incominciamo proprio dal benvenuto delle due anfitrione, Manuela Leimgruber e Monika Schmutz Kirgöz. La prima, che rappresenta la Confederazione in Vaticano, ha evidenziato come la collaborazione tra Svizzera e Santa Sede in materia umanitaria dati da lungo tempo, già a partire dalla nascita della Croce Rossa (1864), includendo tra l’altro anche gli anni della Prima Guerra mondiale quando non esistevano relazioni bilaterali ufficiali (interrotte nel 1873 nell’era del Kulturkampf, riprese nel 1920). Il settantacinquesimo anniversario delle Convenzioni di Ginevra, ha rilevato Leimgruber, deve essere “occasione per avviare un dialogo interdisciplinare per esaminare l’uso dell’IA in ambito militare, le implicazioni giuridiche di tale impiego, le opportunità che l’IA può offrire per la protezione della popolazione”.

    Monika Schmutz Kirgöz, ricordato come la Svizzera abbia integrato nel suo dna gli ideali della Croce Rossa e sia depositaria delle Convenzioni di Ginevra, si è chiesta se veramente sia il caso oggi di festeggiare il settantacinquesimo di queste ultime. “La risposta è NO!”. Infatti “oggi il diritto internazionale umanitario, le Convezioni di Ginevra, sono calpestate ed ignorate. Spesso poco rispetto viene prestato ai civili, la protezione che le Convenzioni garantiscono a feriti e prigionieri è sovente ignorata. Il mondo è testimone di gravissime violazioni. Sediamo al Consiglio di Sicurezza delle Nazioni Unite (NdR: la Svizzera è stata eletta membro non permanente per il biennio 2023-24 e ha presieduto due volte il Consiglio, l’ultima nello scorso ottobre) dove abbiamo ottenuto l’adozione di una risoluzione sulla protezione del personale umanitario e delle Nazioni Unite nelle zone di conflitto. Decisione certo importante ma operatori umanitari e personale delle Nazioni Uniti continuano a essere vittime di violenze”. Nel mondo si mettono sempre più in discussione quelli che noi conosciamo come ‘valori universali’. A ciò, “si aggiunge la sfida posta dal progresso tecnologico, dallo sviluppo dell’uso dell’IA. È questa sfida che raccogliamo qui oggi. Le nuove tecnologie devono essere usate in modo responsabile anche nelle situazioni di conflitto”. Anche nella recente conferenza di Seul, “la Svizzera ha insistito affinché il diritto internazionale umanitario fosse sempre integrato nella ricerca di soluzioni volte a fronteggiare la sfida dell’IA”.

    Un’ampia, molto variegata relazione introduttiva è stata svolta dal professor Joachim von Braun, presidente della Pontificia Accademia delle Scienze. Von Braun ha evidenziato subito che lo sviluppo dell’IA coinvolge tutti, compresi naturalmente “i matematici e i creatori di algoritmi che non possono più estraniarsi dal dibattito etico”. L’IA può essere utilizzata bene (ad esempio gli esoscheletri aiutano a camminare) o male. E qui non si può sottacere l’allarme che desta il dilagare dell’IA nell’ambito militare, in particolare a riguardo delle cosiddette armi letali autonome: “Si mira a colpire gli obiettivi senza che ci sia più un intervento umano nel processo di decisione. Invece sono armi che dovrebbero funzionare solo con il controllo umano, in base ai principi di distinzione (tra civili e combattenti), di proporzionalità, di necessità”. Anche il presidente della Pontificia Accademia delle Scienze ritiene che oggi si susseguano - con gravi conseguenze per la popolazione civile - “continue violazioni del diritto umanitario”, il quale dovrebbe essere integrato alla luce degli sviluppi tecnologici registrati in questi anni. La riduzione del rischio si dovrebbe ottenere con un’insistita azione multilaterale, fondata su un ruolo più incisivo dell’ONU.

    Prima tavola rotonda. Per Giacomo Persi Paoli (Istituto ONU per il disarmo/UNIDIR), il rispetto del diritto umanitario dipende dagli Stati e dai loro eserciti. Se, al di là delle dichiarazioni, una volontà reale di rispetto non c’è, il problema non è tanto dell’IA quanto degli umani. In effetti si constata una “continua rigenerazione” dell’IA in ambito bellico… per sostenere le guerre, “che vengono ormai vinte o perse ben dietro la prima linea”.

    Di “guerra in Ucraina e in Medio Oriente come laboratori per testare l’efficacia dell’una o l’altra novità tecnologica” ha parlato Jean-Marc Rickli (Centro per la politica di sicurezza di Ginevra), fornendo esempi per ambedue i casi ed evidenziando l’utilizzo accresciuto di droni che sempre più si configurano come armi autonome, difficilmente controllabili dagli esseri umani. Rickli si è chiesto se esista veramente la possibilità di porre dei limiti all’utilizzo non etico dell’IA e si è detto pessimista al riguardo: l’utilizzo dell’IA offre tanti vantaggi strategici ed è difficile che uno Stato si autolimiti a tal proposito.  

    Il filosofo Dominique Lambert ha posto sul tavolo il problema dell’individuare la condizione delle persone sul campo di battaglia.  L’IA è in grado di rilevare se un essere umano, ‘puntato’ come obiettivo, è un combattente o un non combattente? In un contesto molto complesso è fondamentale, per rispettare il diritto umanitario, adottare il principio di precauzione. Gli algoritmi non sono in grado di valutare nei contesti di complessità, in cui l’obiettivo umano non deve essere in ogni caso considerato come una pedina numerica. Perciò l’uomo non può rinunciare alla supervisione della macchina nel processo decisionale. Non si tratta di rifiutare l’IA, ma di svilupparla in modo che non metta in discussione il rispetto della dignità umana. Lambert ha insistito poi sulla necessità di introdurre corsi di etica e di filosofia a ogni livello dell’apprendimento scientifico (esperienza positiva all’università di Namur), così come nelle scuole militari.

    Seconda tavola rotonda. Barbara Scolart (Istituto di Sanremo sul diritto internazionale umanitario) ha approfondito il tema delle armi autonome letali, quello che più preoccupa dal punto di vista etico. Da oltre un decennio si discute a livello internazionale della loro regolamentazione. Ma senza un gran profitto, considerato che già sulla definizione di tale tipo di armi manchi l’accordo. La domanda centrale è sempre quella: tali armi sono in grado di rispettare la distinzione tra combattenti e non combattenti? Se una persona porta un fucile è un soldato o magari solo un cacciatore? Se una persona è sul campo di battaglia è un combattente o magari un soccorritore civile? Anche Scolart non è molto ottimista sulla possibilità che si fermi lo sviluppo incontrollato di tali armi. Gli Stati in materia denotano un comportamento schizofrenico. L’unica soluzione sarebbe il bando totale delle armi letali automatiche. Perché l’IA è imprevedibile, “anche per chi l’ha creata”.

    Per il Comitato Internazionale della Croce Rossa (CICR) Julie Tenenbaum ha ribadito che il CICR non è contrario allo sviluppo della tecnologia militare, ma vuole essere ben informato sui rischi originati dall’uso dell’IA nei conflitti armati. L’IA sa individuare il combattente che si arrende o è ferito, protetti ambedue dalle Convenzioni di Ginevra?

    Sebastiano La Piscopia (attaché presso la Corte italiana di Cassazione) è un veterano delle missioni italiane in Kosovo e Libano: ha approfondito il tema della responsabilità personale dei comandanti sui campi di battaglia per l’utilizzo delle armi. Cruciale il momento della decisione, che, se favorevole all’impiego di un certo tipo di armi, può comportare la consapevolezza dell’alto rischio di quelle conseguenze tristemente note con la formula ‘danni collaterali’. In ogni caso, per La Piscopia, “non possiamo dare un assegno in bianco ai comandanti”.  

    In un intervento molto articolato in apertura di pomeriggio su “L’IA e la persona umana” – in cui ha ripercorso le tappe del progresso tecnologico negli ultimi decenni - padre Paolo Benanti (consigliere di papa Francesco su intelligenza artificiale e etica connessa, oltre che presidente della ‘Commissione algoritmi’ a Palazzo Chigi) si è chiesto se “questo tipo di strumento può mettere in pericolo la democrazia”, che rischia oggi di diventare una democrazia da smartphone. L’IA ci lancia una grande sfida: “il modo con cui si evolverà ci dirà lo stato di salute della nostra democrazia”.

    Terza tavola rotonda. Federica Du Pasquier (diplomatica, avvocata, analista) ha tentato di prefigurare un futuro positivo dato dallo sviluppo dell’IA e della tecnologia in genere, soprattutto nell’ambito sanitario, della comunicazione, della meteorologia, dell’analisi dei dati. Nicola Venturi (che collabora con il Dipartimento federale militare elvetico) si occupa di fornire supporto tecnologico al processo decisionale. Grazie a opportune simulazioni si è in grado di prevedere che cosa potrebbe succedere alla popolazione in caso di conflitto armato: come reagirebbe ad esempio nel caso di mancanza di luce, acqua, riscaldamento in seguito a un attacco nemico. Philippe Stoll (CICR) si è chiesto invece come utilizzare l’IA in modo “da non compromettere il modo di operare della Croce Rossa”, caratterizzato da “imparzialità, neutralità, indipendenza”. Bisogna evitare che l’IA crei più danni che benefici applicando il principio di precauzione. Se ad esempio non si riesce a prevedere con precisione come funzionerà la macchina, meglio essere molto prudenti. Altre criticità: il potere tecnologico si concentra in poche mani… che però hanno obiettivi diversi dai nostri; poi c’è chi è interessato in primo luogo al guadagno.  

    A sintetizzare la giornata di riflessione (ben preparata da Aurora Luppi) l’ambasciatrice Manuela Leimgruber che ha evocato lo sviluppo dell’IA, “sfida importante per il diritto internazionale umanitario, in particolare per le armi letali autonome”, la questione della distinzione tra combattenti e non combattenti, la necessaria garanzia di una supervisione umana, l’interdisciplinarietà del discorso e chissà…. “che un giorno l’IA non venga candidata al Premio Nobel per la Pace!”

    P.S. Nell’ambito del ciclo di incontri 2024/25 del Gruppo Cultura della parrocchia romana di Sant’Ippolito (piazza Bologna) e dopo la prima serata con lo storico Franco Cardini, martedì 10 dicembre (ore 20.30) l’arcivescovo Vincenzo Paglia – presidente della Pontificia Accademia per la Vita – dopo una breve introduzione dialogherà con il pubblico sul documento ‘Call for AI Ethics’ ovvero sui paletti etici da porre all’utilizzo dell’Intelligenza Artificiale. Il documento, prodotto dalla stessa Accademia nel 2020, è stato sottoscritto fin qui dai responsabili delle maggiori religioni mondiali (anche dell’Estremo Oriente) e da numerosi manager delle grandi multinazionali informatiche. Appuntamento al Cinema delle Provincie, viale delle Provincie 40. Entrata libera.  

    Ricerca