Dall’8 aprile 2019 l’Europa possiede un documento di linee guida etiche riguardanti l’intelligenza artificiale.
Un robot non può recare danno all’umanità, né può permettere che, a causa del suo mancato intervento, l’umanità riceva danno
Legge Zero, da “I robot e l’Impero” di Isaac Asimov
Il documento: Ethics Guidelines for Trustworthy AI
Il documento è stato creato da un gruppo indipendente voluto dalla Comunità Europea denominato “High-Level Expert Group on Artificial Intelligence” (HLEG), composto da 52 esperti di intelligenze artificiali sotto vari aspetti, da quelli tecnologici a quelli filosofici. Trovate l’elenco completo sul sito della Comunità Europea.
Lo scopo del documento è porre delle linee guida etiche per la costruzione e l’utilizzo delle intelligenze artificiali in Europa. Tutte le quaranta pagine ruotano attorno al concetto di Trustworthy AI, che potremmo tradurre come “intelligenze artificiali affidabili”. Il documento è volutamente vago per tre ragioni: sono linee guida (non leggi), la vastità della materia in gioco (presente e futura) e l’impossibilità di normare l’etica.
La prima bozza è stata resa pubblica il 18 dicembre 2018 e una nuova revisione è prevista per il 2020, in particolare per la scheda di valutazione proposta nel terzo capitolo.
Un aspetto fondamentale per poter comprendere il contenuto del testo è la definizione di “intelligenza artificiale”: vista la centralità della questione è stato creato dall’HLEG un altro documento denominato “A Definition of AI: Main Capabilities and Disciplines“.
I sistemi di intelligenza artificiale sono software (o anche hardware) progettati da esseri umani che, dato un compito complesso, lavorano nel mondo fisico o digitale e percepiscono il loro ambiente attraverso l’acquisizione di dati, interpretano i dati raccolti (strutturati o no), e elaborando le conoscenze, o processando le informazioni, deducono le migliori azioni da eseguire per perseguire il proprio compito. I sistemi di IA possono usare sia regole simboliche che istruire un modello numerico e possono inoltre adattare il proprio comportamento analizzando i cambiamenti nel loro ambiente dovuti alle precedenti azioni.
Definizione di Intelligenza Artificiale secondo HLEG
Le linee guida etiche per l’intelligenza artificiale della Comunità Europea hanno rilevanza soprattutto quando si riesce ad inquadrare in quali applicazioni l’Europa le immagina, nel bene e nel male; esse sono soprattutto pensate per il futuro in cui questi sistemi potranno migliorare le condizioni del traffico, ridurre inquinamento e la mortalità, assistere i medici nelle diagnosi, aiutare i governi nelle scelte strategiche fino a personalizzare i percorsi di studio dei futuri cittadini.
Le questioni etiche emergono in particolar modo quando le IA dovranno interagire direttamente con gli esseri umani: si pensi ad esempio il riconoscimento facciale per motivi di sicurezza, i robot umanoidi (androidi) o i sistemi di supporto alle decisioni dei giudici penali. Infine vanno citate anche le LAWS (Lethal Autonomous Weapon System), ossia le “armi intelligenti” per le quali già esiste una risoluzione del 12 settembre 2018 del Parlamento Europeo. Certamente tutti i casi in cui gli esseri umani vengono valutati e classificati hanno importanti risvolti etici.
Intelligenze artificiali affidabili (Trustworthy AI)
Le linee guida si concentrano su quelle che vengono denominate Trustworthy AI (intelligenze artificiali affidabili) e vengono definiti criteri, punti e caratteristiche che i sistemi dovrebbero avere e che per semplicità verranno raggruppate qui nelle tre macrocategorie iniziali: lawful, ethical e robust. Questi aspetti non riguardano unicamente l’IA, ma comprendono tutto il loro ciclo di vita, dalla raccolta dati, allo sviluppo fino alla dismissione.
Il principio fondante delle Trustworthy AI è che debbano essere antropocentriche (human-centeric), ossia che il loro impiego debba massimizzare i benefici per il genere umano e minimizzarne i rischi; il concetto sembra astratto, ma essendo l’IA una tecnologia, come gli aerei o i reattori nucleari, se viene impiegata eticamente e rispettando regole condivise contribuisce al progresso del genere umano, altrimenti lo potrebbe distruggere.
Rispetto per le leggi (Lawful)
Questo è il punto più vago e meno dettagliato, in quanto evidenzia il fatto che l’IA deve assolutamente rispettare tutte le leggi vigenti internazionali, europee e nazionali, i diritti fondamentali dell’uomo fino al GDPR, perché si sta discutendo dell’Europa.
Il documento non contiene volutamente consigli o impone regole e non ha valore legale, in quanto sono solo linee guida; perciò le Trustworthy AI per ora esistono solo come concetto etico e non normativo.
Eticamente accettabili (Ethical)
Il rispetto delle leggi non è sufficiente in quanto la tecnologia evolve più rapidamente della legislatura e servono quindi pilastri etici che possano essere validi in contesti sempre nuovi. Essi emergono direttamente dai diritti fondamentali dell’uomo e dalla carta dell’Unione Europea e riguardano la salvaguardia degli individui e del genere umano.
Essendo questo il cardine di tutte le linee guida, proverò a riassumere i vari punti, inserendo anche alcuni degli esempi (non presenti nel documento).
- Rispetto per la dignità umana. ES: con i minori alcuni argomenti vanno evitati.
- Libertà degli individui. ES: mitigare la sorveglianza ingiustificata e le manipolazioni ingiuste.
- Rispetto per la democrazia, la giustizia e il ruolo della legge. ES: non può in alcun modo minare il voto democratico, né durante il voto né in contesti elettorali.
- Uguaglianza, non-discriminazione e solidarietà. Non possono venire generati risultati affetti da preconcetti (bias) e l’addestramento va fatto su dati non discriminatori. ES: valutare i colpevoli in sede di processo penale in modo equo, evitando discriminazioni razziali o di genere (come nel caso COMPASS).
- Diritti dei cittadini. Un punto un po’ vago nel quale si enuncia che i cittadini devono poter accedere ai benefici delle leggi. ES: se un motore di ricerca per documenti pubblici nasconde dei risultati a certe categorie di persone che ne potrebbero beneficiare, sussiste un problema etico.
- Rispetto dell’autonomia umana. In particolare nella sfera lavorativa in cui l’IA deve essere un aiuto e non un mezzo di sfruttamento umano.
- Prevenzione dei danni. Bisogna evitare che l’IA favorisca ulteriormente chi detiene il potere in situazioni asimmetriche, come il rapporto tra datore di lavoro e lavoratore o di governo e cittadini.
- Equità. Dovrebbe sempre essere mantenuto il principio di proporzionalità tra fine e mezzo. ES: tracciare gli spostamenti di ogni persona per prevenire un eventuale crimine sarebbe un abuso sul diritto alla privacy.
- Possibilità di controllo. I sistemi dovrebbero essere ispezionabili e dovrebbe esserci la possibilità analizzarne il funzionamento. Questo punto viene ulteriormente dettagliato nel principio di robustezza.
- Trasparenza. Ogni volta che una IA simula un essere umano (chatbot, voce sintetica o androidi), si deve sempre palesare all’utente con cui si interfaccia.
I metodi per risolvere i conflitti tra i vari punti non è ancora definito (credo non lo sarà mai). Il consiglio è quello di documentare le fasi decisionali e i ragionamenti che hanno portato a certi compromessi. Su un punto non ci sono dubbi: non si possono ottenere maggiori benefici dall’IA compromettendo apertamente i principi etici.
Robustezza (Robust)
Il principio di robustezza riguarda l’aspetto più pratico della realizzazione dei sistemi IA. Essendo essi di natura software e hardware la maggior parte dei punti trattati nel documento sono accorgimenti validi per ogni sistema di quel genere, anche senza IA. Ovviamente i livelli di attenzione sulla robustezza vanno adeguati al contesto in cui il sistema si inserisce.
I sette requisiti individuati dalle linee guida andrebbero applicati in ogni fase del ciclo di vita e valutati da tutte le figure interessate al progetto. I requisiti vertono principalmente sull’analisi attenda delle vulnerabilità dei sistemi (anche impiegando dei “red team“, specialisti che cercano falle), che esistano piani collaudati di emergenza e di rientro in caso di guasti e che il sistema sia monitorabile.
Un punto interessante riguarda la possibilità di riprodurre i comportamenti anomali in caso di contestazione: molti modelli predittivi sono di tipo “on-line” e variano autonomamente nel tempo, perciò questo principio può venire rispettato solo in parte in questi casi.
Uno degli aspetti più legato all’IA e non immediato riguarda la privacy. Ovviamente vanno rispettate tutte le norme previste dal GDPR e utilizzati meno dati sensibili possibili per ottenere i risultati, oltre ad avere la documentazione dei processi che ruotano attorno ai dati. Emergono però due aspetti interessanti. Il primo riguarda la documentazione di IA di terze parti: esistono modelli pre-adestrati che si possono utilizzare, ma sono tutti conformi alle normative europee? Il secondo aspetto è ancora più sottile. Poniamo che una IA sia in grado di scoprire da sola che un utente è omosessuale e internamente utilizzi questa informazione per prendere delle decisioni. Questo dato non solo non deve mai arrivare ai tecnici che analizzano il sistema, ma non dovrebbe neppure essere usato dall’IA per eseguire il suo compito! Sembra fantascienza, ma ci sono già alcuni casi interessanti documentati.
Ci sono poi dei punti a mio avviso raramente applicabili che riguardano l’accessibilità per i disabili, la valutazione dell’impatto ambientale e l’impatto sulla salute mentale degli utenti. Sono certamente importanti, ma credo avranno senso solo per applicazioni di natura pubblica
Scheda di valutazione
Le linee guida etiche per l’intelligenza artificiale affidabile sono divise in tre capitoli, dal più teorico al più pratico. Quest’ultimo presenta una lunga lista detta “Assessment List” che dovrebbe aiutare a prendere coscienza del livello di affidabilità del sistema che si sta gestendo.
La lista è lunga e spesso ripetitiva, impostata a domande in inglese. Io ne ho preparata una sintesi in italiano che risulta molto comoda anche se non si incorpora l’IA nel proprio sistema, perché aiuta comunque a documentare il grado di affidabilità del progetto.
La lista ufficiale verrà revisionata nel 2020 a fronte dei riscontri sui progetti pilota.
Conclusioni
Personalmente credo che sia importante che l’Europa rimanga vigile sui mutamenti che la tecnologia porta nella società e la realizzazione delle linee guida è un buon inizio, in quanto non vincolano nessuno e danno un’idea delle possibili norme che potrebbero venire applicate in futuro.
Il documento “Ethics Guidelines For Trustworthy AI” è un buon inizio e contiene alcuni spunti interessanti non banali, anche se le quaranta pagine che lo compongono sono spesso ripetitive e fin troppo vaghe. Il tema è a dir poco complesso e potrebbe rischiare di sfuggire di mano, in norme troppo restrittive o in prodotti troppo invasivi. Resta da capire cosa succederà nel mercato globale perché c’è una buona probabilità che si finisca in un caos simile a quello degli OGM (o del GDPR), in cui ogni nazione ha restrizioni diverse, ma alla fine tutti importano prodotti di quel genere dagli USA.
Link e documenti
In questa sezione sono raccolti i link e i documenti usati per scrivere l’articolo