L’intelligenza artificiale è ormai onnipresente: dal robot aspirapolvere all’assistente virtuale, fino all’auto che guida da sola e ai sistemi che comprano e vendono azioni in borsa. E continuerà a crescere e diffondersi nei prossimi anni, fino ad emulare alcuni degli scenari visti al cinema. Proprio dal cinema però, anche se in modo spesso iperbolico, ci vengono mostrati i possibili pericoli di questa tecnologia. Al netto di Matrix, lo spettacolo più frequentemente ritratto è quello della multinazionale di turno che cerca di dominare il mondo diffondendo i suoi dispositivi “intelligenti”.
Infatti, come tutte le tecnologie, anche l’AI per sua natura è neutra, cioè non è né cattiva né buona, dipende dallo scopo che le assegna il suo creatore/padrone. Un esempio? Nelle ultime settimane abbiamo avuto notizie di come Google stia usando l’AI per permettere agli ipovedenti di correre, oppure, in precedenza, del suo uso per diagnosticare il Covid attraverso una telefonata. Sul fronte opposto, invece, abbiamo sempre più conferme dell’uso che ne fa la Cina fa per controllare i dissidenti dentro e fuori i propri confini, cercando di realizzare un panopticon tecnologico.
Excursus europeo
Emerge, quindi, una forte questione di etica, per chi produce e gestisce intelligenze artificiali. Da alcuni anni varie organizzazioni governative e non, hanno cercato di redigere un codice etico che l’intelligenza artificiale dovrebbe rispettare.
L’Unione Europea nella primavera del 2019, a seguito di uno studio che fatto per cercare conciliare le esigenze di sviluppo con quelle etiche, ha prodotto un documento di indirizzo contenente i 7 requisiti fondamentali per un'AI affidabile:
- Azione e sorveglianza umane: i sistemi di AI dovrebbero promuovere lo sviluppo di società eque sostenendo l'azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l'autonomia dell'uomo.
- Robustezza e sicurezza: per un'AI di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di AI.
- Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
- Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di AI.
- Diversità, non discriminazione ed equità: i sistemi di AI dovrebbero tenere in considerazione l'intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
- Benessere sociale e ambientale: i sistemi di AI dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
- Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l'accountability dei sistemi di AI e dei loro risultati.
A seguito di questo però non sono ancora stati prodotti specifici regolamenti o direttive o certificazioni, ai quali si è vincolati o liberi di aderire.
Molte aziende stanno quindi cercando di definire un codice etico, se non altro per vincere le diffidenze del cliente, ma senza un’adesione ad un codice certificato da entità terze estranee all’azienda. Con una certa dose di autoreferenzialità.
Un caso di coscienza
In questo contesto, a fine febbraio, la Pontificia Accademia per la Vita ha promosso l’iniziativa “Call for Ethics”, che si propone, come evidenzia il suo presidente Mons. Vincenzo Paglia, “di dar vita a un movimento che si allarghi e coinvolga altri soggetti istituzioni pubbliche, Ong, industrie e gruppi per produrre un indirizzo nello sviluppo e nell’utilizzo delle tecnologie derivate dall’AI.”
Il documento esplicita 6 principi analoghi a quelli del documento UE:
- Trasparenza: i sistemi di AI devono essere spiegabili;
- Inclusione: le esigenze di tutti gli esseri umani devono essere prese in considerazione affinché tutti possano beneficiare dell’AI e a tutti possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi, favorendo la partecipazione sociale e includendo i più deboli;
- Responsabilità: chi progetta e realizza l’AI deve procedere con responsabilità e trasparenza, tenendo sempre presente il bene comune e utilizzando un approccio sostenibile;
- Imparzialità: non progettare o agire secondo pregiudizi o discriminazioni, salvaguardando così l'equità e la dignità umana;
- Affidabilità: i sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile;
- Sicurezza e privacy: i sistemi di AI devono operare in modo sicuro e rispettare la privacy degli utenti.
I primi firmatari sono stati la Pontificia Accademia per la Vita, IBM, Microsoft, FAO e governo italiano nella figura del Ministro per l’Innovazione Tecnologica e la Digitalizzazione. Il 30 ottobre scorso ha aderito anche l’università Sapienza di Roma, con la speranza che anch altre realtà possano aggiungersi in futuro.
Questo documento non entra nel dettaglio dei vari aspetti tecnologici ma, come monsignor Paglia ha precisato, si tratta di “un appello a riconoscere e poi ad assumere la responsabilità che proviene dal moltiplicarsi delle opzioni rese possibili dalle nuove tecnologie digitali”. Un’assunzione di responsabilità presa nei confronti di un ente terzo che funge da garante degli impegni presi.
Il recente caso Gebru, che ha costretto il CEO di Google a giustificarsi pubblicamente, dimostra quanto, una pressione proveniente da persone e/o più realtà esterne, possa costringere a dare maggior peso alla questione etica nello sviluppo ed uso dell’intelligenza artificiale.
Il fatto che la “Call” sia stata promossa da un ente morale e religioso, che ha come obiettivo lo studio della difesa e della promozione della vita umana, può essere quindi una spinta alla coscienza della società, a prendere atto della necessità di affrontare le implicazioni etiche che il progresso tecnologico legato allo sviluppo dell’AI comporta. Più iniziative come questa nasceranno e prenderanno piede, maggiore sarà la possibilità che si creino forti pressioni perché lo sviluppo dell’intelligenza artificiale non prescinda dalla questione etica. Ciò permetterebbe di guardare al futuro con più serenità, quanto meno nei paesi dove questo sarà possibile.