L’ETICA DELL’INTELLIGENZA ARTIFICIALE: UN DIBATTITO APERTO

By in
1065
1498141669 iaetica

Il trend di utilizzo di soluzioni di intelligenza artificiale nel 2020 è stato caratterizzato da un’accelerazione a causa della pandemia Covid-19 e la conseguente espansione dell’uso di tecnologie informatiche in molteplici ambiti. Certamente il bilancio dell’anno passato mostra una crescita del peso dell’AI nelle nostre vite e siamo certi che nei prossimi mesi questa tendenza si confermerà.  

Contestualmente si vede aumentare il dibattito sui risvolti etici di questa tecnologia e sulla necessità di applicare strumenti che ne contrastino l’abuso.

Il tema sta prendendo piede anche nei tavoli di discussione sull’intelligenza artificiale. Tutto il settore ha iniziato a considerare in maniera diversa questi argomenti, a partire da alcune conferenze che hanno attivato nuove procedure di revisione degli studi da presentare. Ecco perché l’attenzione etica agli sviluppi dell’intelligenza artificiale cresce, per fortuna, sempre di più. Fondamentali diventano quindi temi e concetti come quello di affidabilità, legalità e responsabilità, ai quali la normativa deve porre la propria attenzione se vuole che l’esponenziale sviluppo tecnologico possa essere in futuro correttamente regolamentato e controllato.

Nonostante siano in molti a stigmatizzare una eccessiva intrusione dell’ideologia nell’ingegneria, dal momento che la scienza degli algoritmi etici è solo agli inizi, è certamente un fatto positivo che siano sempre di più a ritenere indispensabile che la “data science” abbia solide basi etiche.

Athlos, come azienda esperta in soluzioni di intelligenza artificiale è coinvolta in tali discussioni e grazie alla recente partecipazione al Workshop di Kick-Off dell’Osservatorio Artificial Intelligence 2021 ha avuto modo di riflettere in modo approfondito sulle implicazioni etiche di una tecnologia così impattante a livello economico e sociale.

L’Osservatorio Artificial Intelligence nasce nel 2017 per rispondere al crescente interesse di aziende pubbliche e private verso le potenzialità offerte dalle nuove tecnologie abilitanti all’Artificial Intelligence. L’obiettivo è quello di creare una Community di confronto per indagare le reali opportunità dell’AI, in un contesto caratterizzato da poca chiarezza sullo stato dell’arte delle applicazioni e delle adozioni da parte delle imprese, sui benefici abilitati e sull’evoluzione attesa del mercato, combinando la prospettiva manageriale con quella tecnologica.

Durante l’evento, avvenuto in modalità streaming è stato presentato il Report intitolato: “Il mercato 2020 dell’artificial intelligence in Italia: applicazioni e trend di sviluppo. Ricerca 2020 – 2021”.

Il report analizza alcuni aspetti salienti che riguardano lo scenario e la direzione che il settore dell’intelligenza artificiale sta prendendo in Italia. Tra gli aspetti che hanno attirato la nostra attenzione ci sono proprio le prossime novità normative riguardanti le implicazioni etiche derivanti dall’impatto della tecnologia di intelligenza artificiale sulla nostra vita.

Ma vediamo cosa ci aspetta. Il Parlamento Ue a ottobre 2020 ha proposto alcune soluzioni per regolamentare gli aspetti etici dei sistemi di AI. Nonostante non siano atti vincolanti, costituiscono però una importante presa di posizione e una richiesta alla Commissione di elaborare normative specifiche dirette a disciplinare l’ambito anche in tema di responsabilità civile per danni e pregiudizi.

Nel dettaglio, si tratta di tre risoluzioni concernenti gli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate, il tema della responsabilità civile e quello dei diritti di proprietà correlati alle tecnologie AI. Ha inoltre istituito una commissione speciale parlamentare ad hoc (AIDA) per analizzare l’impatto dell’AI sull’economia dell’Unione europea.

Le tre proposte precisano come l’UE possa regolamentare l’AI più efficacemente per dare una spinta positiva all’innovazione, agli standard etici e alla fiducia nella tecnologia.

La prima risoluzione (A9 – 0186/2020) affronta il tema dei presìdi etici che le applicazioni di Intelligenza artificiale dovranno garantire per assicurare sicurezza, trasparenza e presa di responsabilità, e evitare la creazione di pregiudizi e di discriminazioni, stimolare la responsabilità sociale e ambientale e come assicurare il rispetto dei diritti fondamentali.

La seconda risoluzione (A9-0178/2020) riguarda il tema sensibile del regime della responsabilità civile per danni e pregiudizi arrecati da sistemi di AI.

La terza risoluzione (A9- 0176/2020) riguarda i diritti di proprietà intellettuale, nella quale il Parlamento ha ribadito l’importanza di avere un sistema efficace per un ulteriore sviluppo dell’intelligenza artificiale, tra cui il rilascio di licenze e nuovi processi creativi. Tra i problemi da risolvere c’è quello di stabilire a chi appartenga la proprietà intellettuale di qualcosa sviluppato completamente dall’AI.

È la prima risoluzione quella che a nostro avviso pare al momento una delle più interessanti. Infatti le implicazioni sociali e morali che scaturiscono dall’applicazione, dalla diffusione e dallo sviluppo di soluzioni di intelligenza artificiale attraverso la robotica e le tecnologie correlate rimangono al centro delle discussioni su quali siano i reali benefici e quali possano essere al contrario i limiti etici da non superare.

A fronte dei benefici dati dall’applicazione sempre più su larga scala dell’AI dobbiamo fare i conti con rischi di carattere etico, sociale e politico, che possono mettere in grave pericolo la nostra libertà individuale, morale e intellettuale causando rischi come la sorveglianza e il controllo sociale di massa, l’indebolimento della responsabilità umana a favore della totale fiducia nei confronti dell’AI. La profilazione massiva può degenerare in un indirizzamento delle scelte politiche e commerciali di individui e gruppi sociodemografici e infine ma non ultimo può incentivare un pericoloso aumento delle discriminazioni sociali e personali.

Ecco quindi che ci troviamo d’accordo sulla scelta del Parlamento Ue di stabilire una regolamentazione che disciplini realmente le regole e le norme che sono alla base della progettazione e la messa in opera dei sistemi di AI. In modo particolare condividiamo i principi sui quali si dovrebbe basare il “regolamento sui principi etici per lo sviluppo, la diffusione e l’utilizzo dell’intelligenza artificiale, della robotica e delle tecnologie correlate”, ovvero:

  • intelligenza artificiale, robotica e tecnologie correlate antropocentriche, realizzate e controllate dall’uomo;
  • valutazione obbligatoria della conformità dell’intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio;
  • sicurezza, trasparenza e responsabilità;
  • garanzie e mezzi di ricorso contro le distorsioni e le discriminazioni;
  • diritto di ricorso;
  • responsabilità sociale e la parità di genere nell’ambito dell’intelligenza artificiale, della robotica e delle tecnologie correlate;
  • intelligenza artificiale, robotica e tecnologie correlate sostenibili sul piano ambientale;
  • rispetto della vita privata e restrizioni all’utilizzo del riconoscimento biometrico;
  • buona governance in materia di intelligenza artificiale, robotica e tecnologie correlate, inclusi i dati utilizzati o prodotti da tali tecnologie.

Concludiamo affermando la piena convinzione della priorità del diritto di tutte le persone all’educazione all’AI, anche con riferimento ai rischi e alle potenzialità ad essa connessi e al contempo riteniamo necessario aumentare la trasparenza relativa agli effetti che la tecnologia ha sui cittadini, che si deve tradurre in diritto all’informazione e spiegabilità delle scelte algoritmiche. Solo se terremo conto dei rischi e attiveremo una regolamentazione normativa adeguata potremo realizzare soluzioni tecnologiche responsabili e solide eticamente in linea con la direzione inaugurata dal Parlamento europeo e a garanzia del reale benessere sociale e ambientale delle persone.