La testata del Master in Giornalismo “Giorgio Bocca” di Torino

Intelligenza artificiale, rischi e opportunità di uno strumento che può “umanizzare” gli umani

condividi

Condividi su facebook
Condividi su whatsapp
Condividi su twitter
Condividi su email

L’Europa abbraccia l’innovazione e punta sull’etica nell’intelligenza artificiale. Lo scorso 21 aprile la Commissione Europea ha presentato la prima bozza del regolamento sull’IA. Si tratta del primo vero tentativo di arginare le problematiche legate alla gestione degli algoritmi, scongiurando gli effetti nefasti che potrebbe produrre e favorendo il suo potenziale per l’economia a livello europeo e mondiale. “Il dilemma sono le regole sbagliate, non le regole in sé. Occorrono nuovi paradigmi per approfondire questi aspetti giuridici”, dichiara Riccardo Borsari, professore di Diritto Penale, Robotica e Intelligenza Artificiale all’Università di Padova.

C’è un’altra faccia dell’intelligenza artificiale, una sorta di lato oscuro o, più semplicemente, di rovescio della medaglia. Anche gli algoritmi sono un’arma a doppio taglio. Per quanto si registrino notevoli passi avanti e progressi dal punto di vista tecnologico e per quanto l’IA si sia insediata in ogni ambito lavorativo, permangano problemi di carattere etico. La sua applicazione, infatti, non è priva di rischi e minacce per la società e per l’uomo.

“Questi strumenti sono in continua espansione, ma serve una regolamentazione etica, perché anche quando parliamo di intelligenza artificiale coinvolgiamo i diritti umani, l’uguaglianza, la concretizzazione e l’articolazione della democrazia”, continua Borsari.

Uno degli episodi più evidenti di un utilizzo distorto dell’IA è stato il caso di Google Foto. Nel 2015 la logica artificiale assegnò un tag errato alla fotografia di due persone afroamericane, codificandole come “gorilla” – spiega Marcello Pelillo, professore di Informatica all’Università di Venezia –. Ecco come gli algoritmi spesso pecchino di opacità e poca trasparenza”.

Anche l’algoritmo Compas è stato oggetto di polemiche: si tratta di un complesso insieme di righe di codice che consente di calcolare le probabilità di commettere un reato da parte di un individuo e, sulla base di ciò, giudicarlo colpevole o meno. “Oltre al problema della trasparenza, emerge anche quello della neutralità degli algoritmi”, continua Pelillo.

Tra gli aspetti negativi dell’intelligenza artificiale si evidenzia anche l’approccio errato da parte dei programmatori: considerare gli algoritmi come un sostituto delle attività umane. “L’uomo deve restare al suo posto, pur restando artificiale – afferma don Luca Peyron, fondatore e direttore del servizio per l’Apostolato Digitale –. Il compito dell’IA è aiutare l’essere umano a umanizzarsi e di diventare così antropomorfa da costringere l’uomo a meccanizzarsi. Dal punto di vista del mercato del lavoro, stiamo diventando macchine a tutti gli effetti”. La macchina deve rappresentare un supporto all’essere umano, non un suo sostituto. Dunque, l’IA deve essere “finalisticamente antropica, ovvero finalizzata a rendere l’uomo più sé stesso”, continua Peyron. Dal punto di vista etico, invece, è necessario tenere in considerazione i diritti umani che “devono essere sempre posti a monte dei processi, non a valle”, dichiara il fondatore dell’Apostolato Digitale.

“L’Europa continua a darsi delle regole, senza conoscere davvero il funzionamento degli algoritmi che gestiscono l’intelligenza artificiale”, conclude Marco Landi, presidente di EuropIA e di Questit ed ex Coo di Apple. C’è bisogno di norme, ma serve anche altro per rendere l’IA più inclusiva e sostenibile.