L’intelligenza artificiale, le piattaforme tecnologiche, i social network mostrano due facce, da tempo. In occasione di Biennale Democrazia, si è provato leggerle nel corso di due appuntamenti: “Intelligenza artificiale e pensiero magico” al Teatro Gobetti e “La solitudine delle bolle. Polarizzazione e Informazione”, in scena alle Ogr. Il fil rouge che ha legato i due eventi è rappresentato dal racconto dei rischi connessi a un uso distorto e poco consapevole sia dei social sia dell’Intelligenza artificiale. Uno scenario che, però, fa intravedere spiragli di luce: il mondo digitale non è solo negativo, ma offre grandi potenzialità se usato con consapevolezza.
Errori umani nei confronti dell’intelligenza artificiale
L’intelligenza artificiale, termine coniato da un gruppo di scienziati nel 1966, si è evoluta nei decenni. La tecnologia ha portato miglioramenti in molti ambiti. Una cosa sola non è cambiata: il modo in cui se ne parla. Secondo Juan Carlos De Martin, docente di ingegneria informatica al Politecnico di Torino, la narrativa passa da un estremo all’altro. Il racconto dell’intelligenza artificiale oscilla tra una visione salvifica e una apocalittica, mentre sarebbe importante avere un approccio razionale e oggettivo.
Importante è dunque mettere in evidenza una serie di meccanismi mentali che impediscono questo approccio. “L’errore che si fa – spiega Daniela Tafani, docente di Etica e politica dell’intelligenza artificiale all’Università di Pisa – è di immaginare che le macchine con le quali parliamo, e che ci rispondono, capiscano veramente quello che abbiamo detto loro. In realtà non è così, ma questa errata comprensione dell’oggetto con il quale ci interfacciamo crea delle problematiche per niente irrilevanti”.
“Negli anni ’60 – prosegue Tafani – l’inventore del primo chatbot aveva scritto un programma in grado di simulare le conversazioni. Lo sviluppò in modo tale che potesse diventare uno psicoterapeuta virtuale. Lo fece provare ad amici e conoscenti, tra cui anche la sua segretaria. Nonostante la ragazza avesse visto come era stato creato il bot e quindi avesse piena conoscenza del fatto che non si trattasse di un essere umano, gli rivelava i suoi più intimi segreti”. Quanto accaduto alla segretaria dell’inventore del primo bot potrebbe potenzialmente accadere ad ognuno di noi. Questo perché le persone hanno la tendenza ad antropomorfizzare le macchine e approcciarsi a loro come se fossero loro simili. Cosa, ovviamente, irrealistica.
La realtà illusoria dei social network
Sul tema della realtà correlata alle nuove tecnologie e, in particolare, ai social network, è intervenuta anche Concita De Gregorio in occasione dell’incontro su polarizzazione e informazione, con Luca Bottura e Christopher Cepernich. Una chiacchierata dai tratti quasi informali: tra aneddoti e racconti, i punti nevralgici della discussione emergono un po’ alla volta. “Come si può definire il proprio migliore amico una persona che non si conosce realmente?”. De Gregorio riflette sul ruolo fondamentale che la fisicità e la prossimità hanno, a suo modo di vedere, nelle dinamiche che regolano le relazioni interpersonali.
Ma insomma, come si fa a piacere a qualcuno che non si conosce? In un contesto in cui la conoscenza personale viene sempre più spesso mediata da schermi e algoritmi, l’unico parametro di riferimento è costituito dalle metriche del consenso e dalle relative unità di misura. Stiamo parlando dei like, dei mi piace e dei commenti, delle condivisioni e delle views. Numeri e parole sovrabbondanti che generano “rumore” e vengono alimentati da canoni di apprezzamento e di gusto diventati, parte di un’estetica mainstream che è alla base di meccanismi “che derubano l’identità, l’individualità e la differenza, fino a svuotare ciò si è veramente. Essere simili, tendere a qualcosa che in qualche modo funziona ha come controparte la rinuncia ad essere chi si è realmente”. Lo esprime in maniera forse un po’ drastica Concita De Gregorio, ma colpisce come il tema della realtà ritorni ancora una volta in un discorso imperniato, invece, su ciò che reale non è (per quanto si sforzi di sembrarlo).
Dati in pericolo
La percezione distorta nei confronti della tecnologia artificiale può rappresentare un pericolo. “Non solo è fondamentale essere lucidi in questo senso quando ci interfacciamo, quotidianamente, con questi strumenti – spiega Tafani, presente all’evento “Intelligenza artificiale e pensiero Magico” – è importante anche essere consapevoli di come vengono trattati i nostri dati”. Per rendere ancora di più l’idea di come le informazioni sulle persone possono essere usate a svantaggio dei diretti interessati, la docente ha dato voce ad una storia avvenuta qualche anno fa negli Stati Uniti.
“Facebook, tramite dei traccianti sui siti delle prenotazioni mediche, aveva raccolto tutti i dati dei pazienti di una struttura ospedaliera. Poi li aveva venduti sotto forma di pacchetti di dati ad aziende poco etiche. Ad esempio, aveva venduto dei dati di pazienti oncologici gravi ad alcuni produttori di una bevanda, una specie di limonata, che aveva la presunzione di essere miracolosa e guarire le persone”. Così sul telefono di persone malate non mancava la pubblicità di questa assurda bevanda. Si tratta di un caso estremo, ma che chiarisce bene come funziona il mondo dei dati e come le aziende possano utilizzare informazioni importanti a svantaggio del pubblico online.
Le bolle: un lieto fine?
Una nota positiva emerge invece dall’intervento di Luca Bottura, che parlando delle filter bubbles della rete sottolinea l’impatto del divario generazionale sul senso di solitudine che si può percepire di fronte ai mezzi tradizionali o ai nuovi media, a seconda dell’età e della consuetudine al loro uso. Negli ambienti virtuali, si parla di bolle in riferimento a gruppi sociali imperniati su interessi comuni: a dispetto di quella che Bottura identifica ironicamente con l’invidia del bene, cioè l’invidia sociale nei confronti dell’altro che secondo il giornalista viene implicata dalle dinamiche algoritmiche e infrastrutturali delle reti, “essere in una bolla fa sentire le persone protette”, come dimostra l’importanza che hanno avuto proprio le bolle digitali nel portare all’attenzione dell’opinione pubblica il tema delle identità di genere.