IA – L’Acronimo del mondo che verrà

 E’ capitato anche a voi di imbattervi, quasi ogni giorno, nel termine IA?

Cos’è l’intelligenza artificiale e come influisce e influenzerà la nostra vita? 

 

 

Non esiste una descrizione per il termine “intelligenza artificiale”, neanche gli studiosi dell’IA sono stati in grado di definirla. 

Di certo si può dire che è riduttivo associare al termine IA i robot di Guerre stellari e ritenere che questa nuova scienza trovi applicazione solo in un futuro remoto.

Le tecniche di IA influenzano già la nostra vita, sono programmi che hanno la capacità di imparare dalle risposte (input) che ricevono o, in altre parole, affinare i loro risultati in base a ciò che gli utenti chiedono/scelgono con maggior frequenza.

L’IA è sempre più presente sui computer di bordo dei mezzi di trasporto. Ne sono un esempio i sistemi anti collisione delle nostre auto o il più banale navigatore. 

Ma  non solo; i suggerimenti che riceviamo dai social (avete presente il potresti conoscere di facebook?) o le pubblicità che google eroga sulle pagine che visitiamo sono tutti esempi di quanto la IA sia già presente nelle nostre vite. Ricordate il mio precedente articolo  TikTok. Chi bUSsA? Trump e la democrazia in cui ipotizzavo la vera ragione dell’odio di Trump per il social cinese?…LEGGI

L’IA è un argomento così scottante  che anche l’Unione Europa se ne preoccupa. Ha già predisposto un libro bianco sull’argomento e sta discutendo la bozza del regolamento che disciplinerà la materia (per saperne di più VAI QUI ).

Proprio per questo Paola Pisano, ministra per l’innovazione tecnologica e la digitalizzazione, ha promosso un corso gratuito sull’argomento raggiungibile qui: www.elementsofai.it .

L’idea di un’IA che superi in intelligenza gli esseri umani quale risultato indesiderato dello sviluppo di  software è piuttosto ingenua. I metodi di IA non sono nient’altro che un ragionamento automatizzato, basato sulla combinazione di principi perfettamente comprensibili ed enormi quantità di dati da analizzare, entrambi forniti dagli esseri umani o da sistemi implementati da questi ultimi.

Ciò nonostante non si possono negare le implicazioni sociali della IA. 

Vediamone alcune:

 

l’IA è in grado di realizzare realtà virtuali confondibili che ingannano i nostri sensi e che possono essere confuse con la realtà effettiva.

Face2Face è un sistema in grado di identificare le espressioni facciali di una persona e trasferirle sulla faccia di un’altra persona in un video su Youtube, significa che una nostra foto sorridente potrebbe essere rielaborata ed il nostro volto diventare truce. Anche la nostra voce può essere replicata. Lyrebird è uno strumento per l’imitazione automatica della voce di una persona partendo da una registrazione campione di qualche minuto. Anche se l’audio generato ha ancora un evidente tono robotico, l’impressione che fa è piuttosto buona e potrebbero farci dire cose che mai avremmo pensato.

 

Inoltre la precisione dei dati raccolti da società tecnologiche come Facebook (che gestisce i dati anche di Istagram e WhatsApp), Google, Amazon e molte altre va ben al di là dei dati sugli acquisti raccolti dagli esercizi commerciali tradizionali. 

In linea di principio, è possibile registrare ogni clic, ogni pagina visitata e il tempo trascorso a visualizzare qualsiasi contenuto. Quindi, in linea di principio, correlando questi dati con la posizione e l’IP del dispositivo è possibile risalire alla persona fisica. 

In altre parole un pc in grado di analizzare una gran massa di dati, adeguatamente programmato, potrebbe essere in grado di risalire al nostro nome e cognome e collegandolo a tutta la nostra l’attività virtuale, dagli acquisti ai like, passando attraverso siti che mai confesseremmo di navigare.

Ma il rischio maggiore è il Bias algoritmico.

Una branchia dell’ IA è utilizzata da machine learning. Sono strumenti usati per prendere decisioni importanti in molti settori. Il  bias algoritmico indica l’incorporazione di una tendenza a discriminare in base all’etnia, al genere o ad altri fattori quando si prendono decisioni su, ad esempio, domande di lavoro o mutui bancari.

La causa principale del bias algoritmico non è un errore di programmazione ma è il pregiudizio umano contenuto nei dati che forniscono le informazioni da cui gli algoritmi di machine learning apprendono. 

Per esempio, quando uno strumento di filtraggio delle domande di lavoro è allenato su decisioni prese dagli esseri umani, l’algoritmo di machine learning potrebbe imparare a discriminare le donne o le persone di una determinata etnia. 

Si noti che ciò potrebbe accadere anche se l’etnia o il genere sono esclusi dai dati, in quanto l’algoritmo sarà in grado di sfruttare le informazioni presenti nel nome o nell’indirizzo del candidato. 

È stato notato che nelle pubblicità online proposte vi è una tendenza a mostrare le inserzioni relative a lavori con retribuzione più bassa alle donne piuttosto che agli uomini. 

Analogamente, effettuando una ricerca con un nome che suona afroamericano si potrebbe visualizzare una pubblicità di uno strumento per accedere ai casellari giudiziari, il che è meno probabile che accada nel caso di altre ricerche.

Si è osservato che, quando si cercano professionisti con nomi femminili, LinkedIn chiede all’utente se non stesse in realtà cercando un nome maschile analogo: quando si cerca il nome Giulia il sistema chiederà “intendevi Giulio”? Se si dovesse cliccare occasionalmente sul profilo di Giulio, magari solo per curiosità, il sistema metterà Giulio ancora più in risalto nelle ricerche successive.

Ma, è bene ricordarlo sempre, i pc sono sono ferraglia di silicio e rame; quel che conta è l’intelligenza umana. E’ di questo che, senza cadere nel panico, ci dobbiamo preoccupare seriamente, come insegna la vicenda di  Timnit Gebru, scienziata di origine eritrea, impiegata di Google e Co-Leader dell’Ethical Artificial Intelligence (AI) team licenziata ad inizio dicembre per la denuncia contenuta nel suo rapporto sull’uso etico dell’IA in relazione al linguaggio.

I recenti progressi nella tecnologia di intelligenza artificiale applicata al linguaggio – che Google ha definito molto importante per il proprio futuro – sollevano diversi problemi

Questi modelli sono intelligenze artificiali che vengono addestrate a riconoscere e manipolare il linguaggio naturale usando come base per l’addestramento un’enorme quantità di materiale testuale, che di solito è preso da internet. Google da poco tempo ha cominciato a usare uno di questi modelli di elaborazione del linguaggio nel suo sistema di ricerca. Grazie all’IA, Google riesce a comprendere il linguaggio della chiave di ricerca e a fornire spesso risultati più competenti.

Ma, scrive  il team di Gebru, addestrare queste intelligenze artificiali con enormi quantità di testi raccolti da internet può provocare problemi perché, a causa della loro mole, i testi non possono essere vagliati, ed è probabile che i sistemi siano addestrati con testi sessisti, razzisti e violenti. 

Questo significa che c’è il rischio, seppur raro, che un modello linguistico dia risposte razziste, non riuscendo a tenere conto dei molti avanzamenti nel linguaggio compiuti grazie allo sforzo dei movimenti sociali in questi anni quali MeToo o Black Lives Matter che hanno lavorato duramente per diffondere un linguaggio meno sessista e razzista.

Il processo di revisione, a cui è stata sottoposta la bozza della sua  ricerca da parte di Google, secondo la scienziata,  non era accademico e nemmeno trasparente. “Mi sono sentita come se fossimo stati censurati e ho pensato che questo avesse implicazioni per tutta la ricerca sull’etica dell’intelligenza artificiale”, ha dichiarato l’esperta a Wired. 

La ricercatrice ha rifiutato di eliminare il suo nome dalla bozza, così come preteso dal suo datore di lavoro e, forse, non solo per questo è stata licenziata.

Le altre motivazioni si potrebbero individuare nel fatto che è donna, che è eritrea, che rivendicava diritti sindacali, insomma una spina nel fianco considerato che, già in passato aveva denunciato, in una intervista al New York Times, come la tecnologia di riconoscimento facciale favorisse la discriminazione alimentando i pregiudizi razziali e innescasse una pericolosa sorveglianza di massa. 

Questa è la dimostrazione che è e sarà solo la capacità dell’uomo a definire ciò che l’IA potrà e non potrà fare. 

E’ evidente che occorra presto un intervento politico che disciplini l’ambito in cui la IA potrà svilupparsi e quale uso fare dei nostri dati. In attesa che tutto ciò accada consiglio a tutti di affrontare il corso per comprendere appieno le implicazioni di questa nuova tecnologia e di usare con estrema intelligenza e razio i social network che così tanto danno e rubano alla nostra vita. 

 L’intervista completa alla dottoressa Timnit Gebru è disponibile qui 

Le infografiche dell’UE

 

 

CRISTINA RICCI

I LIBRI DI CRISTINA RICCI

Condividi

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.