SETTIMANALE anno XVII
n° 740 del 21 febbraio 2020
tel 346 8046218

IA – L’Acronimo del mondo che verrà Stampa E-mail
Scritto da CRISTINA RICCI   
IA – L’Acronimo del mondo che verrà

 E’ capitato anche a voi di imbattervi, quasi ogni giorno, nel termine IA?

Cos’è l’intelligenza artificiale e come influisce e influenzerà la nostra vita? 

 

  

Non esiste una descrizione per il termine “intelligenza artificiale”, neanche gli studiosi dell’IA sono stati in grado di definirla. 

Di certo si può dire che è riduttivo associare al termine IA i robot di Guerre stellari e ritenere che questa nuova scienza trovi applicazione solo in un futuro remoto.

Le tecniche di IA influenzano già la nostra vita, sono programmi che hanno la capacità di imparare dalle risposte (input) che ricevono o, in altre parole, affinare i loro risultati in base a ciò che gli utenti chiedono/scelgono con maggior frequenza.

L’IA è sempre più presente sui computer di bordo dei mezzi di trasporto. Ne sono un esempio i sistemi anti collisione delle nostre auto o il più banale navigatore. 

Ma  non solo; i suggerimenti che riceviamo dai social (avete presente il potresti conoscere di facebook?) o le pubblicità che google eroga sulle pagine che visitiamo sono tutti esempi di quanto la IA sia già presente nelle nostre vite. Ricordate il mio precedente articolo  TikTok. Chi bUSsA? Trump e la democrazia in cui ipotizzavo la vera ragione dell’odio di Trump per il social cinese?...LEGGI

L’IA è un argomento così scottante  che anche l’Unione Europa se ne preoccupa. Ha già predisposto un libro bianco sull’argomento e sta discutendo la bozza del regolamento che disciplinerà la materia (per saperne di più VAI QUI ).

Proprio per questo Paola Pisano, ministra per l’innovazione tecnologica e la digitalizzazione, ha promosso un corso gratuito sull’argomento raggiungibile qui: www.elementsofai.it .

L'idea di un'IA che superi in intelligenza gli esseri umani quale risultato indesiderato dello sviluppo di  software è piuttosto ingenua. I metodi di IA non sono nient'altro che un ragionamento automatizzato, basato sulla combinazione di principi perfettamente comprensibili ed enormi quantità di dati da analizzare, entrambi forniti dagli esseri umani o da sistemi implementati da questi ultimi.

Ciò nonostante non si possono negare le implicazioni sociali della IA. 

Vediamone alcune:

 

l’IA è in grado di realizzare realtà virtuali confondibili che ingannano i nostri sensi e che possono essere confuse con la realtà effettiva.

Face2Face è un sistema in grado di identificare le espressioni facciali di una persona e trasferirle sulla faccia di un’altra persona in un video su Youtube, significa che una nostra foto sorridente potrebbe essere rielaborata ed il nostro volto diventare truce. Anche la nostra voce può essere replicata. Lyrebird è uno strumento per l’imitazione automatica della voce di una persona partendo da una registrazione campione di qualche minuto. Anche se l’audio generato ha ancora un evidente tono robotico, l’impressione che fa è piuttosto buona e potrebbero farci dire cose che mai avremmo pensato.

 

Inoltre la precisione dei dati raccolti da società tecnologiche come Facebook (che gestisce i dati anche di Istagram e WhatsApp), Google, Amazon e molte altre va ben al di là dei dati sugli acquisti raccolti dagli esercizi commerciali tradizionali. 

In linea di principio, è possibile registrare ogni clic, ogni pagina visitata e il tempo trascorso a visualizzare qualsiasi contenuto. Quindi, in linea di principio, correlando questi dati con la posizione e l’IP del dispositivo è possibile risalire alla persona fisica. 

In altre parole un pc in grado di analizzare una gran massa di dati, adeguatamente programmato, potrebbe essere in grado di risalire al nostro nome e cognome e collegandolo a tutta la nostra l’attività virtuale, dagli acquisti ai like, passando attraverso siti che mai confesseremmo di navigare.

Ma il rischio maggiore è il Bias algoritmico.

Una branchia dell’ IA è utilizzata da machine learning. Sono strumenti usati per prendere decisioni importanti in molti settori. Il  bias algoritmico indica l'incorporazione di una tendenza a discriminare in base all'etnia, al genere o ad altri fattori quando si prendono decisioni su, ad esempio, domande di lavoro o mutui bancari.

La causa principale del bias algoritmico non è un errore di programmazione ma è il pregiudizio umano contenuto nei dati che forniscono le informazioni da cui gli algoritmi di machine learning apprendono. 

Per esempio, quando uno strumento di filtraggio delle domande di lavoro è allenato su decisioni prese dagli esseri umani, l’algoritmo di machine learning potrebbe imparare a discriminare le donne o le persone di una determinata etnia. 

Si noti che ciò potrebbe accadere anche se l’etnia o il genere sono esclusi dai dati, in quanto l’algoritmo sarà in grado di sfruttare le informazioni presenti nel nome o nell’indirizzo del candidato. 

È stato notato che nelle pubblicità online proposte vi è una tendenza a mostrare le inserzioni relative a lavori con retribuzione più bassa alle donne piuttosto che agli uomini. 

Analogamente, effettuando una ricerca con un nome che suona afroamericano si potrebbe visualizzare una pubblicità di uno strumento per accedere ai casellari giudiziari, il che è meno probabile che accada nel caso di altre ricerche.

Si è osservato che, quando si cercano professionisti con nomi femminili, LinkedIn chiede all'utente se non stesse in realtà cercando un nome maschile analogo: quando si cerca il nome Giulia il sistema chiederà "intendevi Giulio"? Se si dovesse cliccare occasionalmente sul profilo di Giulio, magari solo per curiosità, il sistema metterà Giulio ancora più in risalto nelle ricerche successive.

Ma, è bene ricordarlo sempre, i pc sono sono ferraglia di silicio e rame; quel che conta è l’intelligenza umana. E’ di questo che, senza cadere nel panico, ci dobbiamo preoccupare seriamente, come insegna la vicenda di  Timnit Gebru, scienziata di origine eritrea, impiegata di Google e Co-Leader dell’Ethical Artificial Intelligence (AI) team licenziata ad inizio dicembre per la denuncia contenuta nel suo rapporto sull’uso etico dell’IA in relazione al linguaggio.

I recenti progressi nella tecnologia di intelligenza artificiale applicata al linguaggio – che Google ha definito molto importante per il proprio futuro – sollevano diversi problemi

Questi modelli sono intelligenze artificiali che vengono addestrate a riconoscere e manipolare il linguaggio naturale usando come base per l’addestramento un’enorme quantità di materiale testuale, che di solito è preso da internet. Google da poco tempo ha cominciato a usare uno di questi modelli di elaborazione del linguaggio nel suo sistema di ricerca. Grazie all’IA, Google riesce a comprendere il linguaggio della chiave di ricerca e a fornire spesso risultati più competenti.

Ma, scrive  il team di Gebru, addestrare queste intelligenze artificiali con enormi quantità di testi raccolti da internet può provocare problemi perché, a causa della loro mole, i testi non possono essere vagliati, ed è probabile che i sistemi siano addestrati con testi sessisti, razzisti e violenti. 

Questo significa che c’è il rischio, seppur raro, che un modello linguistico dia risposte razziste, non riuscendo a tenere conto dei molti avanzamenti nel linguaggio compiuti grazie allo sforzo dei movimenti sociali in questi anni quali MeToo o Black Lives Matter che hanno lavorato duramente per diffondere un linguaggio meno sessista e razzista.

Il processo di revisione, a cui è stata sottoposta la bozza della sua  ricerca da parte di Google, secondo la scienziata,  non era accademico e nemmeno trasparente. “Mi sono sentita come se fossimo stati censurati e ho pensato che questo avesse implicazioni per tutta la ricerca sull’etica dell’intelligenza artificiale”, ha dichiarato l’esperta a Wired. 

La ricercatrice ha rifiutato di eliminare il suo nome dalla bozza, così come preteso dal suo datore di lavoro e, forse, non solo per questo è stata licenziata.

Le altre motivazioni si potrebbero individuare nel fatto che è donna, che è eritrea, che rivendicava diritti sindacali, insomma una spina nel fianco considerato che, già in passato aveva denunciato, in una intervista al New York Times, come la tecnologia di riconoscimento facciale favorisse la discriminazione alimentando i pregiudizi razziali e innescasse una pericolosa sorveglianza di massa. 

Questa è la dimostrazione che è e sarà solo la capacità dell’uomo a definire ciò che l’IA potrà e non potrà fare. 

E’ evidente che occorra presto un intervento politico che disciplini l’ambito in cui la IA potrà svilupparsi e quale uso fare dei nostri dati. In attesa che tutto ciò accada consiglio a tutti di affrontare il corso per comprendere appieno le implicazioni di questa nuova tecnologia e di usare con estrema intelligenza e razio i social network che così tanto danno e rubano alla nostra vita. 

 L’intervista completa alla dottoressa Timnit Gebru è disponibile qui 

Le infografiche dell’UE


 

CRISTINA RICCI

 

Ci fu un tempo in cui i ricchi borghesi pur di entrare in società ed acquisire una rilevanza politica agli occhi dei sovrani, organizzavano matrimoni con l’alta nobiltà che, di buon grado, accettava.

Anche allora era solo una questione di colori, il sangue da blu diventava azzurro ma, in compenso, i conti non erano più in rosso.

Acquistare maggior prestigio agli occhi del mondo è un vizio che non abbiamo ancora perso. Una buona reputazione rende tutto più facile e, la conquista del mercato passa anche attraverso la stima dei clienti. 

Avete notato le pubblicità dei nuovi brand? 

Sempre più spesso gli acquirenti non vengono tentati dalle caratteristiche del prodotto e neppure dal suo prezzo ma da ciò che l’azienda sembra offrire in termini di, passatemi il termine, “sogno”.

Iniziò la Coca Cola nel 1931 abbinando la bevanda a Babbo Natale. Il Santa Claus  che oggi conosciamo lo dobbiamo a questo celebre marchio.

La Coca-Cola, grazie alla pubblicità, è entrata nella nostra cultura, è molto più di una bibita gassata. Oserei anzi dire che bere una cocacola non ha più niente a che vedere con il dissetarsi, come è stato detto da tempo e da molti.

La nostra Mole Cola (https://molecolaitalia.it/), ha da fare ancora molte bollicine prima di riuscire ad eguagliare il prestigio dell’americana ed entrare nei nostri cuori.

 

 

La Coca-Cola non è l’unica azienda in cerca di consenso.

Stando a la Repubblica il gruppo Amazon ha 25 sedi nel nostro paese e quest’anno prevede di creare 1.600 nuovi posti di lavoro nel nostro paese arrivando a contare quasi 8.500 dipendenti. 

Gli investimenti sono cospicui, come i guadagni d'altronde. Nel 2018 a fronte di 4,5 miliardi di guadagno ne sono stati investiti 1,8

(fonte https://www.repubblica.it/economia/2020/07/20/news/amazon_nel_2020_1600_nuovi_posti_di_lavoro_in_italia-262437620/#:~:text=Una%20crescita%20superiore%20a%20quanto,2)

Perché dunque un gruppo così solido avrebbe bisogno di una verginità posticcia alla stregua della borghesia settecentesca?

Sarà che gli spot di settembre dove i dipendenti lodano il proprio luogo di lavoro non corrispondano alla realtà? 

Amazon ha cercato di apparire come un’azienda in grado di offrire lavoro a una vasta categoria di persone in difficoltà. Dalla signora 50enne, ai disoccupati di lunga data per arrivare ai giovani ma noi non dobbiamo dimenticare che la Legge 92/2012, ha introdotto degli incentivi contributivi in favore di lavoratori over 50 e delle donne rientranti nella categoria di soggetti svantaggiati. 

Amazon non è la fatina buona ma semplicemente, come ogni operatore economico che ha come obiettivo il solo profitto, coglie ogni opportunità per trarre vantaggi e aumentare l’utile.

Le condizioni di lavoro sono tali che persino Amnesty International si occupa dei lavoratori amazon. Secondo questa organizzazione l’azienda ostacolerebbe i diritti dei lavoratori a organizzarsi e  investirebbe ingenti risorse nel controllo dei lavoratori dalla presunta “minaccia” di una potenziale attività sindacale (fonte https://www.amnesty.it/amazon-rispetti-il-diritto-dei-lavoratori-a-riunirsi-in-sindacati/)

Smalls Christian, ex magazziniere del colosso del commercio elettronico, sostiene che Amazon non riuscendo a proteggere adeguatamente i propri lavoratori viola la legge sui diritti umani vigente a New York e altri provvedimenti normativi federali e statali. Il lavoratore ha dichiarato alla stampa di essere stato un dipendente leale e essere stato licenziato dopo aver organizzato uno sciopero pretendendo che Amazon proteggesse dal COVID-19 i lavoratori di colore e quelli latino-americani.

Anche il tasto tasse è una nota dolente, al riguardo potete leggere questo articolo https://www.ilfattoquotidiano.it/2020/08/28/va-in-onda-la-buona-novella-amazon-negli-spot-magazzinieri-felici-e-rilassati-che-ringraziano-la-societa-per-il-posto-lavoro/5913126/

La nuova buona azione natalizia che accende le luci del palco su una promettente ballerina riuscirà davvero a intenerire i nostri cuori facendoci dimenticare ciò che è realmente il gruppo Amazon?

 

 

Share/Save/Bookmark
 
Prego registrarsi o autenticarsi per aggiungere un commento a questo articolo.
 
Banner
Banner
Banner
Banner
Banner

Ricevi le News da Truciolisavonesi

Login

Registrati per poter commentare gli articoli





Il sito non è una testata giornalistica, si basa su attività di volontariato.

Gli autori dei testi sono responsabili dei dati, delle analisi delle opinioni in essi contenuti

Copyright © 2010 truciolisavonesi. All rights reserved.

Designed by Massa

 

Per rendere il nostro sito più facile ed intuitivo impieghiamo i cookie. Chiudendo questa notifica o navigando sul sito acconsenti al nostro utilizzo dei cookie
We use cookies to improve your experience on this website. By continuing to browse our site you agree to our use of cookies. privacy policy.

EU Cookie Directive Module Information