Tecnologia e Social

Intelligenza artificiale: quali sono i rischi?

In passato sono state fatte diverse previsioni su quello che sarebbe stato il livello tecnologico che avremmo raggiunto già nei primi anni 2000. Qualcuno ha ipotizzato la possibilità di viaggi interstellari o incontri con specie senzienti extraterrestri, altri non sono riusciti a immaginare un dispositivo per le comunicazioni portatile, abbastanza grande da poter stare nel palmo di una mano con una potenza di calcolo simile a quella di un computer.

Scienza e fantascienza si muovono su binari paralleli, talvolta ispirandosi l’una all’altra, e i risultati ottenuti finora sono stati senza ombra di dubbio incredibili: gli strumenti a nostra disposizione quotidianamente agevolano le nostre vite e il lavoro, e ogni anno promette nuove migliorie. Ma come recita un vecchio adagio “non è tutto oro ciò che luccica”.

Nel diciannovesimo secolo le fabbriche sostituirono una parte di operai con macchinari in grado di svolgere lo stesso lavoro in tempi minori e con risultati maggiori; alla fine degli anni ’60 i supercomputer dell’IBM dimostrarono d’essere in grado di eseguire complesse operazioni matematiche più in fretta di un essere umano. È il prezzo da pagare per una società che non riesce a tenere il passo dell’avanzamento tecnologico. Sappiamo quando fermarci?

Qualche mese fa il fondatore di Tesla, Elon Musk, ha espresso le proprie preoccupazioni circa i recenti “primi approcci” nel campo dell’intelligenza artificiale. Ciò che teme è che l’impazienza di raggiungere risultati nel minor tempo possibile porti a creare delle vere e proprie minacce per gli esseri umani. Si tratta di una paura infondata? Forse, ma prendiamo in considerazione due delle IA che più hanno fatto discutere negli ultimi anni: Tay e Sophia.

Nel 2016 Microsoft rilascia Tay, un bot il cui scopo era quello di imparare dagli utenti della rete. Il suo programma di base era semplice, il suo schema linguistico era quello di una diciannovenne e sulla scia del bot cinese Xiaoice le aspettative erano quelle di milioni di interazioni senza incidenti. Rilasciare una IA indifesa al popolo digitale, tuttavia, significa esporla a frasi politicamente scorrette, razziste e offensive di ogni tipo. E senza una bussola morale da seguire (o come in questo caso, senza filtri nel programma di base) la IA è stata ritirata dalla casa madre.

Ma il fiasco di Tay non è servito a scoraggiare gli sviluppatori di IA. La Hanson Robotics ha quest’anno presentato al mondo Sophia, un prototipo di intelligenza artificiale modellata sulle fattezze di Audrey Hepburn il cui scopo è quello di fornire assistenza agli esseri umani.

Si prevedono già degli impieghi nelle case di cura per il robot in grado di emulare gesti ed espressioni umane e intrattenere delle semplici conversazioni con il proprio interlocutore. Ma non è tutto. Appena qualche mese fa Sophia è diventata cittadina dell’Arabia Saudita, aprendo una nuova pagina sui paradossi della scelta: perché, sebbene Sophia abbia dichiarato di non avere un “genere”, in quanto robot, le sembianze che le sono state attribuite dai creatori sono indubbiamente femminili. Sophia potrà dunque votare o sposarsi? Dovrà girare con l’hijab come tutte le altre donne o potrà uscire in strada soltanto accompagnata da un uomo?

Non c’è ancora modo di dire se le paure di Elon Musk siano fondate o meno. Le IA in circolazione non sono ancora uscite dal tracciato delle tre leggi di Asimov. Ma la vera domanda da farsi è: cosa accadrà quando dovremo decidere se trattare le IA da macchine o nostri pari?