Nelle ultime ore i social network sono invasi da delle immagini realizzate dall’intelligenza artificiale, attraverso Chat GPT, che trasforma una propria foto nello stile tipico dei disegni dello Studi Ghibli. Questo è solo l’ultimo degli esempi di uno strumento, quello dell’IA, che ha sollevato numerosi dibattiti sotto vari punti di vista e che fa porre delle domande etiche sull’uso dell’intelligenza artificiale.
L’ Unione Europea è la prima istituzione ad applicare l’Artificial Intelligence Act, con il voto a maggioranza al Parlamento Europeo nel 2023, al fine di dare delle normative per un’ intelligenza artificiale affidabile. La proposta è della Commissione Europea è del 2021 e l’approvazione del consiglio dell’Unione Europea è avvenuta il 21 maggio 2024. Il nuovo AI Act verrà adottato da quest’anno ma per conformarsi ed emettere eventuali sanzioni ci vorrà ancora del tempo.
Per approfondire il tema, ai microfoni di LiveUniCT è intervenuta Natascia Arcifa, avvocato ed esperta in intelligenza artificiale e docente e autore su diritto, etica e intelligenza artificiale.
Artificial Intelligence Act: da dove partire
È un excursus lungo quello che ha portato all’Artificial Intelligence Act. Sebbene nel 2008 in Unione Europea si sia iniziato ad affrontare in maniera più insistente il tema di una transizione digitale, solo nel 2019 viene pubblicato il primo Rapporto sulla responsabilità per l’Intelligenza Artificiale e altre tecnologie emergenti. “Se prima si analizzava solo l’aspetto tecnico, con determinati codici — spiega Natascia —, si permette a un bot di rispondere a domande che non ha nel database ma riesce a rispondere tramite una conoscenza generica, tramite dei dati. L’ intelligenza artificiale si basa, dunque, su dati esistenti forniti dagli utenti. La preoccupazione inizia quando vengono date delle risposte impreviste, oltre la tua aspettativa”.
Da questo timore, sono state date delle linee guida etiche per l’intelligenza artificiale: legalità, eticità e robustezza, al fine di non causare danni non intenzionali. L’ obiettivo è tutelare chi non conosce questi strumenti e regolarizzare chi non li usa in modo etico. Si tratta di un più ampio discorso che abbraccia anche quelli che sono i diritti già esistenti e a tal proposito, il 26 gennaio 2022, la Commissione ha proposto una dichiarazione solenne interistituzionale sui diritti e i principi digitali per il decennio digitale. “Anche nel mondo digitale ci sono dei diritti e devono essere tutelati. Ma si tratta di una ripetizione, se già esistono dei diritti, sono applicabili in tutti i casi, non solo nell’interazione umana ma anche in quella digitale”.
Intelligenza artificiale: emulare il pensiero critico dell’uomo
Fare tesoro di ogni dato fornito: è questo uno dei principi dell’IA. In questo senso, l’utente sta aiutando l’intelligenza artificiale a pensare. Natascia ha spiegato come si comporta il bot a tal proposito ma ci sono anche dei rischi: “Anche attraverso i modi con cui si risponde o si formula il prompt si stanno fornendo dei dati, utili per emulare il pensiero critico dell’uomo. La paura è quella di perdere il proprio pensiero critico perché deleghi un’ attività a un bot e ti affidi a quello che viene fuori senza mettere nulla di tuo. Il tutto sta su come viene usato lo strumento, in modo etico”.
Il timore della perdita del pensiero critico non poteva non comprendere il campo dell’istruzione o il mondo del lavoro. Nel corso dell’intervista, una domanda ha riguardato proprio questo tema: “Può essere un aiuto nei compiti ma poi bisogna dare un riscontro. Ci si sta pur sempre affidando a una macchina. Ciò non toglie che bisogna sempre dare il proprio apporto. Nelle scuole si può consigliare l’uso per agevolare lo studio ma in quel momento della vita stai allenando il tuo pensiero critico”.
Intelligenza artificiale in ambito giornalistico
“Nel momento in cui un giornalista si affida a uno strumento del genere finisce di essere giornalista perché non apporta niente di suo”. Questa è stata la risposta di Natascia alla domanda sui pericoli per la professione giornalistica con l’intelligenza artificiale. Il rischio, quindi, sembra essere uguale a zero, e l’obiettivo rimane sempre lo stesso: evitare la perdita del pensiero critico e utilizzare lo strumento dell’IA in maniera etica e come supporto.
La situazione al di fuori dell’Europa
Come già specificato precedentemente, l’ Unione Europea è la prima istituzione con Artificial Intelligence Act ma nel resto nel mondo sembra che si stia seguendo la stessa strada: “Ci stanno lavorando in America, Cina, Giappone e anche Africa. Tutti hanno già delle linee guida etiche sull’uso degli strumenti e ora si stanno iniziando a definire le normative”.