martedì, Marzo 19, 2024

SECONDA E ULTIMA PARTE DELLA NOSTRA INCHIESTA SULL’INTELLIGENZA ARTIFICIALE. TRA PREGI, DIFETTI E INSIDIE

Leggi la prima parte della nostra inchiesta

Ci vorrebbe il giusto tempo per poter formare gli utenti, ma non c’è, ed è così che abusi, truffe e raggiri sono dietro l’angolo, poi capiremo anche in che modo i malintenzionati possono carpire la buona fede di utenti con le difese basse a causa della mancanza di consapevolezza. Dona ci spiega che questo può avvenire anche nel mondo economico finanziario, dove sono ugualmente bassi i livelli di cultura e di educazione finanziaria, ma non si può comunque tornare indietro né rifiutare queste innovazioni: “Il progresso e dunque la sfida – per il presidente UNC – sarà far sì che la cultura digitale tenga il passo con l’evoluzione tecnologica”.

Un assaggio dell’intelligenza artificiale, ognuno di noi può averlo attraverso ChatGPT, una chat nella quale l’interlocutore non è umano ma è appunto un bot, una macchina che assorbe e metabolizza tutte le informazioni che apprende anche dai nostri stessi dialoghi. In questo caso l’approccio è amichevole, dato che è il frutto delle ricerche di OpenAI, organizzazione senza fini di lucro che vuole promuovere un’intelligenza artificiale che dia beneficio all’umanità. Lo abbiamo fatto anche noi, chiedendo al bot una serie di informazioni in un campo nel quale siamo molto esperti, cioè quello della storia della radio italiana, confrontandole con quelle che avevamo noi e correggendone gli errori. Nella correzione ci siamo anche accorti che la macchina non sempre apprendeva correttamente i nostri concetti, sembrando in qualche caso un giovane studente che durante l’interrogazione dimostra di aver seguito la lezione ma di non averla compresa del tutto.

Così abbiamo provato a chiedere alla macchina, al bot, cioè a ChatGPT, se abbia mai sbugiardato qualcuno che volesse metterla alla prova. La risposta è stata onestissima: Come intelligenza artificiale, non ho l’abilità di “sbugiardare” nessuno. La mia funzione principale è di fornire informazioni e rispondere alle domande degli utenti. Tuttavia, ci sono situazioni in cui un utente potrebbe chiedermi qualcosa che non conosco o che non sono in grado di comprendere completamente. In questo caso, potrei fornire una risposta generale o ammettere di non essere in grado di rispondere alla domanda specifica. In ogni caso, il mio obiettivo principale è di essere il più utile possibile per gli utenti e di fornire loro informazioni precise e affidabili”. Appunto, mancandole la coscienza, la macchina non “capisce” le intenzioni di chi la sta usando.

Massimiliano Dona avverte: “Per aiutare le persone, l’intelligenza artificiale dovrà essere compresa a fondo: molti oggi credono che si possa interloquire con ChatGPT come si fa con un normale motore di ricerca, ma trascurando quanto sia invece necessario dialogare con l’intelligenza artificiale per perfezionarla, grazie al continuo apprendimento di cui sono capaci questi sistemi. Ecco, forse la sfida è quella di avere utenti più attivi rispetto ai normali comportamenti attuati negli ecosistemi digitali: non si può essere passivi davanti all’ AI, e questo è tutto sommato è uno scenario al quale guardo con grande fiducia che possa riattivare le persone. Se da un lato vedo molti individui in catalessi davanti al feed di un social network, forse l’intelligenza artificiale ci chiamerà, almeno in prima battuta, ad una nuova consapevolezza digitale e questo potrebbe essere un bene”.

Tra l’altro è evidente come l’utilizzo sempre più frequente di questa applicazione dell’intelligenza artificiale crescono anche i rischi. Uno è quello di usare ChatGPT per scrivere quelle mail di phishing o spam eliminando gli errori grammaticali che oggi le rendono ridicole ed inattendibili. Un altro è scrivere con l’AI codice dannoso e di malware per compiere cybercrimini. E ancora, si possono ottenere informazioni utili per compiere attacchi mirati verso aziende o singoli dipendenti. Senza dimenticare le truffe dove si può indurre lo sprovveduto utente con portali identici a credere di avere a che fare con OpenAI e quindi carpire i loro dati personali, o peggio far scaricare trojan ed eseguibili corrotti.   

Come si può arginare, allora, l’obiettivo pericolo di un uso non corretto, ovviamente in malafede, dell’AI e dei bot? Servono diverse azioni e misure, risponde Luis Burattin per il quale l’etica è un riferimento non negoziabile. In sintesi, “sono necessarie regolamentazioni a livello normativo, trasparenza e responsabilità da parte degli sviluppatori, valutazioni indipendenti, educazione, collaborazione tra settori, tecnologie di controllo e sicurezza, monitoraggio continuo e responsabilità individuale. Queste misure combinate possono contribuire a limitare i rischi e garantire un utilizzo corretto e responsabile dell’IA e dei bot. Tuttavia questo problema complesso e in continua evoluzione, richiede un impegno costante da parte di tutti gli operatori coinvolti per mantenere un equilibrio tra l’innovazione tecnologica e la tutela della società”. Burattin ci indica i possibili rimedi anche nel dettaglio, dall’implementazione di leggi e norme specifiche, all’istituzione di processi indipendenti di auditing e valutazione per questi sistemi, consentendo quindi di correggere eventuali bug dell’algoritmo o affrontare problemi di sicurezza o impatto negativo sulla società; collaborazione tra governi, industrie, accademici e organizzazioni della società civile.

L’argomento è destinato a non esaurirsi qui e il discorso può portare lontano, quindi ci ritorneremo per forza. Vogliamo parlare allora di un’applicazione pratica già possibile con l’intelligenza artificiale, cioè avere degli speaker artificiali che leggano spot, documentari, perfino notiziari radiofonici clonando le voci di quelli autentici con il loro permesso e creando un mercato parallelo.

Ma devono realmente tremare i professionisti della voce? Per Paolo Balestri, speaker e doppiatore pubblicitario, si tratta di un falso problema: “Per ogni prodotto esiste un pubblico. C’è gente che mangia grilli, ci sarà gente che ascolta sintetici. Io non mi piazzo nello stesso mercato dei sintetici, credo che nessuno dei miei colleghi lo farà. Il nostro pubblico è un pubblico esigente. Molto spesso i casting per le voci richiedono settimane per trovare quella che esprime meglio l’idea del team creativo, non basta una bella voce, serve anche la voce adatta e la voce adatta è dentro una persona. Perché dice le cose in un certo modo. Siamo come strumenti con il suonatore: io sono un contrabbasso, il mio collega è un violino. Io so suonare la mia voce in un certo modo ma se ascolti un contrabbasso diverso avrai emozioni diverse. Ci sono Stradivari tra le voci, ma alcune non sanno suonarla quella propria fantastica voce, altre con un violino cinese fanno miracoli. E il pubblico che usa noi speaker o i doppiatori, quel pubblico è il direttore d’orchestra. Oppure è solo pubblico che affida ad una agenzia la creazione del suo concerto e il creativo sarà il Riccardo Muti dell’esecuzione. Il sintetico prenderà il posto dei praticanti che ancora non hanno né arte né parte in quelle produzioni dove il pubblico non ritiene necessario investire nel proprio prodotto per comunicare, e guarda un po’, non spenderà per avere una programmazione davvero efficace del sintetico, che suonerà sempre molto… sintetico”. E aggiungiamo, anche più costoso di quello che possa sembrare, perché bisognerà sempre pagare un tecnico che darà alla voce artificiale ciò che è necessario per dare un senso a un testo. Ossia il vissuto di chi in questo caso non lo legge, ma lo programma.

Però il mondo della radio potrebbe affidarsi in tempi brevi anche all’AI, nella programmazione e nella redazione di testi non particolarmente complessi. Burattin, da imprenditore, sta sperimentando questo mondo: “L’intelligenza artificiale offre opportunità straordinarie nel settore dei siti web e delle radio su Internet, ma è importante adottare un approccio ponderato e consapevole dei vantaggi e dei limiti. Combino la mia visione futura con una comprensione realistica dell’AI per sfruttare al meglio le sue potenzialità e offrire esperienze di qualità ai miei utenti”.

In teoria, una radio tutta realizzata da bot e dall’intelligenza artificiale quindi potrebbe esistere. Sapremmo riconoscerla? Massimiliano Dona presidente UNC non si preoccupa troppo: “L’autenticità è uno dei valori più ambiti dai consumatori, ma c’è tanta contraffazione già nell’attuale mercato, per cui non vedo il motivo di preoccuparsi davanti ad un’opera sia essa di informazione, o anche un prodotto di consumo o un servizio per i consumatori realizzato da un’intelligenza artificiale. Certamente mi approccerei con grande curiosità ad una simile innovazione chiedendomi che beneficio potrebbero averne i consumatori. E sono certo che riuscirei a individuare anche alcune risposte, ma per questo ci sarà tempo”.

Ultimi articoli