venerdì, Marzo 1, 2024

INTELLIGENZA ARTIFICIALE, UN LIBRO PER MANEGGIARLA IN REDAZIONE (SENZA FARSI MALE)

(fonte: Professione Reporter – di Andrea Garibaldi)

Riguardo all’Intelligenza artificiale, ci sono alcune linee guida che i giornalisti possono osservare. 

La prima è fare i giornalisti. Raccontare l’Intelligenza artificiale come si fa con tutto ciò che succede. Novità, paure, possibilità. Tenerla d’occhio, cercare di capire e spiegarla a chi legge, ascolta, guarda.  

La seconda è utilizzarla senza farsi dominare. Può essere utile per saltare passaggi (elenchi, dati, circostanze), per ricavare spunti. Da controllare, come si fa con ogni informazione. Non deve invece servire ad evitare le fatiche quotidiane per scovare notizie e verificarle con cura.

La terza è dire sempre con franchezza ai destinatari che si è utilizzata l’Intelligenza artificiale per un pezzo, un’inchiesta, un reportage, e in che termini.

AIUTARE O UCCIDERE

C’è anche questo nel libro che ha appena pubblicato Vittorio Roidi, giornalista di lungo corso, a Radio Rai, al Messaggero, già presidente della Federazione della Stampa, già segretario dell’Ordine dei giornalisti, ideatore e promotore di professionereporter.eu. Il libro si chiama “Il Giornalista artificiale”, edizioni All Around, prefazione di Giancarlo Tartaglia, sottotitolo: “L’intelligenza delle macchine che generano notizie può aiutare l’informazione ma anche ucciderla. Una sfida da affrontare”. 

E’ il primo libro a prendere di petto la materia. Per mettere in guardia, innanzitutto. Roidi ricorda quello che accadde agli albori di Internet. Si scambiò la rivoluzione digitale per una occasione di democrazia diffusa, di potere ai cittadini; siamo invece finiti nel dominio pieno e incontrollato di Google, Facebook, Amazon, Microsoft. Proprio gli stessi che oggi hanno visto la nuova frontiera del superprofitto nell’Intelligenza artificiale. L’obiettivo del libro quindi è prevenire, studiare e operare fin che si è in tempo. Non ribadire gli errori del passato, come spesso invece capita. 

PINELLI E ALDO MORO

Roidi comincia -da cronista- interrogando ChatGPT. Chiede 30 righe sulla morte di Pinelli, sulla Loggia P2, sul caso Moro, sul compromesso storico, sulla leadership della Juventus nel nostro campionato di calcio. Risultato: pezzi puliti, ma lacunosi (su Pinelli, non è mai nominato il commissario Calabresi), superficiali (sul caso Moro, non si parla dei contrasti politici sulla trattativa), generici (sul compromesso storico non si nomina Berlinguer, né il colpo di Stato in Cile, che lo fece riflettere). 

Roidi spiega poi un paio questioni chiave: le attuali forme di Intelligenza artificiale non forniscono le fonti delle loro informazioni. Il giornalista si trova nella situazione di doversi fidare del mostruoso meccanismo che c’è dietro ChatGPT e sorelle: miriadi di persone non si sa da dove, chi siano, come siano retribuite, a quali direttive rispondano, che inseriscono nel sistema miliardi di dati. La fonte è una sola, quindi, ChatGPT (e sorelle). Un salto epocale rispetto alle ricerche su Google, che sempre forniscono un riferimento alla fonte. 

Al momento, inoltre, l’Intelligenza artificiale non è preparata per affrontare l’attualità. I fatti che avvengono non possono essere stati inseriti nel sistema perché non erano previsti e quindi ci si deve ancora affidare alla buona volontà e al fiuto del cronista. 

PRIMA CHE SIA TARDI

Roidi fa poi un quadro di tante cose che stanno avvenendo. 

Il premio Nobel Geoffrey Hinton, uno dei “padri” dell’Intelligenza artificiale che sbatte la porta di Google e lascia la ricerca con queste parole: “L’Intelligenza artificiale è pericolosa. Dobbiamo capire come controllare le macchine prima che sia troppo tardi”. Prima che siano loro a usare noi, prima che finisca nelle mani di uomini e poteri oscuri. 

I ricercatori che vorrebbero fermarsi, ma non possono per non dare vantaggi alla Cina o per non dare vantaggi ai diretti concorrenti (ora è in atto la battaglia feroce tra i sistemi di Microsoft, ChatGPT e di Google, Bard). 

Il Parlamento europeo che, con le consuete tribolazioni, prova a scrivere regole comuni, a innalzare una serie di divieti. 

CARNE ED OSSA

E le grandi testate che si muovono. Il Direttore del New York Times scrive: “Sono favorevole alla sperimentazione, ma fin d’ora posso garantire una cosa: sul New York Times non verrà mai pubblicato un articolo scritto dall’Intelligenza artificiale senza il controllo editoriale di un redattore in carne ed ossa”. Lo stesso New York Times vieta a ChatGPT l’accesso ai suoi archivi e minaccia di portare in tribunale il saccheggio di dati. Associated Press annuncia che “i contenuti delle chat generative devono essere trattati come materiali provenienti da fonti non verificate” e quindi sottoposti ai normali controlli della redazione. Ap chiede che i suoi materiali già memorizzati siano conteggiati e pagati. L’inglese The Guardian nel luglio 2023 pubblica le sue tre regole: qualsiasi uso di Intelligenza artificiale deve avere la supervisione umana; qualsiasi utilizzo di Intelligenza artificiale si concentrerà su situazioni in cui può migliorare la qualità, non la quantità, del lavoro di redazione; si dovrà utilizzare l’Intelligenza artificiale nei casi in cui sono stati rispettati l’autorizzazione del copyright e l’equa ricompensa”.  

100 MILIONI DI EURO

E il quotidiano popolare Bild licenzia “i colleghi che svolgono mansioni sostituibili dall’Intelligenza artificiale”. Per risparmiare 100 milioni di euro.

Da noi  la Federazione della Stampa e la sua segretaria Alessandra Costante hanno chiesto che non siano erogati fondi pubblici ad aziende editoriali che fanno uso di Intelligenza artificiale. Hanno ricordato anche ai Comitati di redazione che l’Intelligenza artificiale rientra tra i ‘supporti tecnologici’ e non può essere introdotta e usata senza rispettare le procedure previste dall’articolo 42 del Contratto nazionale di lavoro (sia pur scaduto da sette anni).

Alla fine del suo agile e denso lavoro, Roidi prova a dire cose che si possono cominciare a fare: una regola da aggiungere al Testo unico dei doveri del giornalista, che vincoli al controllo umano tutto ciò che viene pubblicato, per poter sanzionare chi non lo fa. E tanta formazione, sull’Intelligenza artificiale per i praticanti, per gli iscritti alle Scuole di giornalismo e anche per i giornalisti professionisti, nelle redazioni e fuori.   

Ultimi articoli