it
IT

AI ed etica. L’intelligenza artificiale ha bisogno dei giornalisti

“L’intelligenza non è artificiale”: è dedicato a deep learning, machine learning e intelligenza artificiale l’ultimo libro, così intitolato, di Rita Cucchiara, docente di Sistemi di Elaborazione dell’Informazione all’Università di Modena e Reggio Emilia. Una buona lettura per indagare a fondo un tema, quello dell’intelligenza artificiale, che riguarda da vicino anche il giornalismo e l’informazione.

La FNSI – Federazione Nazionale della Stampa Italiana lo ha affrontato anche in una recente riunione del suo consiglio nazionale a Roma, portando avanti il dibattito sul futuro della professione nell’era digitale. Il momento che il sistema dell’informazione sta attraversando non è altro che l’ennesima svolta della propria storia. Analogamente a quanto accaduto negli anni ’80 con il passaggio dalla stampa a piombo alla composizione a freddo, oggi la digitalizzazione rischia di infliggere il colpo finale a una professione già minacciata nel suo ruolo primario di garante della democrazia e dell’informazione libera: dalla delegittimazione agli occhi dell’opinione pubblica alle logiche editoriali taglia-costi, dalla precarizzazione del lavoro giornalistico allo spostamento del suo valore aggiunto dal contenuto alle dinamiche di distribuzione.

Governare la rivoluzione digitale

In questo contesto per certi versi scoraggiante, ai giornalisti resta l’opportunità – ma soprattutto il dovere – di governare questa rivoluzione digitale. Perché il fenomeno rischia di svuotare non solo le redazioni ma anche la democrazia. L’alternativa è rinunciare al duplice ruolo di questa professione, che ha sempre visto i giornalisti da un lato osservatori capaci di analizzare i fatti dell’oggi per anticipare i trend futuri nella politica, nella società e nell’economia, dall’altro smascheratori delle mistificazioni della realtà da parte dei cosiddetti “poteri forti”.

I giornalisti hanno il dovere di farlo, se hanno a cuore la democrazia. Perché lasciata nelle mani degli ingegneri informatici questa rivoluzione non ha speranza di avere esito positivo. I “big player” hanno già iniziato a muoversi in questo senso. Nel 2019 GoogleNews Initiative ha lanciato insieme alla London School of Economics un congresso annuale chiamato “Journalism AI” con speaker che vanno del New York Times al Wall Street Journal, dal Guardian alla Bayerischer Rundfunk o a Der Spiegel. Il Gruppo Sole 24 Ore è stata l’unica realtà italiana a partecipare sia alla survey che al congresso annuale. Ricchissimo il rapporto del docente della LSE Charlie Beckett, gratuitamente scaricabile dal sito del festival, seppure condotto fra 116 giornalisti “early adopters” e dunque più propensi alla tecnologia rispetto a un campione medio. Il sito propone inoltre le videoconferenze integrali e corsi di machine learning per giornalisti.

Sugli stessi temi a gennaio 2021 Reuters ha pubblicato il rapporto “Journalism, Media and Technology Trends and predictions 2021” (di cui su questo sito abbiamo parlato a proposito di robot in redazione e di “Covid bump”, ndr) realizzato in collaborazione con l’università di Oxford. AP ha avviato nella sua sede di New York un progetto di implementazione dell’AI nella produzione dei contenuti anche a livello locale.

La bussola del rispetto della verità dei fatti

Ci sono problematiche derivanti dalle applicazioni dell’AI all’informazione che solo la deontologia giornalistica può essere in grado di gestire in modo etico e rispettoso della verità dei fatti. E la tecnologia in questo senso deve essere alleata dei giornalisti. Solo per citare una delle numerose realtà di riferimento per la materia, al Multimedia Signal Processing and Understanding Lab (MMLab) del Dipartimento di Ingegneria e Scienza dell’Informazione dell’Università di Trento si studia – prevalentemente a fini forensi, dunque con una certa oggettività scientifica – come distinguere dati generati o modificati tramite l’AI da oggetti mediatici autentici (ad esempio rilevando che è stato eliminato un soggetto da un video con tecniche di inpainting), e si indaga la diffusione di tali dati su social media e canali web. Un’attività che si svolge nell’ambito di progetti finanziati dall’Unione Europea come Premier (PREserving Media trustworthiness in the artificial Intelligence Era) o Unchained (Uncovering media manipulation chains through container and content detectable traces).

La tecnologia semplifica, ma non inventa

L’implementazione dell’AI nel quotidiano giornalistico deve servire a semplificare il lavoro, demandando alla tecnologia quelle operazioni a basso valore aggiunto che rubano tempo alle inchieste, come il captioning automatico di foto e video o la generazione automatica di post per i social networn da articoli giornalistici e dunque da contenuti controllati e verificati. E soprattutto, con Cucchiara va ricordato che “L’intelligenza non è artificiale”. I generatori automatici di articoli giornalistici oggi funzionano molto bene per le cronache sportive, le previsioni meteo e gli articoli di borsa – dove l’input nel sistema consiste tipicamente in tabelle numeriche – ma sono ancora lontani – per motivi economici, di disponibilità di dati e di impatto ecologico – dalla capacità di estrarre contenuto senza un’intelligenza umana che gli spieghi cosa fare e come imparare a farlo. Questa intelligenza umana dev’essere un giornalista. Un secondo elemento, inoltre, non va dimenticato: i generatori automatici di testi saranno anche piuttosto evoluti per la lingua inglese, ma sicuramente per l’italiano c’è ancora molto da fare.

I bias (razzisti) della statistica

Un caso per tutti che illustra la necessità di governare l’AI con umanità ed etica è quello della ricerca per immagini su Google. Il Washington Post ha denunciato il bias che emergeva con imbarazzante evidenza quando per la ricerca di “three white teenagers” comparivano immagini di ragazzi bianchi intenti a giocare o a chiacchierare, mentre per quella di “three black teenagers” uscivano foto segnaletiche della polizia di giovani arrestati per reati minori. Questo accade perché l’AI si si basa sull’analisi statistica dei dati a propria disposizione (dati testuali sul web e database di varia natura) e produce risultati probabilistici sulla base dei dati analizzati, dunque esattamente intelligente non è, diciamo che piuttosto “tira a caso” la risposta statisticamente più probabile.

Il costo ambientale degli algoritmi

Per avere un’idea delle dimensioni: il più recente sistema di scrittura automatica T5 è stato allenato su 130 miliardi di parole, mentre a un bambino bastano 8 milioni di parole (circa 10 volte la Bibbia) nei primi 2 anni di vita per imparare a manifestare l’esigenza di risposta ai propri bisogni fondamentali. Per questo gli algoritmi esistenti sono estremamente onerosi economicamente ma anche ambientalmente: allenare il più recente e “sobrio” generatore di testi di Google – BERT – che impara a scrivere da “appena” 3,3 miliardi di parole costa in termini di CO2 come sorvolare gli Stati Uniti coast-to-coast.

Silvia Fabbi
Giornalista

 

Immagine di copertina di Su San Lee da Unsplash.

Cosa possiamo fare per te?
Scrivi a segreteria@blum.vision o usa il form qui sotto.
Parliamone