Foto fake. Da Adobe al NY Times, ecco il «certificatore» online
Immaginate di avere la certezza che la fotonotizia che avete trovato in rete sia veritiera, e non un fotomontaggio. Immaginate di potervi fidare in modo inequivocabile dell’autenticità dell’immagine che vi è appena arrivata via mail.
Non serve immaginare, perché la Content Authenticity Initiative (CAI), l’ambizioso progetto lanciato nel 2019 da Adobe, Twitter e New York Times per creare uno standard condiviso per certificare l’autenticità delle immagini che circolano sul web, l’ha reso possibile. Dopo due anni di sperimentazioni, con l’ultima versione di Photoshop – il software di photo-editing di Adobe, di gran lunga il più utilizzato nel settore – sarà possibile esportare qualsiasi immagine con una serie di metadati che riportano tutte le singole manipolazioni che l’immagine stessa ha subito, inclusi eventuali ritagli e ritocchi, oltre a conservare tutti i dati relativi all’immagine originale.
Un’alleanza tra tech-companies, programmatori e giornalisti
CAI riunisce tech-companies, creator, programmatori, giornalisti e attivisti in tutto il mondo, allo scopo di creare un sistema aperto e trasparente di verificabilità dei contenuti online, per contrastare la disinformazione. Tra le organizzazioni affiliate ci sono anche Microsoft, Nikon, GettyImages, BBC, Qualcomm e Washington Post, e molte altre.
CAI è un consorzio che punta a creare uno standard universale per garantire l’autenticità delle immagini online, basato su sei princìpi: la privacy dei reporter e dei creator, l’accessibilità degli strumenti software impiegati, la loro interoperabilità tra ecosistemi informatici diversi, la semplicità di utilizzo, l’estensibilità a diverse situazioni di utilizzo, e la natura open dell’infrastruttura software.
Come funziona la Content Authenticity Initiative
I programmi di editing che supportano lo standard CAI (il consorzio ha già assicurato che, trattandosi di un sistema open source, sarà implementabile anche programmi non Adobe) offriranno la possibilità di esportare immagini con una serie di metadati che riportino tutte le informazioni sul file originale (inclusa una copia della foto così come è stata scattata) e sul dispositivo su cui è stato creato, oltre a tutte le informazioni sulle operazioni di editing che sono state apportate.
Tutte queste informazioni sono visualizzabili direttamente su browser grazie a un’icona presente sull’immagine. Passandoci sopra l’icona del mouse, comparirà un pop-up con l’origine e la cronologia di editing della foto. CAI mette a disposizione anche una piattaforma per verificare un’immagine salvata sul proprio dispositivo. Basterà caricarla per visualizzare immediatamente i metadati salvati.
Sembra Blockchain ma non è
Per quanto ci si avvicini molto, quantomeno nelle finalità, lo standard CAI non è un sistema Blockchain. Più semplicemente (si fa per dire), invece, utilizza un sistema di crittografia che rende impossibile l’alterazione dei metadati. È bene però fare una precisazione: lo standard CAI non è un sistema in grado di stabilire univocamente se un’immagine è un fake, quanto più il contrario. È in grado di garantire l’autenticità dell’immagine che presenta gli opportuni metadati. La differenza è sottile ma sostanziale: lo standard CAI è uno strumento potente, ma la sua efficacia dipende in ultima istanza dai singoli utenti, che dovranno sviluppare un nuovo senso critico nel dubitare di quelle immagini che non sono “validate” con i metadati CAI. Questa sensibilità potrà alimentare, in un circolo virtuoso, una sempre più capillare adozione dello standard.
«È un semplice principio a guidare I nostri sforzi pe combattere la disinformazione», spiega Scott Lowenstein, del team R&D del New York Times. «Le persone hanno il diritto di sapere qual è la fonte di ciò che leggono online. Le conseguenze negative della disinformazione per la società sono sempre più importanti. Quante più persone avranno accesso alle informazioni sulla vera origine dei contenuti di cui fruiscono, meno spazio ci sarà per le fake news».
Roberto Rafaschieri