Deepfake: dobbiamo conviverci? Troviamone il lato positivo

Michela Morelli

Quella del titolo di questo articolo è volutamente una provocazione. Ciò che sappiamo finora dei deepfake non lascia presagire nulla di buono dall'uso di questa tecnica di sintesi dell'immagine umana. Mentre si rende sempre più necessaria ed urgente la ricerca di una strategia per mettersi al riparo da quella che può essere a tutti gli effetti considerata un'arma, non manca chi prova a trovare nel deepfake un lato positivo. Che è molto marginale, ma c'è.

Cos'è un deepfake

Il termine deepfake è relativamente giovane. Nasce nel 2017 e indica "una tecnica per la sintesi dell'immagine umana basata sull'intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa." Scriviamo del deepfake in un momento storico molto particolare, in cui il dibattito sull'intelligenza artificiale (che ai deepfake, come anticipato, è legata a doppio filo) si fa ogni giorno più infuocato. Non c'è testata giornalistica che, quotidianamente, non riporti notizie su prodotti dell'AI, più o meno controversi. Tra questi ci sono, inevitabilmente, i deepfake. Video ed immagini realistici in maniera addirittura impressionante, nei quali personaggi noti fanno e dicono cose che da loro non ci si aspetterebbe. In alcuni casi le immagini "incriminate" sono state utilizzate proprio per allertare sui pericoli dei deepfake, come nel caso del video creato da Jordan Peele e Jonah Peretti già nel 2018, che vedeva protagonista un inedito Barack Obama. In altri casi i video sono stati utilizzati a scopo di satira. Nel realizzarsi della peggiore delle ipotesi, invece, i deepfake sono a sfondo pornografico e coinvolgono persone comuni o ignare celebrità.

amanda-dalbjorn-UbJMy92p8wk-unsplash.jpg

Le tipologie di deepfake sono potenzialmente infinite, ma possono essere raggruppate in queste categorie:

  1. Face swaps: letteralmente "scambio di faccia". Il deepfake più comune e diffuso è quello in cui il volto di una celebrità viene trasposto su un altro corpo, con risultati tra il divertente e il grottesco (Nicolas Cage, per qualche strano motivo, presta inconsapevolmente il volto ad una quantità impressionante di video circolanti in Rete);

  2. Lip-syncing: letteralmente "sincronizzazione delle labbra". Anche questa tipologia di video è estremamente diffusa su Internet, ed esistono già app alla portata di tutti che ricreano questo effetto dalle conseguenze potenzialmente disastrose. Grazie a questo tipo di deepfake si può letteralmente far dire qualsiasi cosa a chiunque. Riuscite ad immaginarne gli effetti?

  3. Puppet master: letteralmente "burattinaio". L'immagine di una persona viene scambiata completamente con quella di un'altra, che le fa compiere azioni di qualsiasi genere.

Volete vedere qualche esempio di deepfake? Eccone alcuni in questo video di Bloomberg:

Se siete impressionati, ecco per voi la cattiva notizia: il video risale a ben 4 anni fa, praticamente un'eternità in termini di sviluppo tecnologico.

I settori più a rischio e i possibili usi dei deepfake

Ad oggi riesce abbastanza difficile immaginare un uso dei deepfake che vada oltre l'intrattenimento (nella migliore delle ipotesi) e l'illecito (nella peggiore). I settori che sono più esposti ai rischi dell'intelligenza artificiale prestata alla sintesi dell'immagine umana sono quelli della politica nazionale e internazionale, della sicurezza e della giustizia.

Per quanto riguarda i possibili usi illeciti dei deepfake, Agenda Digitale ha creato un elenco che non può sicuramente essere completo, ma che è già abbastanza inquietante e variegato:

  • Molestie online e cyber-bullismo;
  • Frode ed estorsioni;
  • Falsificazione di documenti e identità;
  • Falsificazione e manipolazione di prove digitali per investigazioni penali.

E se l'intelligenza artificiale diventasse un'utile alleata?

Siamo abituati a pensare all'intelligenza artificiale come ad una causa del problema, più che ad una soluzione. Ma nel caso dei deepfake potremmo dover cambiare idea. Lo pensa anche Walter Rivera di Intel, che sta lavorando alla tecnologia FakeCatcher, la piattaforma per la rilevazione in tempo reale dei deepfake. A Rimini, in un incontro incentrato su un'intelligenza artificiale responsabile nell'ambito della Fiera e Festival sull'Innovazione Tecnologica e Digitale We Make Future, Rivera ha detto: "la IA porta con sé un fascino innegabile, ma non tanto da dimenticare che bisogna farne un uso responsabile. Siamo tra le prime compagnie che oltre a fornire un portafoglio ricchissimo di hardware e software per realizzare questo tipo di tecnologie, forniscono gli strumenti per fare in modo che vengano usate al meglio senza danneggiare le persone. Siamo tra le prime che hanno fatto partire un'iniziativa in tal senso, Responsible AI, che prevede diversi sforzi: uno tra i quali è il fake catcher, che non è altro che uno strumento basato su intelligenza artificiale che si pone la domanda di cosa ci rende umani. Fondamentalmente, cosa ci rende veri".

Come fa, in concreto, FakeCatcher a capire se ci si trova davanti ad una persona reale o ad un deepfake? Il software rileva le micro variazioni di colore sulla nostra pelle e la nostra carnagione, legati alla circolazione sanguigna, le relazioni tra i due bulbi oculari ed altri dettagli che l'AI e i deepfake non possono attualmente replicare. A Rivera è stata posta, in un'intervista di Adnkronos, una domanda un po' provocatoria: L'intelligenza artificiale salverà il mondo o distruggerà l'umanità? Ecco la sua risposta: "Ragionare in termini allarmistici o troppo entusiastici è pericoloso. Serve tanta, tanta, consapevolezza."

towfiqu-barbhuiya-em5w9_xj3uU-unsplash.jpg

Esistono usi leciti dei deepfake?

Abbiamo aperto questo articolo con una provocazione: e se il deepfake non fosse il male assoluto? Se ci fosse addirittura qualcosa di positivo nella creazione di un'immagine, un video o un audio completamente falsi? La verità è che, come recita il vecchio adagio popolare, non tutti i mali vengono per nuocere. Nonostante sembri controintuitivo, esistono casi in cui l'utilizzo dei deepfake può essere lecito o addirittura scoraggiarne l'uso per finalità illecite. Ecco alcuni casi, solo a titolo esemplificativo:

  • alcune celebrità utilizzano deepfake creati con la loro immagine, su licenza: nonostante si possa discutere all'infinito sull'utilità di un simile sistema, in cui una celebrità viene pagata unicamente per l'utilizzo della propria immagine, ma in cui la performance di qualsiasi tipo è del tutto relegata al fake digitale, la pratica è più diffusa di quello che si pensa. E, finché la transazione economica è consensuale e legale, non vediamo davvero cosa ci possa essere di male;
  • la tecnologia alla base dei deepfake può essere utilizzata per ridare una voce a persone che, per patologie o incidenti, perdono l'uso della propria. È il caso di malattie degenerative e invalidanti, il cui decorso è purtoppo noto in partenza. Grazie a queste tecnologie la voce della persona che lo desideri può essere registrata e poi sintetizzata per continuare a comunicare nella maniera più "realistica" possibile. Anche in questo caso la liceità della pratica sta tutta nel consenso di chi presta voce e immagine.
  • la facilità e indistinguibilità dei deepfake potrebbe scoraggiare la diffusione non consensuale di materiale intimo, perché le immagini sarebbero false fino a prova contraria. È l'ipotesi avanzata dal magazine L'indiscreto, in un articolo del dott. Marco Viola dalla chiosa davvero particolare: "Tutto sommato, al pensiero che le immagini si svuotino del peso che siamo abituati a dare loro, io forse mi sento più leggero. E voi?"

Sigma Consulting

Indagini di mercato, Ricerche sociali, Insight per le decisioni

Via del cinema, 5 - 61122 Pesaro
+39 0721 415210
info@sigmaconsulting.biz

Sigma Consulting srls unipersonale – P. Iva 02625560418 - Capitale sociale € 2.000,00 i.v. - REA PS 196812 - Privacy Policy - Cookie Policy -