Deepfakes Explained: L’intelligenza artificiale che rende falsi i video troppo convincenti

deepfakes-spiegato

Vedere per credere. Bene, almeno questo era il caso prima che ci rendessimo conto che le persone potevano fare dei video medici per spingere le bufale e riscrivere la storia. Mentre abbiamo trovato il modo di ridimensionare la maggior parte delle immagini, c'è uno sviluppo tecnologico che sta prendendo piede così rapidamente che presto non sapremo più come dire cosa è reale e cosa è falso.

Deepfakes cambia tutto ciò che pensavamo possibile in termini di video dottorato. Ecco tutto ciò che devi sapere su di loro …

Quali sono i Deepfakes?

Il termine deepfakes deriva da una combinazione di parole "deep learning" e "falsi". Questo perché i software di intelligenza artificiale addestrati alla sintesi di immagini e video creano questi video. Questa intelligenza artificiale può sovrapporre il volto di un soggetto (la fonte) a un video di un altro (l'obiettivo). Forme più avanzate della tecnologia possono sintetizzare un modello completamente nuovo di una persona usando i gesti facciali e le immagini o il video del soggetto che desiderano impersonare.

La tecnologia può realizzare modelli facciali basati su dati visivi limitati, come un'immagine. Tuttavia, maggiore è il numero di dati che l'intelligenza artificiale deve superare, più realistico è il risultato.

Questo è il motivo per cui i politici e le celebrità sono obiettivi così facili per i deepfakes poiché ci sono così tanti dati visivi disponibili online che il software può utilizzare. Dato che il software deepfake è disponibile su piattaforme open source, le persone su Internet si stanno continuamente affinando e sviluppando il lavoro degli altri.

Le origini della tecnologia AI Deepfake

La tecnologia alla base di deepfakes è stata sviluppata per una moltitudine di scopi. Proprio come Photoshop, il software ha usi professionali, di intrattenimento e hobbisti. E proprio come Photoshop, nonostante il creatore non abbia intenzioni malevole nella creazione del software, questo non ha impedito alle persone di utilizzarlo per scopi dannosi.

La tecnologia di scambio di volti è stata inizialmente utilizzata principalmente nell'industria cinematografica. Una delle più famose è nel film del 2016 Rogue One: A Star Wars Story. Nel film, i registi hanno utilizzato la tecnologia di sintesi del viso e di sintesi video per ricreare il personaggio di Grand Moff Tarkin. Nel film è stata creata anche una versione più giovane della Principessa Leia. In entrambi i casi, i modelli dei volti degli attori originali sono stati sovrapposti a attori stand-in.

App come Snapchat utilizzano anche la tecnologia di scambio facciale per creare divertenti filtri per gli utenti. Gli sviluppatori di queste app perfezionano continuamente il rilevamento e il tracciamento dei volti per applicare questi filtri in modo più efficace.

Nel frattempo, altri hanno sviluppato strumenti di sintesi video per creare ologrammi a scopo didattico. Ad esempio, un progetto ha sviluppato un software di sintesi video e facciale in modo che la testimonianza dei sopravvissuti all'Olocausto potesse essere presentata come ologramma interattivo in un museo.

Perché i Deepfakes stanno rendendo le persone nervose

Quando le persone si sono rese conto che i truffatori e le persone che giocavano le bufale utilizzavano Photoshop per creare immagini false, dovevamo essere più scettici su ciò che consideravamo una prova. Fortunatamente, c'erano molti modi per scoprire se un'immagine fosse falsa, anche ad occhio nudo.

Oltre a ciò, la creazione di un'immagine di dottorato convincente in Photoshop è relativamente laboriosa. Non solo chiunque può schiaffare due immagini e renderle realistiche.

Ma i profondi sono diversi. L'apprendimento automatico semplifica la vita , ma in questo caso rende l'imitazione molto più semplice. Innanzitutto, il software è ampiamente e liberamente disponibile. FakeApp, ad esempio, è una scelta popolare per la creazione di deepfakes. Non hai bisogno di competenze avanzate per applicare un face-swap, il software lo farà per te.

Dal momento che l'intelligenza artificiale e l'apprendimento profondo aiutano a creare deepfakes, la tecnologia migliora e diventa più convincente a un ritmo allarmante. Non passerà molto tempo prima che queste modifiche non siano visibili ad occhio nudo.

In un mondo pieno di notizie false, i convincenti attacchi profondi potrebbero rivelarsi una forza caotica contro ciò che crediamo sia vero.

L'ascesa dei deepfakes si sta verificando anche in un momento in cui la sintesi vocale di IA avanza rapidamente. L'AI non solo può generare video falsi, ma può anche generare modelli vocali per le persone.

Ciò significa che non avresti bisogno di un sosia per far sembrare che un politico stia facendo dichiarazioni oltraggiose. Puoi allenare l'IA a imitare invece la loro voce.

The Consequences of Deepfakes

Le persone usano già deepfakes per scopi dannosi. Le persone spesso utilizzavano FakeApp per creare video falsi di attrici famose impegnate in contenuti per adulti.

Gal Gadot, Daisy Ridley e Emma Watson sono solo alcune delle attrici prese di mira da falsi video per adulti. Questi deepfakes scambiano le facce delle attrici in video di star del cinema per adulti.

Mentre diverse piattaforme e alcuni siti Web per adulti hanno vietato questo tipo di video, ogni giorno appaiono più. In effetti, alcuni siti web creano video per adulti celebrità deepfake in base alle richieste degli utenti.

Nella maggior parte dei paesi, nessuna legge si occupa ancora di questo tipo di contenuti, rendendo difficile il controllo.

Mentre siamo ancora lontani dalla distopia dominata dalla disinformazione e dalle false prove video che vediamo in film come The Running Man, siamo già fin troppo familiarizzati con gli effetti delle notizie false .

Deepfakes può essere un potente strumento per diffondere disinformazione. Nessuno è stato incastrato per un crimine o ha simulato la sua morte usando deepfakes, ma cosa succede quando diventa difficile capire quali video sono veramente reali?

Le conseguenze dei deepfakes utilizzati per scopi politici sono duplici. In primo luogo, rende le notizie false molto più facili da diffondere. I video hanno più probabilità del testo o delle immagini di convincere la gente che è accaduto qualcosa di fittizio.

Le persone già credono nei titoli di falsi siti web senza prove a sostegno della loro storia. All'improvviso, le storie false avranno "prove" che mostrano i politici che confessano i loro errori o fanno affermazioni oltraggiose.

D'altra parte, i profondi attacchi potrebbero anche incoraggiare i politici a schivare la responsabilità. Potrebbero sempre facilmente affermare che una registrazione audio o video è in realtà un deepfake.

Come stiamo combattendo Deepfakes?

Mentre molte aziende tecnologiche stanno prendendo il loro tempo per regnare nei deepfakes, una varietà di persone sta sviluppando strumenti per combattere video falsi maliziosi. L'intelligenza artificiale può combattere hacker e crimini informatici , ma è anche utile per rilevare la manomissione dell'IA nei video.

La Fondazione AI ha creato un plug-in del browser chiamato Reality Defender per aiutare a rilevare i contenuti Deepfake online. Un altro plug-in, SurfSafe, esegue anche controlli simili. Entrambi questi strumenti mirano ad aiutare gli utenti di internet a distinguere i fatti dalla finzione.

Anche siti Web che controllano i fatti come Snopes si sono estesi a chiamare video dottorati. Ma non hanno ancora gli strumenti per rilevare automaticamente i deepfakes.

Persino il Dipartimento della Difesa degli Stati Uniti ha investito in software per rilevare i deepfakes. Dopo tutto, cosa accadrebbe se un video convincente di un leader mondiale apparisse online, dichiarando guerra o lancio di un missile contro un altro paese? I governi hanno bisogno di strumenti per verificare rapidamente la legittimità di un video.

Conseguenze non intenzionali di Machine Learning

Non c'è dubbio che la tecnologia AI e il deep machine learning migliorano le nostre vite in molti modi. Ma la tecnologia ha anche conseguenze non volute.

Anche se i dati errati rappresentano un grosso ostacolo per gli algoritmi di apprendimento automatico, anche l'elemento umano ha un ruolo. È difficile prevedere in che modo le persone possono utilizzare determinate tecnologie a scopi dannosi. Puoi trovare ulteriori informazioni sull'apprendimento automatico e sugli errori del passato nella nostra guida agli algoritmi di apprendimento automatico e perché si sbagliano .

Leggi l'articolo completo: Deepfakes Explained: L'intelligenza artificiale che rende falsi i video troppo convincenti

Fonte: makeuseof.com

Precedente Chromecast vs Roku: qual è il migliore per te? Successivo LinkedIn finalmente arriva a lanciare la sua versione di Storie

Rispondi