I deep fake saranno sempre più usati per gli attacchi hacker: come identificarli

deep-fake-usati-attacchi-hacker
Condividi:

Un deep fake è l’atto di sostituire maliziosamente immagini, video e audio reali con altri fasulli per manipolare le informazioni. Per creare immagini, video e audio di qualità sufficientemente elevata da poter essere utilizzati in deep fake, sono necessari Intelligenza Artificiale e Machine Learning.

Anche i cattivi utilizzano Chat GPT

Etay Maor, Senior Director of Security Strategy presso Cato Networks conferma “Per aggiungere complicazioni, i recenti progressi e l’accessibilità al testo generato dall’intelligenza artificiale, come GPT3, sono già stati utilizzati in combinazione con deepfake per creare contenuti interattivi dall’aspetto reale”.

Che aspetto hanno i deep fake?

I deep fake sono disponibili in tutte le forme e dimensioni. Alcuni sono più semplici e alcuni sono più avanzati. Alcuni degli esempi più popolari di deep fake sono:

Face swap

Lo scambio di volti è l’atto di sostituire il volto in un video o in un’immagine da una persona a un’altra. Lo scambio di volti richiede un software dedicato, ma non deve essere necessariamente basato su una tecnologia avanzata: oggi si possono persino trovare app mobile che supportano lo scambio di volti. Lo scambio di volti disponibile in queste app è solitamente limitato a casi d’uso semplici, come lo scambio tra le foto dell’utente e i volti degli attori nelle scene dei film.

Esiste uno scambio di volti più avanzato ma richiede più addestramento e utilizzo di codice e, di conseguenza, GPU (graphics processing unit, unità di elaborazione grafica). Ciò è costoso e richiede molte risorse.

Puppet Master (sincronizzazione labiale)

Il deep fake di tipo “Puppet Master” è una tecnica in cui l’immagine dei movimenti della bocca di una persona viene manipolata, facendo sembrare che la persona stia dicendo qualcosa che in realtà non ha detto. Rispetto allo scambio di volti, che addestra un modello sul nuovo volto scambiato, “Puppet Master” addestra un modello sul volto dell’immagine originale, e in particolare sui movimenti della bocca.

Audio

Il terzo tipo importante di deep fake è basato sull’audio. Gli audio deep fake sono file audio che prendono la voce di una persona reale e fanno sembrare che stia dicendo qualcosa che non ha mai detto. I deep fake audio vengono creati prendendo file audio, assegnando annotazioni ai suoni, addestrando un modello Machine Learning basato sulle annotazioni per associare i suoni al testo e quindi generando un nuovo file audio.

Esempi di rischi informatici con i deep fake

I deep fake sono diventati più realistici e accessibili e sono anche più veloci da creare che mai. Questo li rende un potente strumento. Di conseguenza, rappresentano un rischio per le imprese e per i Paesi. Possono essere utilizzati per la criminalità informatica, social engineering, frodi, da parte di “nazioni canaglia” per influenzare le operazioni estere e altro ancora.

Ad esempio, il deep fake è stato utilizzato per imitare la voce di un CEO e convincere un dirigente a trasferire $ 243.000 a un conto truffa.

In un altro caso, un deep fake è stato presentato come prova in un caso di custodia dei figli.

I deep fake possono essere utilizzati anche per diffondere disinformazione per influenzare l’opinione pubblica o oscurare la verità. Ad esempio, i deep fake potrebbero essere utilizzati per impersonare leader mondiali e innescare un attacco, o per impersonare un CEO e manipolare il prezzo delle azioni di una società.

In altri casi, i deep fake spingono le persone a negare tutte le fonti dei media affermando che sono tutti deep fake, generando nella società un senso di sfiducia.

Infine, il deep fake può essere utilizzato per la diffamazione, cioè per danneggiare la buona reputazione di qualcuno. Ad esempio, creando revenge porn.

Come rilevare deep fake

Alcuni metodi di rilevamento sono meno sofisticati e si basano su modelli di Machine Learning addestrati per identificare artefatti o pixellazioni introdotte attraverso il processo di generazione di deep fake. Questi artefatti possono essere impercettibili all’occhio umano, ma i modelli, che sono stati addestrati su immagini reali e immagini false, sono in grado di rilevarli.

Altri metodi di rilevamento sono più sofisticati e utilizzano modelli in grado di identificare caratteristiche semanticamente significative. Questi includono movimenti innaturali, come sbattere le palpebre, movimenti della testa o manierismi unici e discrepanze fonema-visema.

Questi metodi di rilevamento sono considerati accurati. Tuttavia, man mano che la tecnologia deep fake migliora e diventa più sofisticata, si prevede che diventino meno efficaci e dovranno essere aggiornate e migliorate.

Ti è piaciuto questo articolo? Contatta Noi Sicurezza per una consulenza in sicurezza informatica:

    Il tuo nome*

    La tua email*

    Il tuo telefono*

    La tua città

    Il tuo messaggio

    * campo obbligatorio

    Condividi:

    Lascia un commento

    Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.