Una delle minacce informatiche più recenti è rappresentata dai deepfake, ovvero immagini, video e audio falsi che vengono manipolati per sembrare autentici. L’IA ha la capacità di creare deepfake, ovvero immagini, video o registrazioni audio manipolate che vengono fatte sembrare e suonare come quelle reali. Con l’aiuto dell’intelligenza artificiale, gli hacker possono creare deepfake molto convincenti, quasi impossibili da distinguere da quelli reali.
L’FBI ha recentemente lanciato un allarme sui deepfake e sul loro potenziale impatto sulle aziende. I deepfake includono la creazione di personaggi aziendali sintetici e sofisticate emulazioni di dipendenti esistenti. L’FBI avverte che questi attacchi possono provocare danni finanziari e di reputazione significativi alle aziende vittime.
Le personalità aziendali sintetiche sono personalità artificiali generate al computer e create con la tecnologia deepfake. Questi personaggi sono utilizzati per imitare i dipendenti esistenti e possono potenzialmente causare problemi significativi come frodi o altre attività criminali. Possono essere utilizzati per accedere a informazioni riservate, manipolare i dati e interrompere le operazioni dell’organizzazione. Le persone aziendali sintetiche possono essere difficili da rilevare e richiedono strumenti specializzati per identificarle e impedire che causino danni.
L’uso dell’intelligenza artificiale negli attacchi informatici rende molto più pericolosi i deepfake. Gli hacker possono utilizzare l’intelligenza artificiale per creare attacchi altamente personalizzati e mirati. Questi attacchi sono progettati per ingannare persone e organizzazioni e indurle a divulgare informazioni sensibili o a completare transazioni fraudolente. Gli hacker spesso conducono ricerche approfondite per ottenere informazioni sui loro obiettivi, come profili di social media, indirizzi e dettagli di lavoro, per rendere i loro attacchi più convincenti e credibili.
Contents
Un clamoroso caso di Deepfake
Un caso clamoroso è successo ad Hong Kong, dove un manager di una filiale della Banca ha ricevuto una telefonata dal direttore della banca, che gli ha chiesto di portare a termine un compito speciale che gli avrebbe consentito di ottenere una promozione. Il manager doveva inviare 35 milioni di dollari a 17 diversi conti bancari situati in tutto il mondo per completare l’acquisizione di una società finanziaria europea. Il direttore ha inviato al manager diverse e-mail per validare l’autenticità della transazione, tra cui contratti firmati e l’e-mail di un avvocato con sede negli Stati Uniti. Il manager ha controllato che l’indirizzo e-mail appartenesse al direttore e ha proceduto al trasferimento del denaro. Tuttavia, non sapeva che l’intera transazione era un sofisticato attacco basato sull’intelligenza artificiale, progettato per rubare il denaro della banca.
Il manager non sapeva di essere stato vittima di un attacco deepfake. La persona all’altro capo della telefonata, delle e-mail e dei contratti non era in realtà il direttore della banca, ma un hacker che aveva hackeato l’e-mail del direttore e che con l’aiuto dell’intelligenza artificiale parlava come il direttore della banca. Gli hacker hanno usato l’intelligenza artificiale per creare un personaggio sintetico convincente. Per circa un anno hanno registrato tutte le conversazioni telefoniche del direttore della Banca e poi le hanno sottoposte alla Intelligenza Artificiale che è stata allenata ad imitare il tono e la voce del Direttore.
Come vengono utilizzati i deepfake
Questo scenario può sembrare uscito da un film di fantascienza, ma è successo e continua a succedere tutti i giorni. I progressi dell’intelligenza Artificiale sono una minaccia molto reale che le aziende devono affrontare oggi. Tra le altre cose, i deepfake possono essere utilizzati non solo per impersonare dirigenti o partner commerciali, ma anche per creare notizie false o post sui social media o persino manipolare filmati per far sembrare che qualcuno stia dicendo o facendo qualcosa che non ha fatto.
Questo può avere gravi conseguenze per le aziende. Ad esempio, i video deepfake potrebbero essere utilizzati per diffondere informazioni false su un’azienda o sui suoi prodotti, danneggiandone la reputazione e causando perdite finanziarie. Le registrazioni audio deepfake potrebbero essere utilizzate per indurre i dipendenti a condividere informazioni sensibili o a trasferire fondi su conti fraudolenti, come nello scenario descritto in precedenza.
Inoltre, alcune società di marketing del DarkWeb hanno iniziato a offrire deepfake come servizio, (DaaS), con prezzi che variano a seconda della sofisticazione del prodotto richiesto. Se il prezzo richiesto per un deepfake autentico è proibitivo, i malintenzionati possono comunque acquistare il software per creare un deepfake a partire da 25 dollari.
Cosa possono fare le aziende per proteggersi dagli attacchi basati sull’intelligenza artificiale? Il primo passo è riconoscere la minaccia e prenderla sul serio. Molte aziende si affidano ancora alle misure di cybersecurity tradizionali, come firewall e software antivirus, che sono sempre più inefficaci contro gli attacchi basati sull’intelligenza artificiale.
Il principio dei quattro occhi
Al fine di evitare di cadere vittima dei deepfake, il principio dei quattro occhi può aiutare le organizzazioni a ridurre il rischio di frodi ed errori ed a garantire che tutte le decisioni siano prese con la piena consapevolezza del team.
Il principio dei quattro occhi è un meccanismo di controllo del rischio in cui due o più persone devono rivedere e approvare un’azione prima di poterla intraprendere. Ciò contribuisce a ridurre il rischio di frodi ed errori e garantisce che le decisioni importanti siano prese con la piena conoscenza del team o dell’organizzazione. Il principio dei quattro occhi può essere implementato nei processi di approvazione basati sui documenti aggiungendo persone qualificate nell’elenco di approvazione e assicurando che due di loro rivedano e approvino ogni azione
In conclusione, l’IA è uno strumento potente che può essere utilizzato sia per scopi positivi che negativi. Se da un lato ha il potenziale per trasformare molti aspetti della nostra vita, dall’altro rappresenta una seria minaccia per le aziende che non sono preparate a difendersi dagli attacchi basati sull’IA.