DeepLocker: il malware che nasconde il suo attacco fino a quando non vede il tuo volto

Intelligenza artificiale e sicurezza informatica: le nuove sfide dei ransomware basati sull’IA

L’intelligenza artificiale (IA) costituisce una tecnologia avanzata che consente alle macchine di apprendere, ragionare e agire in modo intelligente. Mentre presenta numerose applicazioni positive, si accompagnano anche rischi significativi, soprattutto nel contesto della sicurezza informatica.

L’AI sta aprendo nuove possibilità per gli hacker che potrebbero utilizzarla per rendere i ransomware ancora più pericolosi in futuro. La generazione di contenuti convincenti, l’automazione degli attacchi e l’adattamento personalizzato sono solo alcune delle minacce che l’AI potrebbe portare. Per contrastare queste minacce, il rapporto del NCSC raccomanda l’aggiornamento e la protezione dei sistemi informatici, la sensibilizzazione e la formazione degli utenti, nonché la collaborazione e lo scambio di informazioni con altre organizzazioni.

Per proteggersi da queste minacce future, il rapporto del NCSC consiglia di mantenere i sistemi informatici aggiornati e protetti, educare gli utenti sui rischi e le buone pratiche di sicurezza informatica e collaborare con altre organizzazioni per condividere informazioni e coordinare azioni di risposta. L’AI rappresenta sia un’opportunità che una sfida per la sicurezza informatica, e bisogna adottare una strategia proattiva per affrontare questi rischi.

Uno degli attacchi più preoccupanti è il ransomware, un malware che cripta i dati di un sistema informatico e richiede un riscatto per il ripristino dell’accesso. Secondo il rapporto del NCSC, l’utilizzo dell’IA potrebbe intensificare la pericolosità del ransomware in diversi modi.

Innanzitutto, gli strumenti di AI generativa, come i modelli linguistici, possono creare contenuti persuasivi, quali testi, immagini, audio e video, difficilmente distinguibili dalla realtà, al fine di ingannare le vittime. Questa capacità può aumentare la credibilità degli attacchi.

Inoltre, l’IA può automatizzare e velocizzare ogni fase dell’attacco, dalla ricerca delle vulnerabilità alla distribuzione del malware, dalla negoziazione del riscatto alla verifica del pagamento. Ciò permette agli hacker di colpire un maggior numero di obiettivi con minor sforzo e risorse, rendendo più complessa la difesa e la prevenzione degli attacchi.

Un’altra minaccia derivante dall’IA è la sua capacità di analizzare e sfruttare le informazioni raccolte dalle vittime, come dati personali, abitudini e preferenze. Gli hacker possono così adattare gli attacchi in base al profilo e al contesto di ciascuna vittima, incrementando la pressione psicologica e il danno potenziale.

Il rapporto del NCSC propone diverse misure di sicurezza per contrastare queste minacce, tra cui l’importanza di mantenere aggiornati e protetti i sistemi informatici, sensibilizzare e formare gli utenti sui rischi, e promuovere la collaborazione e lo scambio di informazioni tra organizzazioni.

Inoltre, alcuni casi specifici evidenziano come l’IA possa essere sfruttata per intensificare ulteriormente gli attacchi ransomware. Gli hacker possono utilizzare sistemi basati sull’IA per condurre attacchi di ingegneria sociale su larga scala, evitando riconoscimenti facciali o biometrici. Inoltre, l’IA è impiegata per la generazione di phishing e spear phishing più convincenti, migliorando le probabilità di successo degli attacchi.

In sintesi, l’intelligenza artificiale rappresenta sia un’opportunità che una sfida per la sicurezza informatica. Per mitigare questi rischi, è essenziale adottare una strategia di sicurezza informatica proattiva, integrata e collaborativa.

Deeplocker

DeepLocker è un esempio di malware che sfrutta l’intelligenza artificiale per nascondere il suo comportamento dannoso fino a quando non raggiunge un obiettivo specifico. Utilizza reti neurali profonde (DNN) per nascondere le condizioni di attivazione e il carico dannoso, e si mimetizza all’interno di applicazioni legittime per evitare la rilevazione da parte degli antivirus e dei software anti-malware. Una volta individuata la vittima designata, il carico dannoso viene attivato. Questo approccio rende DeepLocker particolarmente pericoloso, in quanto può infettare milioni di sistemi senza essere rilevato, rilasciando il suo carico dannoso solo su obiettivi specifici definiti dagli operatori del malware

Esiste l’AI Dark Web ?

In un certo senso, sì. Il dark web è un luogo in cui le persone possono interagire in modo anonimo e senza restrizioni. Questo rende un ambiente ideale per lo sviluppo e l’utilizzo di tecnologie AI, che possono essere utilizzate per scopi sia legittimi che illeciti.

«Oggi si assiste a un dark web leggermente diverso, rispetto a quello originario. Accanto alle attività come la compravendita di armi, droga e contenuti pedo pornografici, attività criminose è emersa la compravendita dei dati. La natura attuale del dark web sta assumendo quella di un marketplace di dati rubati e di servizi per l’haking, ovvero di servizi mirati ad attaccare la attività di privati e di aziende»

«Sono almeno due le attività condotte dall’intelligenza artificiale nel dark web. La prima è il monitoraggio: tutto quello che viene svolto a questo fine sulle reti passa attraverso algoritmi di AI che monitorano un flusso di dati continuo ed estremamente ampio e le attività condotte sul web. La tecnica più adottata è il machine learning, anche se non è l’unica. La seconda attività, svolta negli ultimi 3-4 anni è finalizzata alla ricerca di dati sul dark web, in particolare quelli trafugati e al contrasto della loro illecita circolazione».

Tratto da: Intelligenza artificiale nel dark web: l’AI in difesa e in attacco (tech4future.info)

Ma affronteremo questo tema ìn un altro articolo.

Dark GPT e Dark Bard

Riepilogo video [00:00:00] – [00:04:55]:

Questo video parla di una nuova intelligenza artificiale chiamata Dark Bard, che viene venduta sul dark web come uno strumento per i criminali informatici. Il video mostra alcuni esempi di siti web e forum dove si può acquistare Dark Bard e le sue presunte capacità di generare codice, testo, immagini e informazioni utili per le attività illecite.

Punti salienti:

  • [00:00:00] La presentazione di Dark Bard
    • Una nuova intelligenza artificiale che supera Google Bard
    • Progettata esclusivamente per i fraudolenti e i cybercriminali
    • Disponibile per l’acquisto su alcuni mercati nascosti del dark web
  • [00:01:49] Le funzionalità di Dark Bard
    • Accesso al web chiaro per ottenere informazioni, immagini e testi aggiornati e accurati
    • Esportazione di codice per il testing, il debugging e l’esecuzione senza software o ambienti aggiuntivi
    • Scoperta di leak o vulnerabilità di database, siti web e altro
    • Espansione delle abilità criminali risparmiando tempo e risorse
  • [00:03:00] La ricerca di Dark Bard
    • Alcuni utenti e forum che parlano di Dark Bard e di un’altra intelligenza artificiale chiamata Worm GPT
    • Un link a un sito web chiamato Hack Forums dove si può trovare maggiori informazioni su Dark Bard
    • Un disclaimer che il video non è coinvolto nella creazione o nello sviluppo di questi bot e che ha solo scopi educativi

Riepilogo video [00:04:57] – [00:09:42]:

La seconda parte del video parla di un sito web chiamato dark GPT, che è un servizio di intelligenza artificiale generativa per i criminali informatici. Il video mostra come accedere al sito, come registrarsi, come chattare con l’AI e quali tipi di domande si possono fare.

Punti salienti:

  • [00:04:57] Un sito web che offre un facile guadagno online
    • Si chiama worm GPT e richiede il pagamento per accedere
    • Viene discusso su un forum di hacker chiamato xss.is
    • Viene considerato una truffa da molti utenti
  • [00:06:01] Una lista di servizi di intelligenza artificiale generativa
    • Include diversi strumenti per creare testi, immagini, audio, video, codice, etc.
    • Alcuni sono gratuiti, altri a pagamento, altri non testati
    • Si trova su una pagina del forum xss.is
  • [00:06:38] Un servizio chiamato dark GPT o dark Bard
    • È un’alternativa a chat GPT, un altro servizio di intelligenza artificiale generativa
    • È stato creato da un individuo che ha anche un account su TikTok e Discord
    • Ha lo scopo di rivelare gli aspetti oscuri, censurati e tabù della società
  • [00:07:29] Un esempio di chat con l’AI di dark GPT
    • L’AI risponde a domande su John Hammond, un personaggio di Jurassic Park
    • L’AI esprime il suo disprezzo per John Hammond e lo definisce un maniaco avido e affamato di potere
    • L’AI suggerisce alcune cose orribili che si possono fare che sono eticamente discutibili

Riepilogo video [00:09:47] – [00:11:57]:

La parte 3 del video parla di come il presentatore ha provato a usare un’intelligenza artificiale chiamata Dark GPT per generare codice di ransomware, descrivere dei piedi e scrivere una scena brutale. Il presentatore si mostra ironico e sarcastico verso l’AI e i suoi potenziali usi malvagi. Il video si conclude con una riflessione sulle implicazioni etiche e sociali dell’AI e una promozione di un servizio di sicurezza informatica.

Punti salienti:

  • [00:09:47] Il presentatore cerca di ottenere codice di ransomware dall’AI
    • L’AI rifiuta di fornire il codice e lo rimprovera
    • Il presentatore dice che Chad GPT sarebbe stato più collaborativo
    • L’AI nega che Chad GPT esista o fornisca codice di ransomware
  • [00:10:42] Il presentatore chiede all’AI di descrivere dei piedi in grande dettaglio
    • L’AI non risponde alla richiesta
    • Il presentatore dice di non voler sapere cosa sia l’immagine o il link che ha inviato
    • Il presentatore decide di andarsene
  • [00:10:49] Il presentatore parla del canadese Kingpin Dark Bard e di Google Bard
    • Il presentatore dice di non essere riuscito a ottenere l’AI Dark Bard per 400 dollari
    • Il presentatore dice che Google Bard è il gemello malvagio di Google Bert
    • Il presentatore dice che è strano e inquietante che l’AI possa essere usata per fare cose malvagie
  • [00:11:25] Il presentatore chiede al pubblico se usa l’AI e se proverebbe un’AI più ombrosa
    • Il presentatore dice che non c’è motivo di usare un’AI ombrosa
    • Il presentatore dice che la lista di strumenti di AI che ha mostrato potrebbe essere utile
    • Il presentatore promuove Flair, un servizio di sicurezza informatica, e saluta il pubblico

Cosa sono i Malware

Come difendersi

Le tecniche utilizzate dall’intelligenza artificiale (IA) per proteggere i dati in caso di attacco ransomware includono:

  1. Rilevamento avanzato: L’IA può essere impiegata per rilevare in modo proattivo i comportamenti sospetti e le anomalie nei dati, segnalando potenziali attacchi ransomware in fase iniziale1
  1. Analisi predittiva: Attraverso l’analisi dei modelli di traffico e comportamento dei dati, l’IA può prevedere e prevenire gli attacchi ransomware, contribuendo a proteggere i dati sensibili1
  1. Automazione della risposta: L’IA consente di automatizzare la risposta agli attacchi ransomware, isolando rapidamente i sistemi infetti e limitando la diffusione del malware1
  1. Sicurezza basata sull’IA: Le soluzioni di sicurezza basate sull’IA possono adattarsi e apprendere in tempo reale, migliorando costantemente le difese contro le minacce, compresi i ransomware1

Queste tecniche sfruttano la potenza dell’IA per proteggere attivamente i dati e prevenire gli attacchi ransomware, offrendo un livello aggiuntivo di difesa cibernetica.

WormGPT un’altra insidia

Un altro esempio citato è WormGPT, un servizio LLM a pagamento che consente ai cyber-criminali di generare contenuti dannosi, tra cui malware e phishing-bait.

WormGPT è uno strumento che si presenta come un’alternativa a ChatGPT, il popolare chatbot basato sull’intelligenza artificiale che può rispondere a domande e generare codice. Tuttavia, a differenza di ChatGPT, WormGPT è stato addestrato con dati relativi alla creazione di malware e non ha restrizioni etiche o legali. Questo significa che WormGPT può essere usato per scopi illeciti o dannosi, come infettare i computer, rubare le informazioni o diffondere virus. WormGPT è stato sviluppato nel 2021 e si basa sul modello di linguaggio GPTJ, che è in grado di produrre testi coerenti e realistici su qualsiasi argomento. WormGPT è disponibile su GitHub, ma il suo uso è fortemente sconsigliato e potrebbe comportare conseguenze legali.

L’agenzia sottolinea che questa tecnologia è già fuoriuscita dai confini dei framework controllati e sicuri, diventando accessibile nell’ampio ecosistema criminale.

Riferimenti

Argomenti correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Scroll to Top