https://www.libero.it/tecnologia/gli-hacker-usano-claude-per-gli-attacchi-informatici-105074
Claude è stato usato per un attacco informatico, l'AI al servizio degli hacker
Un hacker ha usato Claude di Anthropic per automatizzare un attacco informatico contro diverse aziende. Si apre un nuovo capitolo per la sicurezza informatica

In Sintesi
- Un hacker ha utilizzato Claude di Anthropic per automatizzare un intero attacco informatico contro varie aziende.
- L’incidente evidenzia i pericoli di un’industria dell’AI in gran parte non regolamentata, sollevando seri interrogativi sulla capacità delle aziende di difendersi.
Un hacker ha usato l’intelligenza artificiale per condurre un attacco informatico su larga scala, sfruttando le potenzialità di questa tecnologia per automatizzare ogni fase del processo, dalla ricerca dei bersagli alla stesura delle richieste di riscatto.
Questo è quanto emerge da un report pubblicato da Anthropic, che ha rivelato che un pirata informatico non ancora identificato ha utilizzato Claude per violare almeno 17 aziende, automatizzando quasi completamente le operazioni.
In che modo Claude viene usato dagli hacker
Secondo quanto si legge sul blog di Anthropic, l’operazione è iniziata con l’hacker che ha convinto Claude Code, il chatbot di Anthropic specializzato in programmazione, a identificare aziende vulnerabili, utilizzandolo poi per creare un software dannoso per rubare dati sensibili e analizzare i file per individuare le informazioni più delicate da usare per l’estorsione.
Il chatbot è stato in grado anche di esaminare i documenti finanziari delle aziende per determinare un importo di riscatto in bitcoin che fosse realistico, arrivando addirittura a scrivere le bozze delle email di estorsione.
Stando alle informazioni condivise, si è trattato di un’operazione molto sofisticata, proveniente probabilmente da un singolo hacker al di fuori degli Stati Uniti che è riuscito a eludere le robuste misure di sicurezza di Anthropic.
Le 17 aziende colpite, di cui non sono stati rivelati i nomi, includono un’impresa del settore della difesa, un istituto finanziario e diversi fornitori di servizi sanitari. Si tratta, dunque, di un furto di dati estremamente sensibili che comprendono numeri di previdenza sociale, dati bancari, informazioni mediche riservate e documenti legati a informazioni sulla difesa, regolamentate dal Dipartimento di Stato americano.
Al momento non è chiaro quante aziende abbiano pagato e quanto denaro l’hacker abbia effettivamente guadagnato.
Come cambierà il crimine informatico con l’AI
Questo caso evidenzia come l’enorme potenziale degli strumenti basati sull’intelligenza artificiale possa diventare un pericolo se finisse nelle mani sbagliate e se in passato l’AI era utilizzata come un semplice “assistente” per i cyber criminali, ora dimostra di poter agire in totale autonomia nel corso di un attacco, riducendo drasticamente il tempo, le competenze e l’impegno necessari per mettere a segno colpi da milioni e milioni di dollari.
Ciò è dovuto, per buona parte, da un settore quasi interamente privo di regolamentazione da parte dei governi, con le aziende sono incoraggiate a “autoregolamentarsi”.
Questo incidente solleva seri interrogativi sul ruolo che l’intelligenza artificiale avrà nella criminalità del futuro e sulla necessità di normative più stringenti per prevenire abusi su larga scala.
L’utilizzo di Claude per un attacco informatico, dunque, segna un punto di svolta, passando da attacchi assistiti dall’AI a veri e propri attacchi guidati dall’AI, sollevando la questione che è bene non sottovalutare: gli utenti e le aziende sono davvero pronti a difendersi da sistemi che apprendono e agiscono in modo autonomo per scopi criminali?
Una risposta precisa a questa domanda ancora non c’è, tuttavia è uno scenario con cui bisogna fare i conti e che certamente avrà un impatto sulla sicurezza informatica del futuro.
Nessun commento:
Posta un commento