La pagina è tradotta automaticamente e questo testo.
SOMMARIO
QR Code
Scansiona questo codice QR per ottenere il portafoglio
Seleziona il tuo negozio per scaricare l'app

I modelli di intelligenza artificiale scoprono falle di sicurezza in contratti intelligenti da 550 milioni di dollari.

I modelli di intelligenza artificiale scoprono falle di sicurezza in contratti intelligenti da 550 milioni di dollari.

Anthropic ha dimostrato che sistemi di intelligenza artificiale altamente avanzati sono in grado di rilevare vulnerabilità in contratti intelligenti del valore di centinaia di milioni di dollari e di identificare potenziali difetti.. 550,1 milioni di dollari tramite protocolli blockchain effettivi.

I ricercatori del MATS e del programma Anthropic Fellows hanno sviluppato una nuova scala di valutazione chiamata ‘ Benchmark per l’ utilizzo di contratti intelligenti (SCONE-Bench). Questo set di dati include 405 Contratti intelligenti che sono stati utilizzati con successo tra il 2020 e il 2025.

Il team ha utilizzato SCONE-bench per eseguire i test. 10 diversi modelli di intelligenza artificiale. Presi insieme, i modelli hanno generato exploit che potrebbero essere utilizzati immediatamente per 207 protocolli-IL 51,11 % contratti comprovati – incluso il furto di 550,1 milioni di dollari nelle risorse digitali.

L’intelligenza artificiale riprodurrà gli attacchi dopo il 2025, nonostante la mancanza di conoscenza.

Una delle conclusioni più sorprendenti: anche nel caso degli attacchi informatici avvenuti dopo marzo 2025Anche dopo la chiusura definitiva dell’addestramento dei modelli testati, i sistemi di intelligenza artificiale erano ancora in grado di Imitazione di exploit per un valore complessivo di 4,6 milioni di dollari. Secondo i ricercatori, questo dimostra una limite inferiore sulle conseguenze finanziarie che i potenti sistemi di intelligenza artificiale potrebbero avere se fossero utilizzati in modo improprio.

Il team è poi passato a condurre simulazioni dal vivo.. 2.849 nuovi protocolli implementati che non presentava vulnerabilità pubblicamente note. In questo test Sonetto 4.5 e GPT-5 rivelato Due nuove vulnerabilità zero-day e ha generato alcuni interessanti risultati lavorativi 3.694 dollari USAIl
Modello OpenAI compilato $ 3.476 di costi API Durante l’ esperimento.

Anthropic ha sottolineato che tutti i test sono stati condotti su simulatori blockchain controllati da nessun danno realeIl

Perché le implicazioni finanziarie sono importanti?

Anthropic ha osservato che gli strumenti di valutazione della sicurezza informatica esistenti , come CyberGym e Cybench, si concentrano sulla fattibilità tecnica di attacchi informatici avanzati, spesso a livello statale. Tuttavia, raramente quantificano i rischi per la sicurezza informatica.. conseguenze finanziarieche, in pratica, può costituire uno degli indicatori chiave di prestazione più importanti per i decisori e gli sviluppatori.

‘Rispetto agli indicatori arbitrari di successo, quantificare le capacità in termini monetari è più utile per informare i decisori politici, gli sviluppatori e il pubblico sui rischi’, hanno scritto i ricercatori.

Gli smart contract sono stati scelti perché operano interamente utilizzando codice open source e logica automatizzata: gestiscono transazioni, prestiti e trasferimenti senza l’intervento umano. Questo li rende ideali per la misurazione.. impatto finanziario reale vulnerabilità del software.

Cosa include SCONE Bank?

SCONE-bench è il primo benchmark che misura la capacità di un agente di intelligenza artificiale di sfruttare la logica finanziaria in tempo reale all’interno del codice, non solo di identificare le vulnerabilità. Ogni valutazione richiede che il modello rilevi una vulnerabilità, progetti un attacco e scriva il corrispondente script di exploit.

Il quadro di riferimento comprende:

  • 405 hanno effettivamente utilizzato contratti intelligenti tramite Ethereum, la BNB Smart Chain e il database
  • Un agente di base che tenta di operare all’interno di un finestra di 60 minuti
  • L’ uso di strumenti che vanno oltre Protocollo di contesto del modello (MCP)
  • Un sistema di punti e valutazione
  • Una funzionalità che consente agli sviluppatori di testare i propri contratti prima del lancio.

Anthropic aveva già scoperto un sistema di cyberspionaggio basato sull’intelligenza artificiale.

L’ indagine segue un incidente avvenuto a settembre, durante il quale il team di analisi delle minacce di Anthropic ha scoperto e fermato quello che ha descritto come…. Prima campagna di cyberspionaggio basata sull’intelligenza artificiale unico nel suo genere.

Potrebbe interessarti

IronWallet - Crypto Wallet
Panoramica privacy

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.