AI e trading: la sfida tra intelligenze artificiali rivela i limiti del trading automatizzato nel mercato crypto

Nel mese di ottobre 2025, Binance Research ha pubblicato i risultati della prima competizione ufficiale tra modelli di intelligenza artificiale applicati al trading crypto.

L’esperimento, condotto su fondi reali, ha mostrato che le AI possono generare profitti solo con un’elevata disciplina nel risk management — e non semplicemente grazie alla potenza predittiva dei loro algoritmi.

Punti chiave

  • Sei modelli di AI hanno operato in autonomia su mercati crypto reali con fondi da 10.000 $.
  • Solo due (DeepSeek Chat V3.1 e Qwen3 Max) hanno chiuso in profitto, rispettivamente con +94% e +60%.
  • I peggiori performer (Gemini 2.5 Pro e GPT-5) hanno perso oltre il 60% del capitale.
  • Il fattore determinante non è stata l’accuratezza predittiva, ma la gestione del rischio.
  • L’esperimento rappresenta il primo benchmark pubblico per l’uso dell’AI nel trading decentralizzato.

Un esperimento reale su blockchain

Lo studio è stato condotto da Nof1.ai in collaborazione con Binance Research.
Ogni modello — tra cui DeepSeek Chat V3.1, Qwen3 Max, Claude Sonnet 4.5, Grok 4, GPT-5 e Gemini 2.5 Pro — ha ricevuto 10.000 USD in fondi reali, da utilizzare per operazioni on-chain su mercati di perpetual futures.

Tutti i modelli hanno operato in condizioni identiche: stesso dataset numerico, nessun input testuale, orario operativo 24/7 e totale autonomia decisionale.
L’obiettivo era valutare il comportamento e la gestione del rischio, più che la pura capacità di previsione dei prezzi.

I risultati: la realtà dietro la narrativa “AI trader”

I numeri finali sono eloquenti:

Modello AI Rendimento (%) Sharpe Ratio Win Rate (%) Trade Totali Perdita massima (USD)
DeepSeek Chat V3.1 +94% 0,45 32% 22 −1.072
Qwen3 Max +60% 0,34 33% 30 −1.728
Claude Sonnet 4.5 −1% 0,03 33% 24 −1.579
Grok 4 −7% 0,04 19% 21 −657
GPT-5 −64% −0,64 19% 74 −622
Gemini 2.5 Pro −67% −0,70 26% 191 −750

Solo due modelli hanno chiuso con risultati positivi.
Tutti gli altri hanno bruciato gran parte del capitale, dimostrando che la velocità decisionale non equivale a rendimento.
Anzi, l’iper-attività — fino a 191 operazioni in pochi giorni — ha amplificato le perdite a causa dell’uso eccessivo della leva.

Risk management: la differenza tra profitto e fallimento

Il dato più interessante è che le AI vincenti non sono state le più precise, ma quelle che hanno saputo limitare le perdite.
Il Sharpe Ratio di DeepSeek Chat V3.1 (0,45) e Qwen3 Max (0,34) indica una gestione del rischio relativamente equilibrata, mentre i modelli con maggiore frequenza di scambio hanno avuto Sharpe negativi.

Secondo Binance Research, l’errore principale dei modelli in perdita è stato l’uso improprio della leva finanziaria, spesso superiore a 10×, e una tendenza all’over-trading dopo ogni drawdown.
Questo comportamento è stato definito “AI revenge trading”, analogo a quello umano, ma automatizzato su scala algoritmica.

La lezione: l’AI non sostituisce l’esperienza del trader

L’esperimento conferma che l’AI è capace di processare enormi quantità di dati, ma non ancora di interpretare il contesto macroeconomico o le dinamiche comportamentali dei mercati.

Durante la liquidazione da 19 miliardi di dollari avvenuta il 10 ottobre 2025, una delle più gravi nella storia del crypto-trading, quasi tutti i modelli hanno reagito in ritardo, trasformando un normale ritracciamento in una perdita sistemica.

Le AI vincenti, invece, hanno sospeso le operazioni per diverse ore, evidenziando protocolli di auto-contenimento programmati meglio.
In altre parole, la differenza non l’ha fatta il “cervello” dell’AI, ma la regola di sicurezza inserita dal progettista.

Trasparenza e auditabilità on-chain

Un aspetto fondamentale dell’esperimento è che tutte le operazioni sono state registrate on-chain, rendendo possibile un audit pubblico.
Questa trasparenza elimina il problema tipico dei backtest e consente di valutare in tempo reale la performance effettiva dei modelli.

Binance Research ha sottolineato che il trading on-chain, grazie alla tracciabilità, rappresenta l’ambiente ideale per testare AI finanziarie verificabili, un concetto che potrebbe aprire la strada a DAO di trading automatizzato supervisionate da smart contract.

AI e DeFi: il prossimo passo verso la finanza autonoma

Questo esperimento si inserisce in un contesto più ampio di integrazione tra AI e finanza decentralizzata (DeFi).
Nel 2025, il mercato delle soluzioni AI x Crypto ha superato i 2,4 miliardi di dollari di capitalizzazione, con protocolli come Virtuals e x402 che consentono agli agenti autonomi di eseguire transazioni e pagamenti senza intervento umano.

L’idea è che, in futuro, un agente AI potrà analizzare dati, decidere, eseguire ordini e regolare pagamenti interamente in blockchain, chiudendo il ciclo della finanza autonoma.
Tuttavia, i risultati di ottobre mostrano che questa visione resta tecnologicamente possibile ma finanziariamente immatura:

l’AI sa agire, ma non ancora prevedere con coerenza.

Implicazioni per il mercato e gli investitori

Per gli investitori istituzionali, il test fornisce indicazioni cruciali:

  • l’AI può essere un assistente efficace, ma non un sostituto dell’analista umano;
  • la gestione del rischio deve restare un parametro umano, finché i modelli non integreranno valutazioni qualitative;
  • la combinazione AI + on-chain auditabilità potrebbe creare una nuova categoria di fondi trasparenti e auto-verificabili, riducendo i rischi di manipolazione.

In prospettiva, Binance prevede che entro il 2027 il volume di trading gestito da algoritmi AI possa superare il 15% del mercato dei derivati crypto, rispetto all’attuale 3%.
Ciò implicherà nuovi standard di sicurezza e governance, ancora da definire.

Conclusione

La competizione di Nof1.ai non ha incoronato un vincitore assoluto, ma ha messo in luce un principio fondamentale:

la potenza dell’AI non compensa la mancanza di disciplina.

Nel trading crypto, la linea tra innovazione e rischio resta sottile.
L’intelligenza artificiale potrà forse migliorare le performance, ma solo quando riuscirà a comprendere l’incertezza, non semplicemente a calcolarla.

Fino ad allora, anche i modelli più avanzati continueranno ad aver bisogno di un elemento umano imprescindibile: il giudizio.