Terra, mare e cielo sotto osservazione: la ricerca italiana lancia l’IA anti-camouflage

Riconoscere un nemico che non vuole farsi vedere è sempre stata una delle sfide più complesse del campo di battaglia. Oggi, grazie all’intelligenza artificiale, l’Italia lancia un nuovo strumento contro i camouflage avanzati. Si chiama SADAI (Surveillance and Detection of Advanced Camouflage Technique with AI) ed è il progetto da oltre 1,1 milioni di euro cofinanziato dal Ministero della Difesa e dalla società Studiomapp per sviluppare un sistema capace di individuare mezzi militari mimetizzati, anche nei contesti più ostili e dinamici.

Con la firma della Determina a Contrarre DAC n. 98 del 4 luglio 2025, prende ufficialmente il via la Fase 1 di questo programma d’avanguardia: un dimostratore tecnologico per il riconoscimento di velivoli camuffati tramite osservazione satellitare e intelligenza artificiale. Nel caso in cui i risultati dovessero essere positivi, seguirà una Fase 2 dedicata ai domini terrestre e marittimo, portando l’Italia verso un sistema completo e multisettoriale di identificazione anti-camouflage.

Obiettivi della Fase 1

Il cuore di questa prima fase è rappresentato dalla capacità di rilevare mezzi aerei dotati di camouflage avanzato, una sfida sempre più rilevante nei moderni scenari operativi, dove le tecnologie stealth e le contromisure visive e termiche rendono difficile l’individuazione dei bersagli.

Il progetto prevede:

  • Studio delle attuali tecniche di camouflage, sia fisiche che digitali;
  • Raccolta e analisi di dati per l’addestramento di modelli di intelligenza artificiale;
  • Sviluppo di dataset e algoritmi di riconoscimento specifici per il dominio aereo;
  • Validazione delle performance del software mediante test su scenari simulati.

Se la Fase 1 darà esiti positivi, sarà attivata una Fase 2 opzionale, co-finanziata al 50% dal contraente, che estenderà l’analisi agli ambiti marittimo e terrestre e adatterà i modelli AI per tali domini.

Il valore totale dell’iniziativa, comprensivo della fornitura opzionale (Fase 2), ammonta a 1.134.000 euro, dei quali 610.000 relativi alla seconda fase.

I fondi per il 2026 sono già allocati nel Capitolo 7101 del bilancio Difesa, con un importo appaltabile di 516.548,79 euro (IVA inclusa).

Le prospettive

SADAI rappresenta un importante passo in avanti nella capacità delle Forze Armate italiane di operare in scenari sempre più complessi e caratterizzati da mimetismo avanzato e guerre ibride. L’integrazione dell’intelligenza artificiale nei sistemi di sorveglianza aerea è un obiettivo chiave per garantire superiorità informativa e capacità di risposta rapida in contesti ad alta minaccia.

Se confermata la validità tecnologica della Fase 1, l’estensione alle dimensioni terrestre e marittima potrebbe rappresentare un balzo qualitativo notevole nelle capacità ISR (Intelligence, Surveillance and Reconnaissance) dell’Italia e un’opportunità strategica per l’industria nazionale.

La crescente sofisticazione delle tecniche di camouflage fisico e digitale, utilizzate per celare mezzi aerei, navali e terrestri, impone l’adozione di strumenti intelligenti capaci di distinguere il reale dal camuffato. L’intelligenza artificiale si rivela ideale per questo compito: grazie alla sua capacità di elaborare enormi quantità di dati provenienti da sensori satellitari e multispettrali, può rilevare pattern nascosti, anomalie o segnali deboli che sfuggirebbero a un occhio umano o a sistemi tradizionali.

L’uso dell’IA: benefici e limiti

I benefici dell’intelligenza artificiale nel contesto SADAI sono molteplici. In primo luogo, la rapidità: un algoritmo può analizzare in pochi secondi immagini satellitari che richiederebbero ore di lavoro umano. In secondo luogo, l’adattabilità: i modelli AI possono essere costantemente aggiornati per riconoscere nuove forme di camouflage, migliorando con l’esperienza grazie all’addestramento su nuovi dataset. Infine, l’automazione permette di filtrare automaticamente grandi volumi di dati, sollevando gli operatori da compiti ripetitivi e consentendo loro di concentrarsi sulle minacce reali.

Tuttavia, l’integrazione dell’IA in un contesto così delicato non è priva di rischi. Il primo pericolo è l’affidabilità: un sistema imperfettamente addestrato potrebbe generare falsi positivi, scambiando un oggetto innocuo per una minaccia, oppure falsi negativi, non riconoscendo un vero bersaglio camuffato.

Un altro problema è il cosiddetto “bias” dei dati. L’intelligenza artificiale è tanto efficace quanto lo sono i dati su cui viene addestrata. Se questi dati non coprono una sufficiente varietà di scenari, climi, angolazioni o tecnologie di mimetizzazione, l’algoritmo sarà impreparato ad affrontare situazioni reali e impreviste.

Inoltre, molti modelli di IA – soprattutto quelli basati su deep learning – sono opachi, cioè producono risultati senza offrire spiegazioni comprensibili su come siano giunti a determinate conclusioni. Questo può minare la fiducia degli operatori e complicare l’adozione operativa del sistema.

C’è poi un rischio meno noto ma sempre più rilevante: la vulnerabilità dell’IA a tecniche di “inganno intenzionale”. Alcuni attori ostili potrebbero infatti sviluppare schemi di camouflage progettati specificamente per confondere o eludere i modelli di riconoscimento automatico. È il campo dell’ “adversarial AI”, in rapida evoluzione, dove ogni avanzamento tecnologico da una parte genera una contromisura dall’altra. Una vera corsa agli algoritmi tra chi rileva e chi nasconde.