sabato, Marzo 14, 2026

L’INTELLIGENZA ARTIFICIALE MILITARE E LA SFIDA DELLA RESPONSABILITA’

Nel suo post sul blog “Military AI: Operational dangers and the regulatory void” (Intelligenza artificiale militare: pericoli operativi e vuoto normativo), Julia Williams avverte che l’intelligenza artificiale sta ridefinendo il campo di battaglia, passando da sistemi controllati dall’uomo a tecnologie altamente autonome che prendono decisioni di vita o di morte. Dal Progetto Maven degli Stati Uniti al sistema di puntamento basato sull’intelligenza artificiale utilizzato da Israele a Gaza e ai droni semi-autonomi dell’Ucraina, l’intelligenza artificiale militare non è più un concetto futuristico, ma una realtà presente.

Sebbene progettati per migliorare la precisione e ridurre i rischi, questi sistemi comportano pericoli nascosti: decisioni opache e poco trasparenti, pregiudizi radicati in dati errati e comportamenti imprevedibili in situazioni di forte stress. Gli operatori o diffidano dell’IA o fanno eccessivo affidamento su di essa, a volte senza comprendere come si giunga alle conclusioni, creando un nuovo livello di rischio nella guerra moderna.

I pregiudizi rimangono una sfida fondamentale. L’IA può ereditare i pregiudizi sociali dai dati su cui è stata addestrata, interpretare erroneamente i modelli a causa di difetti algoritmici o incoraggiare il pregiudizio dell’automazione, in cui gli esseri umani si fidano dei risultati dell’IA anche quando non dovrebbero.

Military AI and the void of accountability | Digital Watch Observatory

Ultimi articoli