La guerra in atto in Medio Oriente è la prima in cui l'intelligenza artificiale viene utilizzata per attacchi contro persone e strutture reali, dopo essere stata a lungo testata in conflitti virtuali. Il ricorso all'IA consente, a detta degli esperti, bombardamenti più rapidi "della velocità del pensiero", non cancellando il timore ultimo che gli uomini possano essere messi da parte dalle macchine.
Medio Oriente: l'IA fa il suo "esordio" in una guerra vera, tra prospettive e timori
Da quel che è stato riferito, il modello di intelligenza artificiale di Anthropic, Claude, è stato utilizzato dall'esercito statunitense nella serie di attacchi in Iran poiché la tecnologia "accorcia la catena di uccisione", dal momento che si tagliano i tempi del processo, dall'identificazione del bersaglio fino all'approvazione legale e al lancio dell'attacco. Gli Stati Uniti e Israele, che in precedenza avevano utilizzato l'intelligenza artificiale per identificare obiettivi a Gaza, hanno lanciato quasi 900 attacchi contro obiettivi iraniani solo nelle prime 12 ore, durante le quali i missili israeliani hanno ucciso la guida suprema dell'Iran, l'ayatollah Ali Khamenei. Secondo gli studiosi, l'intelligenza artificiale sta riducendo i tempi di pianificazione necessari per attacchi complessi, per quella che viene definita "compressione decisionale", che potrebbe ridefinire il ruolo dell'uomo riducendolo ad una autorizzazione di piani di attacco elaborati e pianificati dalla macchina.
Nel 2024, Anthropic, società con sede a San Francisco, ha implementato il suo modello presso il Dipartimento della Guerra degli Stati Uniti e altre agenzie per la sicurezza nazionale finalizzandola all'utilizzo in una situazione di guerra, nell'ambito di un sistema sviluppato dall'azienda di tecnologia bellica Palantir in collaborazione con il Pentagono. In cosa si traduce il contributo dell'IA a chi deve decidere come e quando portare un attacco militare?
L'IA, analizzando in frazioni di frazioni di secondo una massa imponente di informazioni (ottenute, ad esempio, dalle rilevazioni dei droni e dall'analisi delle comunicazioni) ed elaborandole, suggerisce quali siano gli obiettivi da colpire. In altri tempi, studiare la situazione sul campo ed elaborare strategie di attacco avrebbero imposto giorni o settimane. Oggi basta un semplice ''click'' per avere le risposte giuste perché le più efficaci.
Cosa potrebbe conseguire dal ricorrere all'IA in un campo dove la componente umana era quella fondamentale? Il pericolo, dicono gli studiosi, è che chi deve decidere, confidando troppo sull'intelligenza artificiale, subisca un involontario distacco dalle conseguenze delle sue decisioni perché esse derivano da analisi e ragionamenti affidati ad una macchina. Perfetta sin che si vuole, ma che resta appunto una macchina. Su quali siano i confini del ricorso all'intelligenza artificiale in questi giorni è andato un scena un durissimo braccio di ferro tra Anthropic e la Casa Bianca, che avrebbe messo al banda la società, ''colpevole'' si essersi rifiutata di consentire l'utilizzo della sua IA per armi completamente autonome o per la sorveglianza dei cittadini statunitensi. Le considerazioni etiche alla base della scelta di Anthorpic evidentemente sono solo sue perché la sua rivale, OpenAI, ha rapidamente firmato un accordo con il Pentagono per l'uso militare dei suoi modelli.