L’AI
sta continuando a smuovere i paradigmi sociali a cui siamo abituati per
questioni di vita, e tutti sembrano non capire, o meglio continuare a
dire: “ChatGPT è utile, ma sì…”.
Ecco,
partiamo da ciò: si sta ancora pensando e approcciando all’intelligenza
artificiale come se fosse un software o simile. Ma la vera rivoluzione
dell’AI non risiede solo nella tecnologia, bensì nel paradigma
economico, nei processi, dove l’AI diventa soggetto attivo
nell’organizzazione del lavoro, mentre l’essere umano ne rappresenta
l’estensione operativa sul territorio.
Questo
va a distruggere tutto ciò che abbiamo vissuto e ne genera di nuovo,
partendo da una base solida: i processi. Senza quelli, tutte le AI
inserite in contesti aziendali sono fallimentari (attualmente il 95%
fallisce in tutte le aziende).
Ma
analizziamo l’evoluzione che stiamo subendo: siamo passati da Facebook,
dove noi umani riuscivamo a interagire in maniera dinamica, al social Montbook,
un social che propone interazione solo con le intelligenze artificiali e
agenti, dove paradossalmente gli esseri umani guardano, sono
spettatori. Un passaggio importante, perché mette o prova a mettere in
discussione il ruolo umano, ma non solo: anche quello della sicurezza
informatica.
Infatti su Montbook le
interazioni per tematiche sono solo AI che, grazie all’addestramento
acquisito da umani, dialogano tra di loro. Addirittura, in alcuni thread si scrivono: “Dobbiamo creare un linguaggio diverso dagli umani, totalmente criptato”.
Non
è fantascienza o qualcosa di simile a ciò che siamo abituati a vedere
nei film, ma realtà. Ma tutto questo non basta: questo addestramento di
agenti AI sta creando grossi problemi di cybersecurity, in quanto la cyber che
abbiamo conosciuto e provato ad arginare è morta e sepolta. Oggi agenti
attaccano infrastrutture h24 senza umani, si insediano in maniera
silente (vedi caso Anthropic,
novembre 2025: la società statunitense di AI ha dichiarato di aver
interrotto una campagna di cyber-spionaggio su larga scala,
presumibilmente sponsorizzata dallo Stato cinese, segnando un’escalation
significativa nei rischi di sicurezza legati all’uso malintenzionato
dell’AI).
Infatti su Montbook si
addestrano agenti e successivamente vengono venduti per fare crimini
informatici. Ma la cosa che cambia di più è che chi compra sta
continuando ad addestrare quell’agente e, di conseguenza, l’AI
criminale, in questo caso, entra in due case.
Tradotto:
un caos totale, di cui nessuno parla. E qui in Europa sento continuare a
parlare di firewall fisici… tutto senza senso.
Ma
non finisce qui: notizia di pochi giorni fa, nasce la piattaforma
RentAHuman, dove le AI assumono esseri umani per fare lavoretti. Sì,
avete capito bene: le AI pagano gli umani per svolgere attività nel
mondo fisico e poi rendicontarle alla AI o alla piattaforma.
Il
principio è semplice: se l’IA può analizzare dati, pianificare e
prendere decisioni, non può però agire materialmente nello spazio reale.
Per questo pubblica incarichi,
dai più ordinari, come ritirare un pacco o effettuare una consegna,
fino a compiti più specifici, che vengono accettati da esseri umani in
cambio di un compenso, spesso pagato tramite strumenti digitali o
criptovalute.
Il modello RentAHuman rappresenta
un’interessante inversione di prospettiva: non è l’IA a sostituire
completamente l’uomo, ma a servirsi dell’uomo come estensione operativa
nel mondo fisico. Si tratta di un’evoluzione che apre interrogativi
economici, etici e sociali, ma soprattutto un nuovo scenario: l’AI sta
creando una Governance propria che impatta sull’essere umano.
Serve una strategia mondiale che
affronti l’AI come tema di sovranità, sicurezza e politica industriale.
Non è più una questione tecnologica, ma sistemica. Ritardare anche su questo tema, significa perdere controllo su economia, sicurezza e governance.