L’intelligenza artificiale non sarà solo al servizio dei «buoni»
Una ricerca inglese ha cercato di prevedere i modi in cui l’intelligenza artificiale, in futuro, potrebbe mettersi al servizio dei criminali. A fare affidamento sulle applicazioni di intelligenza artificiale non sono più soltanto i «buoni», come per esempio i poliziotti a caccia di terroristi o comunque i ricercati in genere: ora anche i «cattivi» contano sempre più spesso su queste nuove tecnologie per perseguire i loro obiettivi.
Uno studio recente dell’University College di Londra identifica e classifica tutti gli ambiti nei quali l’AI potrà collaborare con i criminali nei prossimi 15 anni. La ricerca, pur disegnando scenari dai contorni vagamente hollywoodinani, è stata pubblicata sull’autorevole Crime Science Journal.
Lo studio è stato condotto coinvolgendo diversi esperti tra cui criminologi, investigatori, legali, ufficiali di polizia, manager di azienda. A questi è stato chiesto di classificare vari tipi di reato perpetrabili con l’aiuto dell’AI in base a vari parametri come il danno provocato, il profitto ottenuto, la reale fattibilità e la possibilità di difesa. I crimini analizzati vanno dalla classica contraffazione di denaro fino a reati più moderni e tecnologici, come l’impiego di veicoli senza conducente in modalità, se così si può definire, autobomba.
Lo studio ha individuato diciotto tipi diversi di reato ed è emerso che il più pericoloso di tutti, ma anche quello probabilmente più frequente nei prossimi anni, sarà la creazione di deepfake video: l’intelligenza artificiale verrà cioè impiegata dalle organizzazioni criminali per confezionare falsi video da pubblicare online per diffondere dei messaggi destabilizzanti. Potranno essere cioè utilizzati per diffondere fake news, pilotare intenzioni di voto, destabilizzare governi.
«Gli esseri umani hanno una forte tendenza a credere ai loro occhi e alle loro orecchie, e quindi i video falsi possono ingannare con grande facilità», spiegano gli autori dello studio. Il livello di pericolosità di questo crimine è risultato più alto anche rispetto all’utilizzo di droni o robot militari o al ricatto digitale-
I sistemi di intelligenza artificiale, infatti, sono già stati ampiamente utilizzati per creare dal nulla video pornografici di inconsapevoli personaggi famosi e si stanno lentamente infiltrando anche nel mondo della politica. Governanti e leader di partito possono loro malgrado diventare protagonisti di video dove fanno e dicono qualunque cosa possa essere utile a chi li vuole danneggiare o vuole destabilizzare il loro sistema politico. E la tecnologia oggi è così evoluta da creare video falsi praticamente indistinguibili.
L’unica difesa, secondo i ricercatori, è quella di aiutare le persone a sviluppare il senso critico e spingerle a dubitare sempre di ciò che vedono online. In un’epoca dove tutto cambia con grande velocità, sia in senso positivo che in senso negativo, riuscire ad anticipare il futuro del crimine può aiutare governanti e altri attori ad acquisire le competenze necessarie ad affrontare una nuova versione del tradizionale gioco di guardie e ladri.