minority_report
adv

COME IN MINORITY REPORT, SONO ALLO STUDIO ALGORITMI CAPACI DI ANTICIPARE COMPORTAMENTI ANTISOCIALI PRIMA CHE SI REALIZZINO

La fantascienza anticipa scenari che poi si realizzano non appena la tecnologia necessaria diviene disponibile. Pare questo il caso della crime precognition, dove l’intelligenza artificiale sta imparando ad utilizzare la miriade di telecamere di sorveglianza per riconoscere comportamenti umani che preludono, anche di poco tempo, ad un crimine.

Gli schemi comportamentali tipici di chi sta per commettere un omicidio o un delitto cominciano ad essere comprensibili alle menti informatiche, così da allertare le forze dell’ordine che possono intervenire prima che l’atto venga effettivamente compiuto.

A posteriori, sembra esattamente la trama di Minority Report, il romanzo di Philip Dick del 1956, trasportato sul grande schermo da Steven Spielberg, dove Tom Cruise fa parte della Polizia predittiva, creata per bloccare i “cattivi” un attimo prima che commettano crimini previsti in anticipo. Le visioni distopiche di P. Dick sono oggi rese reali dalle sofisticate tecniche di analisi dei big data attraverso algoritmi di intelligenza artificiale che riconoscono anomalie espressive e patterns comportamentali messi in atto dai potenziali criminali.

Il Minority Report prossimo venturo

Ad inoltrarsi in questi territori fino ad ora inesplorati sono in molti, dalla Corteca, startup israeliana specializzata in sicurezza ed information technology, alla Best Group indiana, alla svedese Hexagon Safety & Infrastructure. La società svedese Hexagon ha già esplorato campi contigui con la sua Intergraph Business Intelligence,  sviluppata per la predizione di azioni terroristiche, probabilità di incidenti a installazioni critiche e, dulcis in fundo, calamità naturali. Il responsabile italiano di Hexagon, Angelo Gazzoni, chiarisce che questo progetto sostanzia l’evoluzione 2.0 del paradigma della smart city, che dovrà evolvere nella safe city, consentendo di salvare sempre più vite umane.

Sempre il cinema ci aveva avvisato che qualcosa stava nascendo parlandoci di Echelon e dei vari progetti della statunitense NSA o della CIA capaci di utilizzare le miriadi di sensori disseminati nello spazio e nelle nostre città per individuare e tracciare i sospetti terroristi, ma questo va ben oltre, utilizzando la sentiment analysis e l’integrazione di tutti i dati raccolti separatamente per tracciare profili psicologici di una raffinatezza ineguagliata e decisamente inquietante.

Tecnologie a fattor comune

Alla fine non si sta sviluppando nuova tecnologia, ma si sta mettendo a fattor comune quanto di meglio realizzato in campi apparentemente separati e fino a ieri incomunicabili tra loro. È proprio il caso del GIS (Geographic Information System – Sistema Informativo Geografico), che è un sistema integrato che riunisce e descrive in forma user friendly dati e mappe georeferenziate che consentono di descrivere ed analizzare fenomeni e collocarli su specifici punti della superficie terrestre. Anche se l’acronimo può trarre in inganno, utilizziamo correntemente i sistemi GIS, ad esempio quando visualizziamo la dislocazione dei distributori di benzina o degli autovelox sulla mappa delle app dei navigatori stradali.

L’applicazione del GIS alla crime preconition si ottiene integrando sulle mappe digitali georeferenziate dei quartieri cittadini le ricorrenze di episodi delittuosi già verificatisi, ottenendo quindi gradienti differenziati che consentono di “prevedere” nuovi eventi delittuosi. Utilizzando poi tecniche di data mining si possono scoprire correlazioni inaspettate, ad esempio tra l’elevato numero di infrazioni stradali e lo spaccio di droga. Alla fine è la medesima tecnologia che indica da molti anni ai responsabili dei supermercati di esporre sugli stessi scaffali le palline di tennis e le lattine di birra. L’analisi degli scontrini di milioni di vendite, correlate agli orari ed ad altri dati accessori ha infatti rilevato che chi compra palline da tennis compra spesso birra, ragion per cui la contiguità degli articoli ne facilita la vendita.

Software per l’AI e la saga visionaria di Tolkien

Un ulteriore competitor in questo settore che comincia a diventare affollato è la software house californiana Palantir Technologies, il cui nome strizza l’occhio al magico strumento per osservare i nemici utilizzato nella saga del Signore degli Anelli di Tolkien.

La Palantir è storicamente attiva in settori di previsioni artificiali in campi apparentemente distanti ma estremamente strategici e delicati quali l’analisi borsistica degli andamenti azionari e degli Hedge Founds e la sicurezza antiterrorismo. Tra i principali clienti della società a stelle e strisce si trovano, manco a dirlo, agenzie governative come la FBI, la NSA e l’aviazione militare statunitense, che ne ha utilizzato i servigi per prevenire attentati durante le guerre in Afghanistan.

Ovviamente gli sviluppi del settore promettono molto di più di quanto realizzato fino ad ora, analizzando i comportamenti anomali e le espressioni del viso e del corpo o ancora la ripetizioni di schemi di movimenti definiti indicatori di attività potenzialmente delittuose. Tornare spesso nello stesso luogo e guardare in direzioni specifiche, ad esempio, è tipico di chi sta sorvegliando un luogo per commettere un furto o un attentato, guardarsi attorno in maniera circospetta può indicare che si ha qualcosa da nascondere o che si sta attendendo il momento migliore per mettere in atto un reato.

Umano, troppo Umano

La sicurezza delle nostre civiltà e delle nostre stesse vite è sempre più minacciato da conflitti a bassissimo potenziale, dove è sufficiente un furgone o un coltello per realizzare attentati, per cui è altamente auspicabile poter disporre di strumenti automatici “sovrumani” che ci avvertano in tempo che qualcosa di grave sta per accadere. Tuttavia, la medesima disumanità che promette di proteggerci, rende pericolosissima la possibilità, non troppo remota, che tali strumenti sbaglino.

Quale autorità umana avrebbe l’autorevolezza per confutare le tesi di un super poliziotto dotato di intelligenza artificiale? E se poi, come mostrato in Minority Report, dietro la precognizione ci fosse una mente umana che falsa il verdetto? Se chi ha accesso privilegiato al sistema lo utilizza per i propri scopi, come potrebbe difendersi l’accusato? Man mano che l’intelligenza artificiale si espande in nuovi settori, sorge sempre maggiore l’esigenza di una etica che esplori e regolamenti i confini tra umano e artificiale, definendo a priori come e quando fermarsi. A volte l’uomo ha necessità di “Colonne d’Ercole” presso le quali fermarsi.

Nata a Napoli nel 1993, Federica Amodio è laureata magistrale in Scienze e Tecnologie Genetiche presso il centro di ricerche genetiche BIOGEM 110 con lode. La sua tesi di laurea, verte sui meccanismi di regolazione del gene Zscan4 da parte dell’acido retinoico nelle cellule staminali embrionali murine. L’espressione di questi geni regolano le prime fasi per lo sviluppo degli embrioni. Per lungo tempo ha collaborato con il centro per una pubblicazione scientifica inerente al suo progetto di tesi.