Intelligenza artificiale, Sicurezza, Tecnologia

SARI: Intelligenza Artificiale per la Polizia Italiana. Saremo tutti tracciati?

In un recente caso di cronaca (la rapina di Lanciano) la Polizia Scientifica di Brescia ha potuto arrestare due sospettati grazie SARI (Sistema automatico di un riconoscimento immagini), un sistema di riconoscimento facciale introdotto l’anno scorso al servizio della Polizia Di Stato. Si tratta di un sistema di Intelligenza Artificiale che mette a confronto e cerca di riconoscere i volti.

SARI ha due modalità di funzionamento, come si può intuire dalla bozza di contratto pubblicata sul sito della Polizia: la modalità Enterprise che confronta una fotografia con un database di grandi dimensioni (nell’ordine di 10 milioni di immagini) e genera “una lista di volti simili al volto ricercato”.

E una modalità Real Time “per il riconoscimento in tempo reale di volti presenti in flussi video provenienti da telecamere IP, con relativo confronto dei volti presenti nei flussi video con quelli di una “watch-list” (con una grandezza dell’ordine di 100.000 soggetti) e trasmissione di un alert in caso di match positivo”.

È un sistema concettualmente simile a quello che ognuno di noi può sperimentare in Google Photo, su iOS, su Amazon Photo o in tanti altri sistemi simili. Il software non solo sa riconoscere i volti umani, ma riesce anche a distinguere tra l’uno e l’altro. Quello che non si trova nei software commerciali, naturalmente, è il confronto con un database esterno composto da centinaia di migliaia o anche milioni di immagini; ciò che permette a SARI di dire questa foto potrebbe essere Tizio.

Nella fattispecie, SARI è sviluppato dall’azienda Parsec 3.26 con sede a Lecce ed è probabilmente basato sul loro prodotto commerciale Reco – Face Recognition System. Il database usato per il confronto è la banca dati SsA del sistema AFIS, e include 16 milioni di immagini grazie ad “altri database”.

Finora non è stato possibile chiarire da dove vengono le altre immagini, tant’è che il Deputato Federico D’Incà ha chiesto chiarimenti tramite un’interrogazione parlamentare ufficiale. C’è chi si domanda da dove arrivino quei sedici milioni di immagini e come siano state raccolte, e per ora sono domande senza risposta. Con il timore che i cittadini italiani siano stati inclusi a loro insaputa.

Altra criticità riguarda i falsi positivi. Fermo restando che la responsabilità ultima resta all’agente, questi sistemi di sorveglianza se la cavano piuttosto bene con le fotografie, ma quando si passa alle videocamere in tempo reale la precisione è discutibile nel migliore dei casi, disastrosa in quello peggiore.

L’altro problema riguarda la privacy di tutti: le videocamere registrano immagini e le conservano per chiunque passi sotto il loro occhio elettronico. Che si tratti di criminali incalliti o di cittadini perfettamente onesti, non cambia nulla: le immagini vengono conservate a lungo, mesi o anche anni a volte (dipende dalla legislazione e dagli eventi).

In Gran Bretagna, in occasione di una partita, un sistema simile ha individuato 2297 persone che sono state fermate e interrogate per errore. Ognuna di queste persone si è vista dunque convocare dalla polizia e poi ha subito un interrogatorio. Non è quindi solo una questione di principio, ma anche di problemi reali, dalla perdita di tempo al trauma emotivo.

Alcuni non ci vedono nessun problema, anzi magari si sentono più sicuri; altri invece credono che sia un’illecita violazione della privacy e della libertà individuale. Torniamo quindi a un’antica dicotomia mai davvero risolta, quella che contrappone libertà individuale e sicurezza pubblica. Per com’è andata la Storia recente, pare che siano due grandezze inconciliabili e inversamente proporzionali. Per avere una bisogna rinunciare all’altra e viceversa.

Fonte: tom’shardware (qui)

Tecnologia

WhatsApp, il co-fondatore pentito Brian Acton: “Ho venduto la privacy degli utenti”

Alla fine dei conti, ho venduto la mia compagnia. Ho venduto la privacy dei miei utenti. Ho fatto una scelta e accettato un compromesso. E ci convivo ogni giorno”. A parlare è Brian Acton, il co-fondatore di WhatsApp. Per la prima volta, in un’intervista a Forbes, ha raccontato la vendita a Facebook e l’addio alla società, avvenuta circa un anno fa.

I motivi dell’addio a Facebook

Acton, da sempre dietro le quinte, si era fatto notare alla fine di marzo twittando #deletefacebook dopo il caso Cambridge Analytica. Un invito a cancellarsi dal social network che lo aveva reso miliardario e per la quale lavorava fino a qualche mese prima. Adesso, dopo l’addio dell’altro co-fondatore Jan Koum e dei padri di Instagram, Acton torna all’attacco. Afferma che “gli sforzi per spingere i ricavi” stavano andando “a scapito della bontà del prodotto”. Un atteggiamento che “mi ha lasciato con l’amaro in bocca”. E che ha portato alle dimissioni. Acton racconta di un rapporto personale mai sbocciato con Zuckerberg (“Non ho molto da aggiungere sul ragazzo”). E di una prospettiva completamente diversa rispetto alla sua. Facebook, contro la volontà dei fondatori, voleva introdurre la pubblicità su WhatsApp. Acton ha raccontato di aver proposto a Sheryl Sandberg un’alternativa: far pagare gli utenti pochi centesimi dopo un certo numero di messaggi. Una soluzione che non avrebbe convinto i vertici di Menlo Park. Secondo Acton perché non avrebbe reso abbastanza. “Loro sono buoni uomini d’affari. Solo che rappresentano – ha affermato il co-fondatore di WhatsApp – pratiche, principi etici e politiche con i quali non sono d’accordo”. Ecco allora i motivi dell’addio. Costato ad Acton 850 milioni di dollari. A tanto equivale l’ultima tranche di azioni che avrebbe ottenuto di lì a qualche mese.

La risposta di Mr Messenger

Facebook non ha risposto ufficialmente. Lo ha fatto però con un post, a titolo personale, David Marcus. Fino a maggio è stato responsabile di Messenger e oggi è a capo dei progetti di Menlo Park sulla blockchain. “Ditemi pure che sono vecchio stile – scrive Marcus – ma credo che attaccare le persone e la compagnia che ti hanno reso miliardario e che ti hanno protetto per anni, sia un colpo basso”. Acton ha sì rinunciato a 850 milioni. Ma ha comunque incassato buona parte di quei 19 miliardi spesi da Facebook per comprare l’app di messaggistica. Lo stesso co-fondatore l’ha definita definisce “un’offerta che non si poteva rifiutare”. Marcus difende direttamente Zuckerberg, per aver “tutelato” e dato “un’autonomia senza precedenti in una grande compagnia” ai fondatori delle società acquisite, come WhatsApp e Instagram. Quanto alle alternative proposte da Acton, Marcus sostiene un’altra versione, trasformandosi in una zavorra con il chiaro intento di “rallentare” l’avanzamento dei progetti.

Fonte: tg24.sky.it (qui), Forbes (qui)

Innovazione, Intelligenza artificiale, Sicurezza

Riconoscimento facciale, come funziona. Il video della polizia.

Sono terminate le fasi di sperimentazione e formazione relative al nuovo software della Polizia di Stato denominato ”Sistema Automatico di Riconoscimento Immagini (S.A.R.I.)”, strumento di supporto alle attività investigative di contrasto al crimine. Il SARI Enterprise consente di effettuare ricerche nella banca dati A.F.I.S., attraverso l’inserimento di un’immagine fotografica di un soggetto ignoto che, elaborata da due algoritmi di riconoscimento facciale, fornisce un elenco di immagini ordinato secondo un grado di similarità. Nell’ipotesi di match, al fine di integrare l’utilità investigativa del risultato con un accertamento tecnico a valenza dibattimentale, è comunque necessaria una comparazione fisionomica effettuata da personale specializzato di Polizia Scientifica. Anche grazie al sistema di riconoscimento facciale due ladri georgiani sono stati arrestati dalla polizia a Brescia. I due sono ritenuti responsabili di un furto in un’abitazione commesso lo scorso 17 luglio. Decisiva, per le indagini condotte dalla Squadra mobile, è stata l’acquisizione delle immagini di una telecamera di video sorveglianza installata all’interno dello stabile che aveva ripreso in azione i due. “I fotogrammi sono stati poi analizzati con l’applicativo in uso alla Polizia Scientifica che permette di confrontare le immagini dei rei con i volti dei milioni di soggetti schedati, restituendo una ristretta platea di sospettati. A completare il quadro indiziario a carico dei due stranieri, domiciliati in provincia di Verona, è stato il ritrovamento degli indumenti indossati durante il furto e l’analisi dei tabulati telefonici”.

Fonte: quotidiano.net (qui)

Innovazione, Politica, Salute

Così l’intelligenza artificiale impara a scovare i tumori. In meno di due ore

Un test, condotto grazie al co-fondatore di una startup e un radiologo, vuole dare un’idea di come funzionino questi “cervelli”. Che presto potrebbero salvarci la vita.

Tutti sappiamo come si è formato un medico: libri e articoli, ore e ore sul campo. Il modo in cui funziona l’intelligenza artificiale è meno intuitivo. Abbiamo deciso di chiarirlo, anche perché l’AI sarà sempre più importante per la diagnostica. È questo il ragionamento che ha spinto Quartz a fare un esperimento: allenare due algoritmi a riconoscere un cancro ai polmoni. In un paio d’ore.

L’esperimento

Diciamolo subito: un “medico artificiale” efficiente ha bisogno di più tempo e molti più dati. Il test, condotto grazie al co-fondatore della startup MD.ai Leon Chen e al radiologo Luke Oakden-Rayner, vuole dare un’idea di come funzionino questi “cervelli”. Che presto potrebbero salvarci la vita. Se un oncologo impara dai manuali e dall’esperienza, l’intelligenza artificiale apprende solo dai dati: circa 190.000 immagini, bidimensionali e in 3D, con noduli maligni, benigni o privi di qualsiasi formazione. Un nodulo è un piccolo pezzo di tessuto  di tessuto che non è normalmente presente nei polmoni. Già individuarlo non è semplice. Perché è piccolo e spesso poco visibili. E può essere confuso con altre formazioni. Poi il passo successivo: saper distinguere tra un nodulo maligno e uno che non lo è.

Cosa impara l’AI in 75 minuti

Dopo una ventina di minuti e dopo aver digerito le prime 50.000 immagini, l’algoritmo inizia a dare i primi risultati (ancora scarsi). Individua correttamente circa il 46% dei noduli. Ma non ha ancora cognizione di cosa siano di preciso. A volte, infatti, confonde i vasi sanguigni con un possibile cancro. Dopo mezz’ora, gli algoritmi hanno analizzato 95.000 radiografie. Riescono a individuare il 60% dei noduli. E nel 69% sono in grado di dire con esattezza se sono maligni. “In questa fase, il sistema ha un’estrema sicurezza quando rileva noduli di grandi dimensioni (oltre il centimetro di diametro)”. Mentre “non ha ancora imparato alcune nozioni semplici”.

Anzi, molto semplici. È tarato solo per riconoscere i noduli polmonari, ma non sa cosa sia esattamente un polmone. Individua quindi formazioni in zone del corpo dove i “noduli polmonari” non possono esserci. Per il semplice fatto che sono, appunto, polmonari. In altre parole, spiega Quartz: l’intelligenza artificiale è priva di buon senso perché si attiene ai soli dati. A questo stadio, quindi, combina risultati discreti con falle elementari. “Anche un bambino di tre anni sa distinguere pancia e petto”. L’AI invece “non sa cosa siano”. A tre quarti dell’esperimento, dopo quasi un’ora e 143.000 immagini, l’intelligenza artificiale comincia a possedere la materia. Ed evidenzia risultati che Quartz definisce “piuttosto buoni”. Ha ancora difficolta a individuare i noduli (l’accuratezza è del 64%). Anche in questo caso, la pecca è la mancanza di buon senso. Il medico artificiale indica noduli in zone dove è molto raro che ci siano.

Confondendoli spesso con piccole cicatrici. Un medico umano, in questo, è molto più efficiente. Inizia a essere significativa l’accuratezza delle formazioni maligne: 76.38%. Fine dell’esperimento, dopo 75 minuti e oltre 190.000 immagini. L’accuratezza nell’individuazione dei noduli sfiora il 68%. E la capacità di capire quali sono maligni è dell’82.82%. L’intelligenza artificiale è migliorata ancora. Ancora troppo spesso i noduli vengono scambiati con altro. Ma, quando succede, l’AI giudica la formazione benigna. “La risposta terapeutica per il paziente – scrivono gli autori del test – sarebbe quindi simile”.

Conoscenza ed esperienza

“L’intelligenza artificiale funziona molto bene, anche se non è ancora al livello di un radiologo”, conclude Quartz. Molto dipende da un corredo di dati ancora troppo esiguo. Ma se questi sono i risultati ottenuto in meno di due ore e con 190.000 immagini, pensate cosa potrebbe fare un sistema più complesso, con un archivio fatto di centinaia di migliaia di contenuti. Come quelli prodotti ogni giorno da cliniche e ospedali.

Allo stesso tempo, l’esperimento sottolinea i pregi dell’uomo, in grado di usare “le conoscenze pregresse come un’impalcatura”. L’intelligenza artificiale, invece, ha bisogno di costruirla ogni volta. E può farlo solo grazie a una mole enorme di esempi. In questo caso ne sono serviti 50.000 per “insegnare” alle macchine quello che uno studente imparerebbe con un solo manuale. Solo che nessun medico è in grado di leggere un libro in 17 minuti. Il futuro della diagnostica dipenderà dalla capacità di fondere le doti di ognuno: la conoscenza umana con l’esperienza artificiale.

Fonte: agi.it Articolo di P. Fiore dell’8 settembre 2018 (qui)