Intelligenza artificiale, Sicurezza

Oklahoma City (USA). Gli agenti di polizia iniziano a utilizzare chatbot IA per redigere i rapporti sui crimini. Saranno validi in tribunale?

Una videocamera corporea ha catturato ogni parola e suono mentre il sergente di polizia Matt Gilmore e il suo cane K-9, Gunner, cercavano un gruppo di sospetti per quasi un’ora.

Normalmente, il sergente della polizia di Oklahoma City avrebbe preso il suo laptop e trascorso altri 30-45 minuti a scrivere un rapporto sulla ricerca. Ma questa volta ha utilizzato l’intelligenza artificiale per scrivere la prima bozza.

Traendo informazioni dai suoni e dalle comunicazioni radio captate dal microfono collegato alla videocamera corporea di Gilmore, lo strumento di IA ha prodotto un rapporto in otto secondi.

“Era un rapporto migliore di quanto avrei mai potuto scrivere io, ed era 100% accurato. Scorreva meglio”, ha detto Gilmore. Ha persino documentato un fatto che lui non ricordava di aver sentito: la menzione del colore dell’auto da cui i sospetti erano fuggiti, fatta da un altro agente.

Il dipartimento di polizia di Oklahoma City è uno dei pochi che sta sperimentando l’uso di chatbot IA per produrre le prime bozze dei rapporti sugli incidenti. Gli agenti di polizia che l’hanno provato sono entusiasti del tempo risparmiato grazie a questa tecnologia, mentre alcuni procuratori, osservatori della polizia e studiosi di diritto esprimono preoccupazioni su come potrebbe alterare un documento fondamentale nel sistema giudiziario penale, che gioca un ruolo chiave nel determinare chi viene perseguito o incarcerato.

Sviluppata con la stessa tecnologia di ChatGPT e venduta da Axon, nota soprattutto per aver sviluppato il Taser e come principale fornitore di videocamere corporee negli Stati Uniti, questa tecnologia potrebbe diventare, secondo Gilmore, un’altra “rivoluzione” per il lavoro di polizia.

“Gli agenti diventano poliziotti perché vogliono fare il lavoro di polizia, e passare metà della loro giornata a inserire dati è solo una parte tediosa del lavoro che odiano,” ha detto Rick Smith, fondatore e CEO di Axon, descrivendo il nuovo prodotto di IA — chiamato Draft One — come quello che ha ricevuto la “reazione più positiva” di qualsiasi altro prodotto introdotto dall’azienda.

“Ovviamente, ci sono delle preoccupazioni”, ha aggiunto Smith. In particolare, ha detto che i procuratori che perseguono un caso penale vogliono essere sicuri che siano gli agenti di polizia — e non esclusivamente un chatbot IA — a essere responsabili della stesura dei rapporti, poiché potrebbero dover testimoniare in tribunale su ciò che hanno visto.

“Non vogliono mai avere un agente sul banco dei testimoni che dica: ‘L’ha scritto l’IA, non io’”, ha detto Smith.

La tecnologia IA non è nuova per le agenzie di polizia, che hanno adottato strumenti algoritmici per leggere targhe, riconoscere volti di sospetti, rilevare suoni di spari e prevedere dove potrebbero verificarsi crimini. Molte di queste applicazioni hanno suscitato preoccupazioni sulla privacy e sui diritti civili, portando i legislatori a cercare di stabilire delle garanzie. Tuttavia, l’introduzione dei rapporti di polizia generati dall’IA è così recente che ci sono poche, se non nessuna, direttive che ne guidino l’uso.

Le preoccupazioni riguardo ai pregiudizi e alle discriminazioni razziali che potrebbero essere incorporati nella tecnologia IA sono solo parte di ciò che l’attivista comunitario di Oklahoma City, aurelius francisco, trova “profondamente inquietante” riguardo a questo nuovo strumento, che ha appreso tramite The Associated Press. francisco preferisce scrivere il suo nome in minuscolo come tattica per resistere al professionalismo.

“Il fatto che la tecnologia sia utilizzata dalla stessa azienda che fornisce i Taser al dipartimento è già abbastanza allarmante,” ha detto francisco, co-fondatore della Foundation for Liberating Minds a Oklahoma City.

Ha affermato che automatizzare quei rapporti “faciliterà la capacità della polizia di molestare, sorvegliare e infliggere violenza ai membri della comunità. Mentre facilita il lavoro dei poliziotti, rende più difficile la vita delle persone nere e marroni.”

Prima di provare lo strumento a Oklahoma City, i funzionari di polizia l’hanno mostrato ai procuratori locali, che hanno consigliato di usarlo con cautela nei casi penali di alta rilevanza. Per ora, viene utilizzato solo per rapporti su incidenti minori che non portano all’arresto di qualcuno.

“Quindi niente arresti, niente reati gravi, niente crimini violenti,” ha detto il capitano della polizia di Oklahoma City, Jason Bussert, che si occupa della tecnologia dell’informazione per il dipartimento di 1.170 agenti.

Non è lo stesso caso in un’altra città, Lafayette, Indiana, dove il capo della polizia Scott Galloway ha detto all’AP che tutti i suoi agenti possono utilizzare Draft One per qualsiasi tipo di caso ed è stato “incredibilmente popolare” da quando è iniziato il progetto pilota all’inizio di quest’anno.

Oppure a Fort Collins, Colorado, dove il sergente di polizia Robert Younger ha detto che gli agenti sono liberi di utilizzarlo su qualsiasi tipo di rapporto, anche se hanno scoperto che non funziona bene nelle pattuglie del distretto dei bar del centro città a causa di una “quantità schiacciante di rumore.”

Oltre all’uso dell’IA per analizzare e riassumere le registrazioni audio, Axon ha sperimentato la visione artificiale per riassumere ciò che viene “visto” nelle riprese video, prima di rendersi conto rapidamente che la tecnologia non era pronta.

“Date tutte le sensibilità legate alla polizia, alla razza e ad altre identità delle persone coinvolte, penso che ci sarà molto lavoro da fare prima di introdurla,” ha detto Smith, CEO di Axon, descrivendo alcune delle risposte testate come non “esplicitamente razziste” ma insensibili in altri modi.

Questi esperimenti hanno portato Axon a concentrarsi esclusivamente sull’audio nel prodotto presentato ad aprile durante la conferenza annuale dell’azienda per i funzionari di polizia.

La tecnologia si basa sullo stesso modello di intelligenza artificiale generativa che alimenta ChatGPT, sviluppato dalla OpenAI di San Francisco. OpenAI è un partner commerciale stretto di Microsoft, che è il fornitore di cloud computing di Axon.

“Usiamo la stessa tecnologia di base di ChatGPT, ma abbiamo accesso a più controlli e regolazioni rispetto a un normale utente di ChatGPT,” ha detto Noah Spitzer-Williams, che gestisce i prodotti di IA di Axon. Abbassare il “livello di creatività” aiuta il modello a concentrarsi sui fatti, in modo che “non esageri o allucini come farebbe se si usasse semplicemente ChatGPT da solo,” ha detto.

Axon non dice quanti dipartimenti di polizia stiano utilizzando la tecnologia. Non è l’unico fornitore, con startup come Policereports.ai e Truleo che offrono prodotti simili. Ma dato il rapporto stretto di Axon con i dipartimenti di polizia che acquistano i suoi Taser e le videocamere corporee, esperti e funzionari di polizia si aspettano che i rapporti generati dall’IA diventino più diffusi nei prossimi mesi e anni.

Prima che ciò accada, lo studioso di diritto Andrew Ferguson vorrebbe vedere una discussione pubblica più ampia sui benefici e i potenziali danni. Per esempio, i modelli linguistici di grandi dimensioni che alimentano i chatbot IA sono inclini a inventare informazioni false, un problema noto come “allucinazione” che potrebbe aggiungere false informazioni convincenti e difficili da notare in un rapporto di polizia.

“Sono preoccupato che l’automazione e la facilità della tecnologia possano portare gli agenti di polizia a essere meno attenti nella scrittura,” ha detto Ferguson, professore di diritto all’American University, che sta lavorando a quello che si prevede sarà il primo articolo di revisione legale su questa tecnologia emergente.

Ferguson ha detto che un rapporto di polizia è importante per determinare se il sospetto di un agente “giustifica la perdita della libertà di una persona.” A volte è l’unica testimonianza che un giudice vede, specialmente per i reati minori.

Anche i rapporti di polizia redatti dagli esseri umani hanno dei difetti, ha detto Ferguson, ma è una questione aperta su quale sia più affidabile.

Fonte: https://apnews.com/article/ai-writes-police-reports-axon-body-cameras-chatgpt-a24d1502b53faae4be0dac069243f418#

Articolo prodotto con il supporto di ChatGPT

Intelligenza artificiale, Sicurezza, Tecnologia

SARI: Intelligenza Artificiale per la Polizia Italiana. Saremo tutti tracciati?

In un recente caso di cronaca (la rapina di Lanciano) la Polizia Scientifica di Brescia ha potuto arrestare due sospettati grazie SARI (Sistema automatico di un riconoscimento immagini), un sistema di riconoscimento facciale introdotto l’anno scorso al servizio della Polizia Di Stato. Si tratta di un sistema di Intelligenza Artificiale che mette a confronto e cerca di riconoscere i volti.

SARI ha due modalità di funzionamento, come si può intuire dalla bozza di contratto pubblicata sul sito della Polizia: la modalità Enterprise che confronta una fotografia con un database di grandi dimensioni (nell’ordine di 10 milioni di immagini) e genera “una lista di volti simili al volto ricercato”.

E una modalità Real Time “per il riconoscimento in tempo reale di volti presenti in flussi video provenienti da telecamere IP, con relativo confronto dei volti presenti nei flussi video con quelli di una “watch-list” (con una grandezza dell’ordine di 100.000 soggetti) e trasmissione di un alert in caso di match positivo”.

È un sistema concettualmente simile a quello che ognuno di noi può sperimentare in Google Photo, su iOS, su Amazon Photo o in tanti altri sistemi simili. Il software non solo sa riconoscere i volti umani, ma riesce anche a distinguere tra l’uno e l’altro. Quello che non si trova nei software commerciali, naturalmente, è il confronto con un database esterno composto da centinaia di migliaia o anche milioni di immagini; ciò che permette a SARI di dire questa foto potrebbe essere Tizio.

Nella fattispecie, SARI è sviluppato dall’azienda Parsec 3.26 con sede a Lecce ed è probabilmente basato sul loro prodotto commerciale Reco – Face Recognition System. Il database usato per il confronto è la banca dati SsA del sistema AFIS, e include 16 milioni di immagini grazie ad “altri database”.

Finora non è stato possibile chiarire da dove vengono le altre immagini, tant’è che il Deputato Federico D’Incà ha chiesto chiarimenti tramite un’interrogazione parlamentare ufficiale. C’è chi si domanda da dove arrivino quei sedici milioni di immagini e come siano state raccolte, e per ora sono domande senza risposta. Con il timore che i cittadini italiani siano stati inclusi a loro insaputa.

Altra criticità riguarda i falsi positivi. Fermo restando che la responsabilità ultima resta all’agente, questi sistemi di sorveglianza se la cavano piuttosto bene con le fotografie, ma quando si passa alle videocamere in tempo reale la precisione è discutibile nel migliore dei casi, disastrosa in quello peggiore.

L’altro problema riguarda la privacy di tutti: le videocamere registrano immagini e le conservano per chiunque passi sotto il loro occhio elettronico. Che si tratti di criminali incalliti o di cittadini perfettamente onesti, non cambia nulla: le immagini vengono conservate a lungo, mesi o anche anni a volte (dipende dalla legislazione e dagli eventi).

In Gran Bretagna, in occasione di una partita, un sistema simile ha individuato 2297 persone che sono state fermate e interrogate per errore. Ognuna di queste persone si è vista dunque convocare dalla polizia e poi ha subito un interrogatorio. Non è quindi solo una questione di principio, ma anche di problemi reali, dalla perdita di tempo al trauma emotivo.

Alcuni non ci vedono nessun problema, anzi magari si sentono più sicuri; altri invece credono che sia un’illecita violazione della privacy e della libertà individuale. Torniamo quindi a un’antica dicotomia mai davvero risolta, quella che contrappone libertà individuale e sicurezza pubblica. Per com’è andata la Storia recente, pare che siano due grandezze inconciliabili e inversamente proporzionali. Per avere una bisogna rinunciare all’altra e viceversa.

Fonte: tom’shardware (qui)

Innovazione, Intelligenza artificiale, Sicurezza

Riconoscimento facciale, come funziona. Il video della polizia.

Sono terminate le fasi di sperimentazione e formazione relative al nuovo software della Polizia di Stato denominato ”Sistema Automatico di Riconoscimento Immagini (S.A.R.I.)”, strumento di supporto alle attività investigative di contrasto al crimine. Il SARI Enterprise consente di effettuare ricerche nella banca dati A.F.I.S., attraverso l’inserimento di un’immagine fotografica di un soggetto ignoto che, elaborata da due algoritmi di riconoscimento facciale, fornisce un elenco di immagini ordinato secondo un grado di similarità. Nell’ipotesi di match, al fine di integrare l’utilità investigativa del risultato con un accertamento tecnico a valenza dibattimentale, è comunque necessaria una comparazione fisionomica effettuata da personale specializzato di Polizia Scientifica. Anche grazie al sistema di riconoscimento facciale due ladri georgiani sono stati arrestati dalla polizia a Brescia. I due sono ritenuti responsabili di un furto in un’abitazione commesso lo scorso 17 luglio. Decisiva, per le indagini condotte dalla Squadra mobile, è stata l’acquisizione delle immagini di una telecamera di video sorveglianza installata all’interno dello stabile che aveva ripreso in azione i due. “I fotogrammi sono stati poi analizzati con l’applicativo in uso alla Polizia Scientifica che permette di confrontare le immagini dei rei con i volti dei milioni di soggetti schedati, restituendo una ristretta platea di sospettati. A completare il quadro indiziario a carico dei due stranieri, domiciliati in provincia di Verona, è stato il ritrovamento degli indumenti indossati durante il furto e l’analisi dei tabulati telefonici”.

Fonte: quotidiano.net (qui)