Imprese, Intelligenza artificiale, Microimprese

AI: Dal 2 febbraio 2025 la formazione nelle aziende è obbligatoria.

A partire dal 2 febbraio 2025, le aziende operanti nell’Unione Europea dovranno affrontare una nuova sfida: garantire che i propri dipendenti acquisiscano competenze adeguate sull’intelligenza artificiale (IA). Questo obbligo, introdotto dall’AI Act, rappresenta un passo significativo verso la creazione di un ecosistema lavorativo più consapevole e preparato alle trasformazioni digitali. L’obiettivo è chiaro: assicurare che la forza lavoro europea sia in grado di utilizzare, gestire e sviluppare tecnologie IA in modo etico, sicuro ed efficiente.

Il contesto: l’AI Act e la regolamentazione dell’intelligenza artificiale

L’AI Act, approvato dall’Unione Europea nel 2023, è il primo quadro normativo completo al mondo dedicato alla regolamentazione dell’intelligenza artificiale. Questo regolamento mira a bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali, garantendo che l’IA sia sviluppata e utilizzata in modo responsabile. Tra le varie disposizioni, una delle più rilevanti è l’obbligo per le aziende di formare i propri dipendenti sulle competenze necessarie per lavorare con e accanto all’IA.

L’introduzione di questo obbligo riflette la crescente consapevolezza dell’impatto trasformativo dell’IA sul mondo del lavoro. Secondo un rapporto della Commissione Europea, entro il 2030, oltre il 50% delle professioni richiederà competenze digitali avanzate, con l’IA che giocherà un ruolo centrale in molti settori, dalla sanità alla finanza, dalla manifattura ai servizi pubblici.

Perché è necessaria la formazione obbligatoria sull’IA?

L’IA sta rivoluzionando il modo in cui lavoriamo, introducendo nuove opportunità ma anche nuove sfide. Automazione, analisi predittiva, machine learning e altre tecnologie IA stanno trasformando processi aziendali, creando nuovi ruoli e rendendo obsoleti altri. Tuttavia, per sfruttare appieno il potenziale di queste tecnologie, è essenziale che i lavoratori abbiano le competenze necessarie per utilizzarle in modo efficace.

Senza una formazione adeguata, c’è il rischio che i dipendenti si trovino impreparati di fronte a queste innovazioni, con conseguenti inefficienze, errori e persino rischi per la sicurezza. Inoltre, la mancanza di competenze digitali potrebbe esacerbare le disuguaglianze nel mercato del lavoro, lasciando indietro coloro che non riescono ad adattarsi alle nuove esigenze.

L’obbligo di formazione sull’IA introdotto dall’AI Act mira a colmare questo divario, garantendo che tutti i lavoratori, indipendentemente dal loro ruolo o settore, abbiano accesso alle conoscenze necessarie per navigare nel nuovo panorama digitale.

Chi deve essere formato?

L’obbligo di formazione non riguarda solo i professionisti direttamente coinvolti nello sviluppo o nella gestione dei sistemi di IA, ma anche i dipendenti che interagiscono con queste tecnologie nel corso delle proprie mansioni quotidiane. Ciò include:

  • Sviluppatori e ingegneri software;
  • Operatori che utilizzano sistemi automatizzati;
  • Manager e dirigenti responsabili delle decisioni strategiche;
  • Persone coinvolte nell’analisi dei dati o nella valutazione dei risultati prodotti dall’IA.

Cosa implica l’obbligo di formazione per le aziende?

A partire dal 2 febbraio 2025, tutte le aziende operanti nell’UE dovranno garantire che i propri dipendenti ricevano una formazione adeguata sull’intelligenza artificiale. Questo obbligo si applica a tutte le imprese, indipendentemente dalle loro dimensioni o settore, sebbene le modalità di attuazione possano variare in base alle specifiche esigenze aziendali.

Le aziende dovranno sviluppare programmi di formazione che coprano una gamma di competenze, tra cui:

  1. Concetti di base dell’IA: comprensione dei principi fondamentali dell’intelligenza artificiale, del machine learning e delle reti neurali.
  2. Applicazioni pratiche dell’IA: come l’IA viene utilizzata in diversi settori e quali sono i suoi potenziali benefici e limiti.
  3. Etica e responsabilità: consapevolezza delle implicazioni etiche dell’IA, inclusi i rischi di bias, discriminazione e violazione della privacy.
  4. Sicurezza e conformità: conoscenza delle normative europee in materia di IA, compresi i requisiti di trasparenza e accountability.
  5. Collaborazione uomo-macchina: sviluppo di competenze per lavorare in sinergia con sistemi IA, migliorando l’efficienza e la produttività.

Le aziende avranno la flessibilità di scegliere come erogare questa formazione, che potrà avvenire attraverso corsi online, workshop, seminari o programmi di apprendimento sul posto di lavoro. Tuttavia, dovranno garantire che la formazione sia accessibile a tutti i dipendenti e che sia adattata alle esigenze specifiche del loro settore.

Le sfide per le aziende

L’implementazione di questo obbligo non sarà priva di sfide. Per molte aziende, specialmente le piccole e medie imprese (PMI), organizzare e finanziare programmi di formazione sull’IA potrebbe rappresentare un onere significativo. Inoltre, la rapida evoluzione delle tecnologie IA richiederà un aggiornamento continuo delle competenze, rendendo la formazione un processo dinamico e in costante evoluzione.

Per affrontare queste sfide, la Commissione Europea ha annunciato una serie di misure di supporto, tra cui finanziamenti dedicati, piattaforme di condivisione delle migliori pratiche e partenariati pubblico-privati per lo sviluppo di programmi di formazione. Inoltre, le aziende potranno beneficiare di collaborazioni con università, centri di ricerca e fornitori di formazione specializzati per garantire che i loro dipendenti ricevano una formazione di alta qualità.

I benefici a lungo termine

Nonostante le sfide, l’obbligo di formazione sull’IA offre numerosi benefici a lungo termine per le aziende, i dipendenti e l’economia europea nel suo complesso.

Per le aziende, investire nella formazione dei dipendenti sull’IA significa aumentare la produttività, migliorare l’innovazione e rimanere competitive in un mercato globale sempre più digitalizzato. Inoltre, aziende con una forza lavoro ben formata saranno meglio attrezzate per adottare nuove tecnologie e rispondere alle esigenze dei clienti in modo più efficace.

Per i dipendenti, acquisire competenze sull’IA significa migliorare la propria occupabilità e aprire nuove opportunità di carriera. In un mondo del lavoro in rapida evoluzione, la capacità di lavorare con l’IA sarà un asset sempre più prezioso, che consentirà ai lavoratori di rimanere rilevanti e competitivi.

A livello macroeconomico, la diffusione di competenze digitali avanzate contribuirà a rafforzare la posizione dell’Europa come leader globale nell’innovazione tecnologica. Una forza lavoro ben formata sull’IA sarà essenziale per guidare la transizione digitale e garantire una crescita economica sostenibile e inclusiva.

Conclusioni

L’obbligo di formazione sull’intelligenza artificiale introdotto dall’AI Act rappresenta un passo fondamentale verso la creazione di un futuro del lavoro più equo, sicuro e innovativo. Mentre le aziende si preparano a implementare questa nuova normativa, è essenziale che collaborino con istituzioni, educatori e esperti per garantire che i programmi di formazione siano efficaci, accessibili e all’avanguardia.

In un mondo sempre più dominato dalla tecnologia, investire nelle competenze dei dipendenti non è solo una questione di conformità normativa, ma una strategia vincente per costruire un futuro prospero e sostenibile. L’Europa, con questa iniziativa, si posiziona come pioniere nella regolamentazione e nella promozione di un uso responsabile e consapevole dell’intelligenza artificiale, gettando le basi per una società digitale più inclusiva e preparata alle sfide del domani.

Articolo generato dall’IA.

Innovazione, Intelligenza artificiale

Strategia italiana per l’intelligenza artificiale: una sintesi di ChatGPT 4o.

Ho chiesto a ChatGPT 4o di analizzare il documento relativo alla Strategia italiana per l’intelligenza artificiale 2024-2026 e produrre una sintesi circa le azioni previste. Gli ho inoltre chiesto di classificare le azioni in efficaci, programmatiche, irrealizzabili, costose, innovative, e quelle, che se attuate, comporteranno una limitazione all’uso dell’AI.

Ecco il risultato:

La “Strategia Italiana per l’Intelligenza Artificiale 2024-2026” presenta una serie di azioni programmate che si possono classificare come segue:

  1. Efficaci • Sviluppo di infrastrutture per l’IA: Viene promossa la costruzione di reti intelligenti per evitare la congestione dovuta al traffico dati e per garantire un’infrastruttura tecnologica adeguata. Azioni come la collaborazione tra settore pubblico e privato e investimenti in soluzioni di edge computing possono risultare efficaci nel migliorare la capacità tecnologica dell’Italia.
    • Percorsi di reskilling e upskilling: Vengono proposte iniziative mirate alla formazione e alla riqualificazione del personale nelle imprese e nella pubblica amministrazione, con l’obiettivo di colmare il divario tra competenze richieste e disponibili. Questa azione è cruciale per preparare il mercato del lavoro alla rivoluzione dell’IA.
  2. Programmatiche • Promozione della ricerca scientifica fondazionale e applicata: L’Italia punta a consolidare l’ecosistema della ricerca e promuovere la collaborazione internazionale. Viene indicato l’obiettivo di sviluppare soluzioni di IA in ambiti strategici e sociali, come la tutela ambientale e sanitaria.
    • Monitoraggio e coordinamento tramite la Fondazione per l’IA: Si propone la creazione di una Fondazione che coordini l’attuazione delle varie iniziative, gestisca il registro dei dataset e modelli di IA e monitori i progressi della strategia.
  3. Irrealizzabili • Rischio di non fare: Il documento sottolinea il rischio che un approccio timido o mal focalizzato porti alla mancanza di efficacia delle azioni. Questo aspetto evidenzia che alcune delle azioni proposte potrebbero rimanere irrealizzabili se non sostenute da un impegno serio e coerente a livello politico e amministrativo.
  4. Costose • Infrastrutture di rete per l’IA: Il miglioramento delle infrastrutture digitali e lo sviluppo di reti intelligenti richiedono un notevole impegno economico, specialmente in termini di aggiornamento delle infrastrutture esistenti e implementazione di tecnologie avanzate.
    • Fondi per sostenere la strategia: La creazione di un fondo per sostenere le azioni strategiche, alimentato anche da ricavi derivanti dalle stesse iniziative, richiederà un investimento iniziale considerevole.
  5. Innovative • Creazione di un registro nazionale di dataset e modelli di IA: Questa azione prevede la condivisione e il riuso di dati e modelli di IA attraverso un registro nazionale. L’obiettivo è standardizzare i processi e rendere accessibili i dataset per accelerare lo sviluppo di soluzioni italiane. L’adozione di tecnologie per la protezione della privacy (PET) è un’idea innovativa che potrebbe favorire la partecipazione e la fiducia nella condivisione dei dati.
    • Applicazioni di IA nella Pubblica Amministrazione: Le iniziative per automatizzare e migliorare l’efficienza delle procedure amministrative attraverso l’IA rappresentano un’azione innovativa, che potrebbe cambiare radicalmente l’esperienza dei cittadini nell’interazione con lo Stato.
  6. Limitazione dell’uso dell’IA • Rischio dell’iper-regolamentazione: Il documento evidenzia che l’IA potrebbe essere soggetta a eccessive regolamentazioni, specialmente con l’introduzione dell’AI Act europeo. La complessità delle normative potrebbe rallentare l’adozione dell’IA, limitando il potenziale innovativo, soprattutto per le piccole e medie imprese.

Queste azioni delineano una strategia ambiziosa che bilancia innovazione, necessità di infrastrutture e formazione con un’attenta regolamentazione per minimizzare i rischi sociali e culturali legati all’adozione dell’intelligenza artificiale.

Articolo realizzato con ChatGPT

Fonte: Qui

Intelligenza artificiale, Occupazione, Robotica

Robotica umanoide. Ancora passi in avanti. Mentre i futuri effetti sull’occupazione umana sono ancora al palo nel dibattito politico quotidiano.

1X Technologies ha recentemente presentato NEO Beta, un prototipo di robot umanoide bipedale progettato per l’uso domestico. NEO Beta rappresenta un passo avanti importante, combinando design bio-ispirati con un’attenzione particolare alla sicurezza, per operare in ambienti abitati. L’obiettivo di 1X è creare robot che possano svolgere un’ampia gamma di compiti, contribuendo all’automazione del lavoro fisico, riducendo il carico di lavoro umano e garantendo la sicurezza degli utenti. Inizialmente, una serie limitata sarà distribuita per la ricerca e sviluppo.

Analisi Tecnologica e Impatti

L’arrivo di NEO Beta rappresenta un notevole avanzamento nel campo della robotica umanoide, con tecnologie bio-ispirate che rendono questi robot più adattabili e sicuri per l’interazione con le persone. Questa evoluzione segna una transizione importante, da prototipi concettuali a prodotti commerciali su larga scala. L’introduzione di NEO nelle case promette di rivoluzionare il modo in cui concepiamo il lavoro fisico, rendendo la vita domestica più efficiente e automatizzata.

Implicazioni sull’Occupazione

L’automazione avanzata come quella offerta da NEO Beta porta con sé domande importanti riguardo all’impatto sull’occupazione. Se da un lato i robot possono prendere in carico compiti domestici e ripetitivi, liberando gli esseri umani da mansioni più faticose, dall’altro si potrebbe assistere a una diminuzione di posti di lavoro in settori tradizionali legati ai servizi. Tuttavia, questa nuova ondata tecnologica potrebbe anche creare nuove opportunità, specialmente nel campo della manutenzione e gestione della robotica.

In conclusione, l’introduzione di robot umanoidi su larga scala nelle abitazioni apre un futuro di collaborazione uomo-macchina, con potenziali vantaggi in termini di produttività e qualità della vita, se accompagnata da una corretta gestione dell’impatto occupazionale.

Articolo realizzato con il supporto di ChatGPT

Immagine: Dal sito di 1X technologies.

Fonte: 1X technologies https://www.1x.tech/discover/announcement-1x-unveils-neo-beta-a-humanoid-robot-for-the-home

Intelligenza artificiale, Sicurezza

Oklahoma City (USA). Gli agenti di polizia iniziano a utilizzare chatbot IA per redigere i rapporti sui crimini. Saranno validi in tribunale?

Una videocamera corporea ha catturato ogni parola e suono mentre il sergente di polizia Matt Gilmore e il suo cane K-9, Gunner, cercavano un gruppo di sospetti per quasi un’ora.

Normalmente, il sergente della polizia di Oklahoma City avrebbe preso il suo laptop e trascorso altri 30-45 minuti a scrivere un rapporto sulla ricerca. Ma questa volta ha utilizzato l’intelligenza artificiale per scrivere la prima bozza.

Traendo informazioni dai suoni e dalle comunicazioni radio captate dal microfono collegato alla videocamera corporea di Gilmore, lo strumento di IA ha prodotto un rapporto in otto secondi.

“Era un rapporto migliore di quanto avrei mai potuto scrivere io, ed era 100% accurato. Scorreva meglio”, ha detto Gilmore. Ha persino documentato un fatto che lui non ricordava di aver sentito: la menzione del colore dell’auto da cui i sospetti erano fuggiti, fatta da un altro agente.

Il dipartimento di polizia di Oklahoma City è uno dei pochi che sta sperimentando l’uso di chatbot IA per produrre le prime bozze dei rapporti sugli incidenti. Gli agenti di polizia che l’hanno provato sono entusiasti del tempo risparmiato grazie a questa tecnologia, mentre alcuni procuratori, osservatori della polizia e studiosi di diritto esprimono preoccupazioni su come potrebbe alterare un documento fondamentale nel sistema giudiziario penale, che gioca un ruolo chiave nel determinare chi viene perseguito o incarcerato.

Sviluppata con la stessa tecnologia di ChatGPT e venduta da Axon, nota soprattutto per aver sviluppato il Taser e come principale fornitore di videocamere corporee negli Stati Uniti, questa tecnologia potrebbe diventare, secondo Gilmore, un’altra “rivoluzione” per il lavoro di polizia.

“Gli agenti diventano poliziotti perché vogliono fare il lavoro di polizia, e passare metà della loro giornata a inserire dati è solo una parte tediosa del lavoro che odiano,” ha detto Rick Smith, fondatore e CEO di Axon, descrivendo il nuovo prodotto di IA — chiamato Draft One — come quello che ha ricevuto la “reazione più positiva” di qualsiasi altro prodotto introdotto dall’azienda.

“Ovviamente, ci sono delle preoccupazioni”, ha aggiunto Smith. In particolare, ha detto che i procuratori che perseguono un caso penale vogliono essere sicuri che siano gli agenti di polizia — e non esclusivamente un chatbot IA — a essere responsabili della stesura dei rapporti, poiché potrebbero dover testimoniare in tribunale su ciò che hanno visto.

“Non vogliono mai avere un agente sul banco dei testimoni che dica: ‘L’ha scritto l’IA, non io’”, ha detto Smith.

La tecnologia IA non è nuova per le agenzie di polizia, che hanno adottato strumenti algoritmici per leggere targhe, riconoscere volti di sospetti, rilevare suoni di spari e prevedere dove potrebbero verificarsi crimini. Molte di queste applicazioni hanno suscitato preoccupazioni sulla privacy e sui diritti civili, portando i legislatori a cercare di stabilire delle garanzie. Tuttavia, l’introduzione dei rapporti di polizia generati dall’IA è così recente che ci sono poche, se non nessuna, direttive che ne guidino l’uso.

Le preoccupazioni riguardo ai pregiudizi e alle discriminazioni razziali che potrebbero essere incorporati nella tecnologia IA sono solo parte di ciò che l’attivista comunitario di Oklahoma City, aurelius francisco, trova “profondamente inquietante” riguardo a questo nuovo strumento, che ha appreso tramite The Associated Press. francisco preferisce scrivere il suo nome in minuscolo come tattica per resistere al professionalismo.

“Il fatto che la tecnologia sia utilizzata dalla stessa azienda che fornisce i Taser al dipartimento è già abbastanza allarmante,” ha detto francisco, co-fondatore della Foundation for Liberating Minds a Oklahoma City.

Ha affermato che automatizzare quei rapporti “faciliterà la capacità della polizia di molestare, sorvegliare e infliggere violenza ai membri della comunità. Mentre facilita il lavoro dei poliziotti, rende più difficile la vita delle persone nere e marroni.”

Prima di provare lo strumento a Oklahoma City, i funzionari di polizia l’hanno mostrato ai procuratori locali, che hanno consigliato di usarlo con cautela nei casi penali di alta rilevanza. Per ora, viene utilizzato solo per rapporti su incidenti minori che non portano all’arresto di qualcuno.

“Quindi niente arresti, niente reati gravi, niente crimini violenti,” ha detto il capitano della polizia di Oklahoma City, Jason Bussert, che si occupa della tecnologia dell’informazione per il dipartimento di 1.170 agenti.

Non è lo stesso caso in un’altra città, Lafayette, Indiana, dove il capo della polizia Scott Galloway ha detto all’AP che tutti i suoi agenti possono utilizzare Draft One per qualsiasi tipo di caso ed è stato “incredibilmente popolare” da quando è iniziato il progetto pilota all’inizio di quest’anno.

Oppure a Fort Collins, Colorado, dove il sergente di polizia Robert Younger ha detto che gli agenti sono liberi di utilizzarlo su qualsiasi tipo di rapporto, anche se hanno scoperto che non funziona bene nelle pattuglie del distretto dei bar del centro città a causa di una “quantità schiacciante di rumore.”

Oltre all’uso dell’IA per analizzare e riassumere le registrazioni audio, Axon ha sperimentato la visione artificiale per riassumere ciò che viene “visto” nelle riprese video, prima di rendersi conto rapidamente che la tecnologia non era pronta.

“Date tutte le sensibilità legate alla polizia, alla razza e ad altre identità delle persone coinvolte, penso che ci sarà molto lavoro da fare prima di introdurla,” ha detto Smith, CEO di Axon, descrivendo alcune delle risposte testate come non “esplicitamente razziste” ma insensibili in altri modi.

Questi esperimenti hanno portato Axon a concentrarsi esclusivamente sull’audio nel prodotto presentato ad aprile durante la conferenza annuale dell’azienda per i funzionari di polizia.

La tecnologia si basa sullo stesso modello di intelligenza artificiale generativa che alimenta ChatGPT, sviluppato dalla OpenAI di San Francisco. OpenAI è un partner commerciale stretto di Microsoft, che è il fornitore di cloud computing di Axon.

“Usiamo la stessa tecnologia di base di ChatGPT, ma abbiamo accesso a più controlli e regolazioni rispetto a un normale utente di ChatGPT,” ha detto Noah Spitzer-Williams, che gestisce i prodotti di IA di Axon. Abbassare il “livello di creatività” aiuta il modello a concentrarsi sui fatti, in modo che “non esageri o allucini come farebbe se si usasse semplicemente ChatGPT da solo,” ha detto.

Axon non dice quanti dipartimenti di polizia stiano utilizzando la tecnologia. Non è l’unico fornitore, con startup come Policereports.ai e Truleo che offrono prodotti simili. Ma dato il rapporto stretto di Axon con i dipartimenti di polizia che acquistano i suoi Taser e le videocamere corporee, esperti e funzionari di polizia si aspettano che i rapporti generati dall’IA diventino più diffusi nei prossimi mesi e anni.

Prima che ciò accada, lo studioso di diritto Andrew Ferguson vorrebbe vedere una discussione pubblica più ampia sui benefici e i potenziali danni. Per esempio, i modelli linguistici di grandi dimensioni che alimentano i chatbot IA sono inclini a inventare informazioni false, un problema noto come “allucinazione” che potrebbe aggiungere false informazioni convincenti e difficili da notare in un rapporto di polizia.

“Sono preoccupato che l’automazione e la facilità della tecnologia possano portare gli agenti di polizia a essere meno attenti nella scrittura,” ha detto Ferguson, professore di diritto all’American University, che sta lavorando a quello che si prevede sarà il primo articolo di revisione legale su questa tecnologia emergente.

Ferguson ha detto che un rapporto di polizia è importante per determinare se il sospetto di un agente “giustifica la perdita della libertà di una persona.” A volte è l’unica testimonianza che un giudice vede, specialmente per i reati minori.

Anche i rapporti di polizia redatti dagli esseri umani hanno dei difetti, ha detto Ferguson, ma è una questione aperta su quale sia più affidabile.

Fonte: https://apnews.com/article/ai-writes-police-reports-axon-body-cameras-chatgpt-a24d1502b53faae4be0dac069243f418#

Articolo prodotto con il supporto di ChatGPT

Imprese, Intelligenza artificiale, Lavoro, Licenziamenti

L’IA ha innescato una nuova rivoluzione industriale. Lavoratori più esposti ai licenziamenti collettivi.

Il CEO di Klarna, Sebastian Siemiatkowski, ha lanciato un messaggio chiaro che alimenta le crescenti preoccupazioni per il futuro del lavoro nell’era dell’intelligenza artificiale (IA). Parlando al Financial Times, ha esaltato i benefici dell’IA nel contesto della sua azienda, una fintech che aveva raggiunto una valutazione stellare di quasi 50 miliardi di dollari nel 2021, prima che la realtà economica del rialzo dei tassi e la conseguente cautela degli investitori la ridimensionassero a meno di 10 miliardi.

Ora, mentre Klarna punta a una nuova valutazione di 15-20 miliardi in vista di una possibile quotazione in borsa, Siemiatkowski ha chiarito che il rilancio dell’azienda passerà attraverso un uso intensivo dell’IA, che ha già contribuito a ridurre drasticamente la forza lavoro da 5.000 a 3.800 dipendenti e potrebbe portare a ulteriori tagli fino a 2.000 dipendenti nei prossimi anni. L’introduzione dell’IA in settori chiave come il servizio clienti e il marketing, ha spiegato il CEO, permette a Klarna di fare “molto di più con meno”, aumentando il fatturato medio per dipendente e riducendo i costi operativi.

Tuttavia, questa strategia di “ottimizzazione” ha un prezzo: migliaia di posti di lavoro sono stati già tagliati, e molti altri potrebbero seguirli. Per Siemiatkowski, le conseguenze sociali e occupazionali di queste scelte non sono un problema dell’azienda, ma dei governi, sollevando così una questione critica su chi debba farsi carico dell’impatto umano delle innovazioni tecnologiche.

Mentre Klarna registra un incremento del fatturato per dipendente, raggiungendo i 700.000 dollari all’anno, rimane aperto il dibattito su quale sarà il futuro per i lavoratori, sempre più marginalizzati da una logica aziendale che premia l’efficienza a scapito della forza lavoro. Il mantra di Siemiatkowski è chiaro: meno costi per il personale, ma stipendi elevati per i pochi che rimangono. Un messaggio che getta un’ombra preoccupante sul futuro del lavoro in un mondo sempre più dominato dall’intelligenza artificiale.

L’AI consentirà sempre più alle aziende di risanarsi o di essere sempre più competitive. Saranno i lavoratori che perdendo il lavoro risaneranno le imprese in crisi. Ma in realtà questi fenomeni saranno più accentuati con le grandi aziende che taglieranno importanti numeri della propria forza lavoro. Le piccole e micro imprese, invece, potrebbero avere difficoltà ad accedere a queste tecnologie per la carenza di profili professionali dedicati, mentre l’outsorcing sarà sempre più oneroso. L’impatto dell’IA sulle imprese ne cambierà la fisionomia riducendo i players dei mercati e costringendo soprattutto le micro e piccole imprese, per la loro soppravivenza, ad allearsi in rete. Le grandi prospereranno ed i costi dei licenziamenti saranno a carico della collettività. Senza una legislazione che obblighi forme di disincentivazione della pratica del licenziamento selvaggio dovute all’uso dell’intentelligenza artificiale.

Sono necessari ammortizzatori sociali che aiutino la transizione dovuta al disallineamento tra la velocità della trasformazione digitale e tecnologica e il tempo necessario ai lavoratori di acquisire le nuove conoscenze per rimanere nel mercato del lavoro. La politica deve necessariamente introdurre strumenti operativi per la nuova economia e governare il fenomeno invece di tentare di impedire l’uso di tecnologie che non sono altro che la nuova economia dovuta alla rivoluzione tecnologica in atto. L’iperregolamentazione europea o forme di rifiuto avranno solo l’esito di impedire al nostro Paese di restere tra le più grandi economie del mondo.

Intelligenza artificiale, Robotica

Un robot che gioca a ping pong come un dilettante umano: La sfida della robotica sportiva.

L’articolo che segue è una sintesi di un paper pubblicato da Google DeepMind, una divisione di Alphabet Inc. (la società madre di Google) dedicata alla ricerca e allo sviluppo di intelligenza artificiale avanzata. Famosa per aver creato AlphaGo, il programma che ha sconfitto i campioni del mondo di Go, DeepMind è all’avanguardia nello sviluppo di AI capace di affrontare sfide complesse nel mondo reale.

Lo studio dimostra, in prospettiva, come anche le attività manuali potranno essere potenzialmente sostituite da quelle degli automi. Sfatando la portata conservativa dell’intelligenza artificiale sulla società e sulle nostre vite. Indubbiamente ci stiamo avviando in una nuova società dell’automazione sempre più dipendente dalle grandi multinazionali dell’high-tech.

Ma tonialo al paper, che ci dimostra come un robot sviluppato da Google DeepMind sappia competere a livello amatoriale nel ping pong, vincendo il 45% delle partite contro avversari umani.

Immagina di giocare una partita di ping pong contro un robot. Non un semplice lanciapalline, ma un avversario capace di adattarsi al tuo stile di gioco, di rispondere con precisione ai tuoi colpi e di sfidarti in un vero e proprio match. Questo non è più fantascienza, ma la realtà grazie a un progetto ambizioso sviluppato da Google DeepMind. Un team di ricercatori ha creato un robot in grado di giocare a ping pong a livello amatoriale, con una percentuale di vittorie del 45% contro avversari umani di diversi livelli di abilità.

Il progetto L’obiettivo dei ricercatori era di raggiungere un livello di competizione umano, una sfida enorme per la robotica. Il ping pong, infatti, è uno sport che richiede velocità, precisione e adattabilità, qualità difficili da replicare in un robot. Per affrontare questa sfida, il team ha sviluppato un sistema di controllo gerarchico e modulare, con diverse “politiche” che permettono al robot di scegliere la mossa migliore in ogni situazione.

Il funzionamento Il robot utilizza un braccio meccanico montato su un sistema di binari che gli permette di muoversi rapidamente lungo il tavolo. Grazie a un sistema di visione e a una serie di algoritmi avanzati, il robot è in grado di calcolare la traiettoria della pallina e di adattare la sua risposta in tempo reale. Il sistema è stato addestrato in simulazione, utilizzando dati raccolti da partite tra esseri umani e iterativamente migliorato attraverso test e perfezionamenti sul campo.

Le performance Il robot è stato testato in 29 partite contro giocatori umani di vari livelli, dai principianti agli avanzati. Ha vinto tutte le partite contro i principianti, il 55% delle partite contro giocatori intermedi, ma ha perso contro i giocatori più avanzati. Questo dimostra che il robot ha raggiunto un livello di abilità comparabile a quello di un giocatore dilettante, in grado di sfidare seriamente avversari umani.

Adattabilità e miglioramenti Una delle caratteristiche più impressionanti del robot è la sua capacità di adattarsi agli avversari. Utilizzando una combinazione di apprendimento online e un modello che valuta continuamente le performance del robot e dell’avversario, il sistema è in grado di migliorare le sue strategie durante la partita. Tuttavia, come dimostrano i risultati contro i giocatori avanzati, c’è ancora margine per migliorare la capacità del robot di gestire situazioni di gioco più complesse.

Conclusione Questo progetto segna un passo importante nel campo della robotica sportiva, dimostrando che è possibile costruire robot che non solo replicano movimenti fisici complessi, ma che possono anche competere in attività dinamiche e strategiche come il ping pong. Anche se c’è ancora molto lavoro da fare per raggiungere i livelli di un giocatore professionista, i progressi compiuti sono notevoli e aprono la strada a futuri sviluppi non solo nello sport, ma in una vasta gamma di applicazioni che richiedono interazione fisica e adattabilità.

Fonte: Achieving Human Level Competitive Robot Table Tennis (Paper disponibile qui)

Note: L’articolo è in parte realizzato con l’assistenza di ChatGPT 4o

Immagine: Realizzata con DALL-E

Innovazione, Intelligenza artificiale, Pubblica amministrazione

Quali effetti produrrà l’intelligenza artificiale nella Pubblica amministrazione?

L’impatto dell’intelligenza artificiale (IA) sulla pubblica amministrazione (PA) italiana è destinato a essere profondo e trasformativo, con effetti significativi sulla forza lavoro del settore pubblico. Secondo il rapporto di FPA Data Insight del maggio 2024, l’IA rappresenta una “terza ondata” di cambiamento per la PA, successiva al disinvestimento nel settore pubblico degli ultimi 15 anni e all’accelerazione della digitalizzazione innescata dalla pandemia di Covid-19.

Effetti sulla forza lavoro

Uno degli aspetti più critici riguarda l’esposizione dei dipendenti pubblici all’IA. Il rapporto stima che il 57% dei dipendenti pubblici, pari a circa 1,85 milioni di individui, è altamente esposto all’IA, con un potenziale impatto diretto sulla loro attività lavorativa. Tra questi, l’80% potrebbe beneficiare positivamente dall’integrazione dell’IA, soprattutto in ruoli dirigenziali e di leadership, dove l’IA potrebbe fungere da potente strumento per migliorare l’efficienza e la qualità del lavoro. Tuttavia, il 12% dei dipendenti, circa 218.000 individui, potrebbe essere vulnerabile alla sostituzione, specialmente in ruoli meno specializzati e con compiti ripetitivi.

Il settore dell’istruzione e della ricerca emerge come il comparto con il maggiore numero di addetti fortemente esposti all’IA, mentre le funzioni centrali e locali della PA mostrano una percentuale elevata di esposizione, con rispettivamente il 96,2% e il 93,5% del personale coinvolto.

Complementarietà vs. Sostituzione

Il rapporto sottolinea che l’IA non rappresenta solo una minaccia di sostituzione, ma anche un’opportunità di complementarità. In molti casi, l’IA potrebbe arricchire il lavoro umano, migliorando la produttività e liberando i lavoratori da compiti ripetitivi per concentrarsi su attività più qualificate. Tuttavia, vi è un rischio concreto di “automation bias”, ossia la tendenza a delegare eccessivamente decisioni all’IA senza la necessaria supervisione, che potrebbe portare a errori significativi.

Le amministrazioni che adotteranno l’IA

Le amministrazioni pubbliche che sapranno integrare efficacemente l’IA nei loro processi operativi saranno in una posizione di netto vantaggio rispetto a quelle che ignoreranno questa tecnologia. Queste amministrazioni potranno non solo migliorare l’efficienza e la qualità dei servizi offerti, ma anche attrarre nuovi talenti e promuovere un ambiente di lavoro più innovativo e flessibile. Al contrario, le amministrazioni che non adotteranno l’IA rischiano di rimanere indietro, incapaci di competere in un contesto sempre più digitalizzato e tecnologicamente avanzato.

Conclusioni

L’integrazione dell’IA nella pubblica amministrazione italiana è inevitabile e porterà con sé sfide significative, soprattutto in termini di gestione della forza lavoro. Sarà fondamentale per la PA non solo adottare tecnologie avanzate, ma anche investire in formazione e sviluppo delle competenze, per garantire che l’IA diventi uno strumento di empowerment piuttosto che di esclusione. In questo contesto, la capacità delle amministrazioni di governare efficacemente questi processi di cambiamento determinerà il successo o il fallimento di questa trasformazione epocale.

Fonte: L’impatto dell’intelligenza artificiale sul pubblico impiego (maggio 2024)

Immagine: Realizzata con Dall-E

Intelligenza artificiale

Il Futuro del Lavoro: Opportunità e Sfide nell’Era dell’Intelligenza Artificiale

L’intelligenza artificiale (IA) sta rapidamente trasformando il mondo del lavoro, promettendo di rivoluzionare l’economia globale e di portare cambiamenti significativi nella società occidentale. Questo cambiamento, tuttavia, porta con sé sia opportunità straordinarie sia sfide significative che devono essere affrontate con urgenza. In questo articolo esploreremo gli elementi più interessanti e le implicazioni di questo cambiamento, evidenziando i potenziali benefici e i rischi che ne derivano.

Opportunità dell’IA nel Mondo del Lavoro

L’introduzione dell’IA offre enormi opportunità per migliorare l’efficienza e la produttività in vari settori. Ad esempio, nell’ambito della sanità, l’uso di robot assistenziali potrebbe colmare il divario causato dall’invecchiamento della popolazione e dalla carenza di personale sanitario. I robot possono svolgere compiti ripetitivi e tecnici, liberando così tempo per i professionisti umani di concentrarsi su attività più complesse e personali. Questo non solo aumenterebbe l’efficienza del sistema sanitario, ma migliorerebbe anche la qualità dell’assistenza fornita ai pazienti.

Inoltre, l’IA ha il potenziale per democratizzare l’accesso alla conoscenza attraverso piattaforme di citizen science, che consentono ai cittadini comuni di partecipare alla ricerca scientifica. Questi progetti possono trasformare i cittadini in creatori attivi di conoscenza, migliorando la qualità della vita e rafforzando il tessuto sociale.

Sfide e Rischi: Disoccupazione Tecnologica e Disuguaglianza

Nonostante le opportunità, l’IA porta con sé il rischio della cosiddetta “disoccupazione tecnologica”. Secondo alcuni studi, molte professioni, comprese quelle che richiedono competenze cognitive elevate, potrebbero essere automatizzate, lasciando milioni di persone senza lavoro. Questo fenomeno potrebbe esacerbare le disuguaglianze economiche e sociali, creando una divisione ancora più netta tra coloro che beneficiano della nuova economia digitale e coloro che ne sono esclusi.

La risposta a questa sfida non può limitarsi all’introduzione di un reddito di base universale (UBI). Sebbene l’UBI possa fornire un sostegno finanziario, potrebbe anche accettare passivamente l’inevitabilità della disoccupazione tecnologica, senza affrontare le radici del problema. È necessario, invece, adottare un approccio di “Innovazione Responsabile” che integri considerazioni etiche e sociali fin dalle prime fasi di sviluppo delle tecnologie.

Innovazione Responsabile: Un Modello per il Futuro

L’Innovazione Responsabile propone di non accettare passivamente la direzione presa dallo sviluppo tecnologico, ma di guidarla attivamente per garantire che l’IA migliori davvero la qualità della vita umana. Questo approccio richiede un cambiamento di paradigma: la tecnologia non deve essere vista come un fine in sé, ma come uno strumento per raggiungere obiettivi sociali e morali più ampi.

Ad esempio, nella progettazione di sistemi robotici per l’assistenza sanitaria, è fondamentale considerare non solo l’efficienza, ma anche l’impatto sulla dignità e sul benessere dei pazienti. Similmente, nell’educazione e nelle altre sfere sociali, le tecnologie devono essere progettate per rispettare i valori e gli obiettivi specifici di ciascun ambito, evitando la contaminazione normativa tra le diverse sfere della vita sociale.

Il Valore del Capitale Mentale

Un altro aspetto cruciale è il riconoscimento e la valorizzazione delle capacità mentali e sociali umane come parte integrante del capitale economico. Nell’era digitale, le piattaforme online, i social media e l’economia della condivisione si basano pesantemente sulla partecipazione e sulla creatività degli utenti. Tuttavia, queste attività spesso non vengono adeguatamente ricompensate. È necessario sviluppare nuovi modelli economici che riconoscano e remunerino equamente il contributo intellettuale e creativo delle persone.

Conclusione: Verso un Futuro Sostenibile e Giusto

L’integrazione dell’IA nel mondo del lavoro rappresenta una delle più grandi sfide e opportunità del nostro tempo. Per navigare con successo in questa transizione, è essenziale adottare un approccio che combini l’innovazione tecnologica con una profonda riflessione etica e sociale. Solo così potremo garantire che l’IA contribuisca a costruire una società più giusta, inclusiva e prospera.


Fonte: Santoni de Sio, F., Almeida, T., & van den Hoven, J. (2024). The future of work: freedom, justice and capital in the age of artificial intelligence. Critical Review of International Social and Political Philosophy, 27(5), 659-683.

Note: Questo articolo è stato prodotto attraverso ChatGPT 4o. Le opinioni indicate nel presente articolo possono non essere allineate con il proprietario del blog.

Image credit: Jiraroj Praditcharoenkul/iStock

Intelligenza artificiale, Politica

Intelligenza Artificiale: Rivoluzione Economica e Trasformazione del Mercato del Lavoro

L’emergere dell’intelligenza artificiale generativa (IA) ha sollevato interrogativi su un’accelerazione rapida nell’automazione dei compiti che potrebbe ridurre significativamente i costi del lavoro, aumentare la produttività e incrementare la crescita economica. Se l’IA manterrà le sue promesse, potrebbe trasformare radicalmente il mercato del lavoro e stimolare la crescita della produttività globale nei prossimi decenni.

Produttività e Crescita Economica

Uno degli effetti principali dell’IA è la possibilità di risparmiare sui costi del lavoro e aumentare la produttività. L’adozione diffusa dell’IA generativa potrebbe aumentare la crescita della produttività del lavoro negli Stati Uniti di circa 1,5 punti percentuali all’anno. Questo incremento è paragonabile a quello osservato dopo l’introduzione di tecnologie transformative come il motore elettrico e il computer personale​.

A livello globale, si stima che l’IA potrebbe incrementare il PIL annuale del 7%, evidenziando il suo potenziale economico significativo. Tuttavia, l’impatto effettivo dipenderà dalla capacità dell’IA e dalla velocità con cui verrà adottata​​. Si stima che circa il 18% del lavoro globale potrebbe essere automatizzato dall’IA, con effetti più significativi nelle economie sviluppate rispetto a quelle emergenti​​.

Impatto sul Mercato del Lavoro

L’IA generativa ha la capacità di automatizzare una vasta gamma di compiti, esponendo circa due terzi delle occupazioni attuali a qualche grado di automazione. Nei settori amministrativi e legali, l’esposizione all’automazione potrebbe essere particolarmente alta, con il 46% e il 44% rispettivamente, mentre nei lavori manuali e all’aperto, come la costruzione e la manutenzione, l’impatto sarà probabilmente minore, con esposizioni del 6% e del 4%​.

La Goldman Sachs stima che l’IA generativa potrebbe esporre all’automazione l’equivalente di 300 milioni di posti di lavoro a tempo pieno a livello globale​​.

Dislocazione e Creazione di Nuovi Lavori

Storicamente, la dislocazione dei lavoratori dovuta all’automazione è stata compensata dalla creazione di nuovi ruoli e compiti. Studi accademici indicano che, sebbene l’automazione possa inizialmente ridurre la domanda di lavoro in alcuni settori, nel lungo termine porta alla creazione di nuove occupazioni e aumenta la domanda aggregata di lavoro​.

L’adozione dell’IA potrebbe portare a un boom di produttività, con lavoratori che diventano più produttivi nei loro ruoli esistenti e nuovi posti di lavoro creati in risposta all’aumento della domanda di lavoro e alla maggiore produttività aggregata​​.

In conclusione, mentre l’intelligenza artificiale presenta sfide significative per il mercato del lavoro, il suo potenziale per migliorare la produttività e stimolare la crescita economica è enorme. La chiave sarà gestire la transizione in modo che i benefici superino i costi a breve termine, garantendo che la forza lavoro sia adeguatamente preparata per i nuovi tipi di lavoro che emergeranno.

Fonte: Goldmansachs.com

Imprese, Innovazione, Intelligenza artificiale

Robot e lavoro in Italia: le aziende dicono sì all’intelligenza artificiale

Per l’89% delle aziende i robot e l’intelligenza artificiale non potranno mai sostituire del tutto il lavoro delle persone e hanno un impatto migliorativo del lavoro.

Il 61% delle aziende italiane è pronto ad introdurre sistemi di intelligenza artificiale e robot nelle proprie organizzazioni. Solo l’11% si dichiara totalmente contrario. Tra le ragioni principali che spingo le aziende favorevoli ad introdurre tali sistemi la convinzione che il loro utilizzo rende il lavoro delle persone meno faticoso e più sicuro (93%), fa aumentare l’efficienza e la produttività (90%) e ha portato a scoperte e risultati un tempo impensabili (85%). Questi alcuni dei dati di fondo emersi dal Primo Rapporto AIDP-LABLAW 2018 a cura di DOXA su Robot, Intelligenza artificiale e lavoro in Italia, che verrà presentato a Roma domani 23 ottobre 2018 presso il CNEL.

Le aziende e i manager sono convinti a stragrande maggioranza (89%) che i robot e l’IA non potranno mai sostituire del tutto il lavoro delle persone e che avranno un impatto positivo sul mondo del lavoro e delle aziende: permetterà, infatti, di creare ruoli, funzioni, e posizioni lavorative che prima non c’erano (77%); stimolerà lo sviluppo di nuove competenze e professionalità (77%); consentirà alle persone di lavorare meno e meglio (76%). Avrà un impatto molto forte nei lavori a più basso contenuto professionale: favorirà, infatti, la sostituzione dei lavori manuali con attività di concetto (per l’81% del campione). I manager e gli imprenditori ritengono, infatti, che al di là dei benefici in termini organizzativi, l’introduzione di queste tecnologie, potrà avere effetti negativi sull’occupazione e l’esclusione dal mercato del lavoro di chi è meno scolarizzato e qualificato. In quest’ottica va letto il dato negativo sulle conseguenze in termini di perdita di posti di lavoro indicata dal 75% dei rispondenti.

Un dato di grande interesse riguarda le modalità con cui i sistemi di intelligenza artificiale e robot si sono «integrati» in azienda. Per il 56% delle aziende l’impiego di queste tecnologie è stato a supporto delle persone, a riprova che queste sono da considerarsi principalmente un’estensione delle attività umane e non una loro sostituzione. Per il 33%, inoltre, tali sistemi sono stati impiegati per svolgere attività nuove mai realizzate in precedenza. Per il 42% delle aziende, invece, l’IA e i robot hanno sostituito mansioni prima svolte da dipendenti. Questi dati confermano la rivoluzione in atto nelle organizzazioni del lavoro e nelle attività di guida di tali processi che i direttori del personale saranno chiamati a svolgere ed è questa una delle ragioni principali che ha spinto l’AIDP ad investire nella realizzazione annuale di un rapporto che fornisca dati e informazione utili a capire meglio il futuro del lavoro nell’era dei robot e dell’intelligenza artificiale.

In generale l’intelligenza artificiale e i robot migliorano molti aspetti intrinseci del lavoro dipendente perché hanno favorito una maggiore flessibilità dell’orario di lavoro in entrata e in uscita (38%); la riorganizzazione degli spazi di lavoro/uffici (35%); la promozione di servizi di benessere e welfare per i lavoratori (31%); il lavoro a distanza e smart working (26%); la riduzione dell’orario di lavoro (22%).

Le differenze tra percezione e realtà. Il Rapporto AIDP-LABLAW 2018, inoltre, ha messo a confronto l’opinione delle aziende che hanno già introdotto sistemi di Robot e intelligenza artificiale con quelle che non lo hanno ancora fatto. Le differenza principali che emergono riguarda l’atteggiamento verso queste tecnologie: molto positivo (75%) da parte delle aziende robotizzate, meno positivo (47%) per le aziende non robotizzate. In generale le aziende che non hanno introdotto sistemi di Robot e IA tendono a «sovrastimare» una serie di conseguenze negative che la pratica delle aziende robotizzate, invece, smentisce nei fatti. C’è quindi un tema di percezione delle criticità legate all’introduzione di queste tecnologie eccessivamente elevata rispetto alla condizione reale delle aziende chi le utilizza che al contrario, evidenzia soprattutto gli aspetti positivi.

«I risultati della ricerca, fanno capire che la digitalizzazione non è mai solo una questione tecnologica ma strategica – spiegaIsabella Covili Faggioli, Presidente AIDP -. C’è sempre più la consapevolezza che a nulla serviranno le tecnologie se non ci riappropriamo del pensiero che nulla succede se le persone no lo fano accadere e che sono le persone che fanno la differenza, sempre e comunque, ottimizzando le innovazioni e dando loro il ruolo che hanno, un ruolo di supporto e di miglioramento della qualità della vita. Sono tre secoli che il rapporto uomo macchina è complicato perché basato sulla paura. Paura che le macchine, in questo caso i robot, sostituiranno le persone mentre si è poi sempre verificato che è solo migliorata la qualità della vita e che si sono venute a creare nuove professionalità.» 

«A fronte dei risultati della ricerca AIDP-LABLAW emerge chiaramente un tema di nuove relazioni industriali, di nuovi rapporti tra imprese e lavoratori – spiega Francesco Rotondi, Giuslavorista e co-founder di LabLaw –. Ci troviamo di fronte la possibilità di un’integrazione tra processi fisici e tecnologia digitale mai vista in precedenza. Il processo in atto lascia presagire la nascita di un modello nel quale l’impresa tenderà a perdere la propria connotazione spazio-temporale, in favore di un sistema di relazioni fatto di continue interconnessioni tra soggetti (fornitori, dipendenti, clienti, chiamati ad agire in un ambito territoriale che superi la dimensione aziendale e prescinda dal rispetto di un precostituito orario di lavoro ».

Fonte: diariodelweb.it (qui) Articolo di V. Ferrero del 23 ottobre 2018.

Intelligenza artificiale, Sicurezza, Tecnologia

SARI: Intelligenza Artificiale per la Polizia Italiana. Saremo tutti tracciati?

In un recente caso di cronaca (la rapina di Lanciano) la Polizia Scientifica di Brescia ha potuto arrestare due sospettati grazie SARI (Sistema automatico di un riconoscimento immagini), un sistema di riconoscimento facciale introdotto l’anno scorso al servizio della Polizia Di Stato. Si tratta di un sistema di Intelligenza Artificiale che mette a confronto e cerca di riconoscere i volti.

SARI ha due modalità di funzionamento, come si può intuire dalla bozza di contratto pubblicata sul sito della Polizia: la modalità Enterprise che confronta una fotografia con un database di grandi dimensioni (nell’ordine di 10 milioni di immagini) e genera “una lista di volti simili al volto ricercato”.

E una modalità Real Time “per il riconoscimento in tempo reale di volti presenti in flussi video provenienti da telecamere IP, con relativo confronto dei volti presenti nei flussi video con quelli di una “watch-list” (con una grandezza dell’ordine di 100.000 soggetti) e trasmissione di un alert in caso di match positivo”.

È un sistema concettualmente simile a quello che ognuno di noi può sperimentare in Google Photo, su iOS, su Amazon Photo o in tanti altri sistemi simili. Il software non solo sa riconoscere i volti umani, ma riesce anche a distinguere tra l’uno e l’altro. Quello che non si trova nei software commerciali, naturalmente, è il confronto con un database esterno composto da centinaia di migliaia o anche milioni di immagini; ciò che permette a SARI di dire questa foto potrebbe essere Tizio.

Nella fattispecie, SARI è sviluppato dall’azienda Parsec 3.26 con sede a Lecce ed è probabilmente basato sul loro prodotto commerciale Reco – Face Recognition System. Il database usato per il confronto è la banca dati SsA del sistema AFIS, e include 16 milioni di immagini grazie ad “altri database”.

Finora non è stato possibile chiarire da dove vengono le altre immagini, tant’è che il Deputato Federico D’Incà ha chiesto chiarimenti tramite un’interrogazione parlamentare ufficiale. C’è chi si domanda da dove arrivino quei sedici milioni di immagini e come siano state raccolte, e per ora sono domande senza risposta. Con il timore che i cittadini italiani siano stati inclusi a loro insaputa.

Altra criticità riguarda i falsi positivi. Fermo restando che la responsabilità ultima resta all’agente, questi sistemi di sorveglianza se la cavano piuttosto bene con le fotografie, ma quando si passa alle videocamere in tempo reale la precisione è discutibile nel migliore dei casi, disastrosa in quello peggiore.

L’altro problema riguarda la privacy di tutti: le videocamere registrano immagini e le conservano per chiunque passi sotto il loro occhio elettronico. Che si tratti di criminali incalliti o di cittadini perfettamente onesti, non cambia nulla: le immagini vengono conservate a lungo, mesi o anche anni a volte (dipende dalla legislazione e dagli eventi).

In Gran Bretagna, in occasione di una partita, un sistema simile ha individuato 2297 persone che sono state fermate e interrogate per errore. Ognuna di queste persone si è vista dunque convocare dalla polizia e poi ha subito un interrogatorio. Non è quindi solo una questione di principio, ma anche di problemi reali, dalla perdita di tempo al trauma emotivo.

Alcuni non ci vedono nessun problema, anzi magari si sentono più sicuri; altri invece credono che sia un’illecita violazione della privacy e della libertà individuale. Torniamo quindi a un’antica dicotomia mai davvero risolta, quella che contrappone libertà individuale e sicurezza pubblica. Per com’è andata la Storia recente, pare che siano due grandezze inconciliabili e inversamente proporzionali. Per avere una bisogna rinunciare all’altra e viceversa.

Fonte: tom’shardware (qui)

Innovazione, Intelligenza artificiale, Sicurezza

Riconoscimento facciale, come funziona. Il video della polizia.

Sono terminate le fasi di sperimentazione e formazione relative al nuovo software della Polizia di Stato denominato ”Sistema Automatico di Riconoscimento Immagini (S.A.R.I.)”, strumento di supporto alle attività investigative di contrasto al crimine. Il SARI Enterprise consente di effettuare ricerche nella banca dati A.F.I.S., attraverso l’inserimento di un’immagine fotografica di un soggetto ignoto che, elaborata da due algoritmi di riconoscimento facciale, fornisce un elenco di immagini ordinato secondo un grado di similarità. Nell’ipotesi di match, al fine di integrare l’utilità investigativa del risultato con un accertamento tecnico a valenza dibattimentale, è comunque necessaria una comparazione fisionomica effettuata da personale specializzato di Polizia Scientifica. Anche grazie al sistema di riconoscimento facciale due ladri georgiani sono stati arrestati dalla polizia a Brescia. I due sono ritenuti responsabili di un furto in un’abitazione commesso lo scorso 17 luglio. Decisiva, per le indagini condotte dalla Squadra mobile, è stata l’acquisizione delle immagini di una telecamera di video sorveglianza installata all’interno dello stabile che aveva ripreso in azione i due. “I fotogrammi sono stati poi analizzati con l’applicativo in uso alla Polizia Scientifica che permette di confrontare le immagini dei rei con i volti dei milioni di soggetti schedati, restituendo una ristretta platea di sospettati. A completare il quadro indiziario a carico dei due stranieri, domiciliati in provincia di Verona, è stato il ritrovamento degli indumenti indossati durante il furto e l’analisi dei tabulati telefonici”.

Fonte: quotidiano.net (qui)