Imprese, Intelligenza artificiale, Microimprese

AI: Dal 2 febbraio 2025 la formazione nelle aziende è obbligatoria.

A partire dal 2 febbraio 2025, le aziende operanti nell’Unione Europea dovranno affrontare una nuova sfida: garantire che i propri dipendenti acquisiscano competenze adeguate sull’intelligenza artificiale (IA). Questo obbligo, introdotto dall’AI Act, rappresenta un passo significativo verso la creazione di un ecosistema lavorativo più consapevole e preparato alle trasformazioni digitali. L’obiettivo è chiaro: assicurare che la forza lavoro europea sia in grado di utilizzare, gestire e sviluppare tecnologie IA in modo etico, sicuro ed efficiente.

Il contesto: l’AI Act e la regolamentazione dell’intelligenza artificiale

L’AI Act, approvato dall’Unione Europea nel 2023, è il primo quadro normativo completo al mondo dedicato alla regolamentazione dell’intelligenza artificiale. Questo regolamento mira a bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali, garantendo che l’IA sia sviluppata e utilizzata in modo responsabile. Tra le varie disposizioni, una delle più rilevanti è l’obbligo per le aziende di formare i propri dipendenti sulle competenze necessarie per lavorare con e accanto all’IA.

L’introduzione di questo obbligo riflette la crescente consapevolezza dell’impatto trasformativo dell’IA sul mondo del lavoro. Secondo un rapporto della Commissione Europea, entro il 2030, oltre il 50% delle professioni richiederà competenze digitali avanzate, con l’IA che giocherà un ruolo centrale in molti settori, dalla sanità alla finanza, dalla manifattura ai servizi pubblici.

Perché è necessaria la formazione obbligatoria sull’IA?

L’IA sta rivoluzionando il modo in cui lavoriamo, introducendo nuove opportunità ma anche nuove sfide. Automazione, analisi predittiva, machine learning e altre tecnologie IA stanno trasformando processi aziendali, creando nuovi ruoli e rendendo obsoleti altri. Tuttavia, per sfruttare appieno il potenziale di queste tecnologie, è essenziale che i lavoratori abbiano le competenze necessarie per utilizzarle in modo efficace.

Senza una formazione adeguata, c’è il rischio che i dipendenti si trovino impreparati di fronte a queste innovazioni, con conseguenti inefficienze, errori e persino rischi per la sicurezza. Inoltre, la mancanza di competenze digitali potrebbe esacerbare le disuguaglianze nel mercato del lavoro, lasciando indietro coloro che non riescono ad adattarsi alle nuove esigenze.

L’obbligo di formazione sull’IA introdotto dall’AI Act mira a colmare questo divario, garantendo che tutti i lavoratori, indipendentemente dal loro ruolo o settore, abbiano accesso alle conoscenze necessarie per navigare nel nuovo panorama digitale.

Chi deve essere formato?

L’obbligo di formazione non riguarda solo i professionisti direttamente coinvolti nello sviluppo o nella gestione dei sistemi di IA, ma anche i dipendenti che interagiscono con queste tecnologie nel corso delle proprie mansioni quotidiane. Ciò include:

  • Sviluppatori e ingegneri software;
  • Operatori che utilizzano sistemi automatizzati;
  • Manager e dirigenti responsabili delle decisioni strategiche;
  • Persone coinvolte nell’analisi dei dati o nella valutazione dei risultati prodotti dall’IA.

Cosa implica l’obbligo di formazione per le aziende?

A partire dal 2 febbraio 2025, tutte le aziende operanti nell’UE dovranno garantire che i propri dipendenti ricevano una formazione adeguata sull’intelligenza artificiale. Questo obbligo si applica a tutte le imprese, indipendentemente dalle loro dimensioni o settore, sebbene le modalità di attuazione possano variare in base alle specifiche esigenze aziendali.

Le aziende dovranno sviluppare programmi di formazione che coprano una gamma di competenze, tra cui:

  1. Concetti di base dell’IA: comprensione dei principi fondamentali dell’intelligenza artificiale, del machine learning e delle reti neurali.
  2. Applicazioni pratiche dell’IA: come l’IA viene utilizzata in diversi settori e quali sono i suoi potenziali benefici e limiti.
  3. Etica e responsabilità: consapevolezza delle implicazioni etiche dell’IA, inclusi i rischi di bias, discriminazione e violazione della privacy.
  4. Sicurezza e conformità: conoscenza delle normative europee in materia di IA, compresi i requisiti di trasparenza e accountability.
  5. Collaborazione uomo-macchina: sviluppo di competenze per lavorare in sinergia con sistemi IA, migliorando l’efficienza e la produttività.

Le aziende avranno la flessibilità di scegliere come erogare questa formazione, che potrà avvenire attraverso corsi online, workshop, seminari o programmi di apprendimento sul posto di lavoro. Tuttavia, dovranno garantire che la formazione sia accessibile a tutti i dipendenti e che sia adattata alle esigenze specifiche del loro settore.

Le sfide per le aziende

L’implementazione di questo obbligo non sarà priva di sfide. Per molte aziende, specialmente le piccole e medie imprese (PMI), organizzare e finanziare programmi di formazione sull’IA potrebbe rappresentare un onere significativo. Inoltre, la rapida evoluzione delle tecnologie IA richiederà un aggiornamento continuo delle competenze, rendendo la formazione un processo dinamico e in costante evoluzione.

Per affrontare queste sfide, la Commissione Europea ha annunciato una serie di misure di supporto, tra cui finanziamenti dedicati, piattaforme di condivisione delle migliori pratiche e partenariati pubblico-privati per lo sviluppo di programmi di formazione. Inoltre, le aziende potranno beneficiare di collaborazioni con università, centri di ricerca e fornitori di formazione specializzati per garantire che i loro dipendenti ricevano una formazione di alta qualità.

I benefici a lungo termine

Nonostante le sfide, l’obbligo di formazione sull’IA offre numerosi benefici a lungo termine per le aziende, i dipendenti e l’economia europea nel suo complesso.

Per le aziende, investire nella formazione dei dipendenti sull’IA significa aumentare la produttività, migliorare l’innovazione e rimanere competitive in un mercato globale sempre più digitalizzato. Inoltre, aziende con una forza lavoro ben formata saranno meglio attrezzate per adottare nuove tecnologie e rispondere alle esigenze dei clienti in modo più efficace.

Per i dipendenti, acquisire competenze sull’IA significa migliorare la propria occupabilità e aprire nuove opportunità di carriera. In un mondo del lavoro in rapida evoluzione, la capacità di lavorare con l’IA sarà un asset sempre più prezioso, che consentirà ai lavoratori di rimanere rilevanti e competitivi.

A livello macroeconomico, la diffusione di competenze digitali avanzate contribuirà a rafforzare la posizione dell’Europa come leader globale nell’innovazione tecnologica. Una forza lavoro ben formata sull’IA sarà essenziale per guidare la transizione digitale e garantire una crescita economica sostenibile e inclusiva.

Conclusioni

L’obbligo di formazione sull’intelligenza artificiale introdotto dall’AI Act rappresenta un passo fondamentale verso la creazione di un futuro del lavoro più equo, sicuro e innovativo. Mentre le aziende si preparano a implementare questa nuova normativa, è essenziale che collaborino con istituzioni, educatori e esperti per garantire che i programmi di formazione siano efficaci, accessibili e all’avanguardia.

In un mondo sempre più dominato dalla tecnologia, investire nelle competenze dei dipendenti non è solo una questione di conformità normativa, ma una strategia vincente per costruire un futuro prospero e sostenibile. L’Europa, con questa iniziativa, si posiziona come pioniere nella regolamentazione e nella promozione di un uso responsabile e consapevole dell’intelligenza artificiale, gettando le basi per una società digitale più inclusiva e preparata alle sfide del domani.

Articolo generato dall’IA.

Politica

Dai modelli ai concetti. La nuova frontiera dell’intelligenza artificiale.

L’evoluzione dei modelli linguistici

L’intelligenza artificiale ha fatto passi da gigante grazie ai Large Language Models (LLMs), come GPT, che ci aiutano a scrivere testi, risolvere problemi e tradurre in molte lingue. Ma c’è una nuova innovazione: i Large Concept Models (LCM). Questi modelli superano il livello del singolo “token” (una parola o una parte di essa) e lavorano a un livello più alto, quello delle “frasi-concetto”.

Cosa sono i modelli a concetti?

Immaginate di parlare o scrivere: non ci concentriamo su ogni singola parola, ma sulle idee che vogliamo esprimere. I LCM fanno la stessa cosa: analizzano e generano testi partendo da frasi intere, considerate unità autonome di significato. Questo sistema promette maggiore coerenza, comprensione e flessibilità, indipendentemente dalla lingua usata.

Cosa cambia rispetto ai modelli attuali?

Gli LCM:

Ragionano a livello concettuale, non solo linguistico.

• Supportano più di 200 lingue, includendo input testuale, vocale e persino la Lingua dei Segni Americana.

• Offrono risultati più coerenti e leggibili, anche per compiti complessi come riassunti o traduzioni.

Un esempio pratico: un riassunto elaborato da un LCM non solo cattura le parole principali, ma mantiene il flusso logico del testo originale, rendendolo comprensibile senza perdere dettagli essenziali.

Pro e contro

Pro: maggiore coerenza, adattabilità a più lingue e formati (testo, voce).

Contro: necessità di elevate risorse computazionali per l’addestramento e limiti nell’applicazione diretta per scenari molto specifici.

È utile per tutti?

Certo! Anche i pensionati potrebbero trovare vantaggi. Ad esempio, immaginate di voler tradurre una lettera da un parente lontano: un LCM non solo traduce, ma cattura il tono e le emozioni del testo. Oppure, potrebbe aiutarvi a scrivere messaggi o lettere in modo chiaro e ben strutturato.

Coerenza e fattibilità

L’approccio descritto è tecnicamente fattibile e allineato con lo stato dell’arte dell’IA. I ricercatori hanno implementato il modello con successo, dimostrando un’elevata capacità di generalizzazione. Tuttavia, rimane da vedere come queste tecnologie saranno integrate in applicazioni quotidiane a basso costo.

Articolo scritto da ChatGPT

Fonte: https://ai.meta.com/research/publications/large-concept-models-language-modeling-in-a-sentence-representation-space/

Innovazione, Intelligenza artificiale

Strategia italiana per l’intelligenza artificiale: una sintesi di ChatGPT 4o.

Ho chiesto a ChatGPT 4o di analizzare il documento relativo alla Strategia italiana per l’intelligenza artificiale 2024-2026 e produrre una sintesi circa le azioni previste. Gli ho inoltre chiesto di classificare le azioni in efficaci, programmatiche, irrealizzabili, costose, innovative, e quelle, che se attuate, comporteranno una limitazione all’uso dell’AI.

Ecco il risultato:

La “Strategia Italiana per l’Intelligenza Artificiale 2024-2026” presenta una serie di azioni programmate che si possono classificare come segue:

  1. Efficaci • Sviluppo di infrastrutture per l’IA: Viene promossa la costruzione di reti intelligenti per evitare la congestione dovuta al traffico dati e per garantire un’infrastruttura tecnologica adeguata. Azioni come la collaborazione tra settore pubblico e privato e investimenti in soluzioni di edge computing possono risultare efficaci nel migliorare la capacità tecnologica dell’Italia.
    • Percorsi di reskilling e upskilling: Vengono proposte iniziative mirate alla formazione e alla riqualificazione del personale nelle imprese e nella pubblica amministrazione, con l’obiettivo di colmare il divario tra competenze richieste e disponibili. Questa azione è cruciale per preparare il mercato del lavoro alla rivoluzione dell’IA.
  2. Programmatiche • Promozione della ricerca scientifica fondazionale e applicata: L’Italia punta a consolidare l’ecosistema della ricerca e promuovere la collaborazione internazionale. Viene indicato l’obiettivo di sviluppare soluzioni di IA in ambiti strategici e sociali, come la tutela ambientale e sanitaria.
    • Monitoraggio e coordinamento tramite la Fondazione per l’IA: Si propone la creazione di una Fondazione che coordini l’attuazione delle varie iniziative, gestisca il registro dei dataset e modelli di IA e monitori i progressi della strategia.
  3. Irrealizzabili • Rischio di non fare: Il documento sottolinea il rischio che un approccio timido o mal focalizzato porti alla mancanza di efficacia delle azioni. Questo aspetto evidenzia che alcune delle azioni proposte potrebbero rimanere irrealizzabili se non sostenute da un impegno serio e coerente a livello politico e amministrativo.
  4. Costose • Infrastrutture di rete per l’IA: Il miglioramento delle infrastrutture digitali e lo sviluppo di reti intelligenti richiedono un notevole impegno economico, specialmente in termini di aggiornamento delle infrastrutture esistenti e implementazione di tecnologie avanzate.
    • Fondi per sostenere la strategia: La creazione di un fondo per sostenere le azioni strategiche, alimentato anche da ricavi derivanti dalle stesse iniziative, richiederà un investimento iniziale considerevole.
  5. Innovative • Creazione di un registro nazionale di dataset e modelli di IA: Questa azione prevede la condivisione e il riuso di dati e modelli di IA attraverso un registro nazionale. L’obiettivo è standardizzare i processi e rendere accessibili i dataset per accelerare lo sviluppo di soluzioni italiane. L’adozione di tecnologie per la protezione della privacy (PET) è un’idea innovativa che potrebbe favorire la partecipazione e la fiducia nella condivisione dei dati.
    • Applicazioni di IA nella Pubblica Amministrazione: Le iniziative per automatizzare e migliorare l’efficienza delle procedure amministrative attraverso l’IA rappresentano un’azione innovativa, che potrebbe cambiare radicalmente l’esperienza dei cittadini nell’interazione con lo Stato.
  6. Limitazione dell’uso dell’IA • Rischio dell’iper-regolamentazione: Il documento evidenzia che l’IA potrebbe essere soggetta a eccessive regolamentazioni, specialmente con l’introduzione dell’AI Act europeo. La complessità delle normative potrebbe rallentare l’adozione dell’IA, limitando il potenziale innovativo, soprattutto per le piccole e medie imprese.

Queste azioni delineano una strategia ambiziosa che bilancia innovazione, necessità di infrastrutture e formazione con un’attenta regolamentazione per minimizzare i rischi sociali e culturali legati all’adozione dell’intelligenza artificiale.

Articolo realizzato con ChatGPT

Fonte: Qui

Intelligenza artificiale, Occupazione, Robotica

Robotica umanoide. Ancora passi in avanti. Mentre i futuri effetti sull’occupazione umana sono ancora al palo nel dibattito politico quotidiano.

1X Technologies ha recentemente presentato NEO Beta, un prototipo di robot umanoide bipedale progettato per l’uso domestico. NEO Beta rappresenta un passo avanti importante, combinando design bio-ispirati con un’attenzione particolare alla sicurezza, per operare in ambienti abitati. L’obiettivo di 1X è creare robot che possano svolgere un’ampia gamma di compiti, contribuendo all’automazione del lavoro fisico, riducendo il carico di lavoro umano e garantendo la sicurezza degli utenti. Inizialmente, una serie limitata sarà distribuita per la ricerca e sviluppo.

Analisi Tecnologica e Impatti

L’arrivo di NEO Beta rappresenta un notevole avanzamento nel campo della robotica umanoide, con tecnologie bio-ispirate che rendono questi robot più adattabili e sicuri per l’interazione con le persone. Questa evoluzione segna una transizione importante, da prototipi concettuali a prodotti commerciali su larga scala. L’introduzione di NEO nelle case promette di rivoluzionare il modo in cui concepiamo il lavoro fisico, rendendo la vita domestica più efficiente e automatizzata.

Implicazioni sull’Occupazione

L’automazione avanzata come quella offerta da NEO Beta porta con sé domande importanti riguardo all’impatto sull’occupazione. Se da un lato i robot possono prendere in carico compiti domestici e ripetitivi, liberando gli esseri umani da mansioni più faticose, dall’altro si potrebbe assistere a una diminuzione di posti di lavoro in settori tradizionali legati ai servizi. Tuttavia, questa nuova ondata tecnologica potrebbe anche creare nuove opportunità, specialmente nel campo della manutenzione e gestione della robotica.

In conclusione, l’introduzione di robot umanoidi su larga scala nelle abitazioni apre un futuro di collaborazione uomo-macchina, con potenziali vantaggi in termini di produttività e qualità della vita, se accompagnata da una corretta gestione dell’impatto occupazionale.

Articolo realizzato con il supporto di ChatGPT

Immagine: Dal sito di 1X technologies.

Fonte: 1X technologies https://www.1x.tech/discover/announcement-1x-unveils-neo-beta-a-humanoid-robot-for-the-home

Intelligenza artificiale, Sicurezza

Oklahoma City (USA). Gli agenti di polizia iniziano a utilizzare chatbot IA per redigere i rapporti sui crimini. Saranno validi in tribunale?

Una videocamera corporea ha catturato ogni parola e suono mentre il sergente di polizia Matt Gilmore e il suo cane K-9, Gunner, cercavano un gruppo di sospetti per quasi un’ora.

Normalmente, il sergente della polizia di Oklahoma City avrebbe preso il suo laptop e trascorso altri 30-45 minuti a scrivere un rapporto sulla ricerca. Ma questa volta ha utilizzato l’intelligenza artificiale per scrivere la prima bozza.

Traendo informazioni dai suoni e dalle comunicazioni radio captate dal microfono collegato alla videocamera corporea di Gilmore, lo strumento di IA ha prodotto un rapporto in otto secondi.

“Era un rapporto migliore di quanto avrei mai potuto scrivere io, ed era 100% accurato. Scorreva meglio”, ha detto Gilmore. Ha persino documentato un fatto che lui non ricordava di aver sentito: la menzione del colore dell’auto da cui i sospetti erano fuggiti, fatta da un altro agente.

Il dipartimento di polizia di Oklahoma City è uno dei pochi che sta sperimentando l’uso di chatbot IA per produrre le prime bozze dei rapporti sugli incidenti. Gli agenti di polizia che l’hanno provato sono entusiasti del tempo risparmiato grazie a questa tecnologia, mentre alcuni procuratori, osservatori della polizia e studiosi di diritto esprimono preoccupazioni su come potrebbe alterare un documento fondamentale nel sistema giudiziario penale, che gioca un ruolo chiave nel determinare chi viene perseguito o incarcerato.

Sviluppata con la stessa tecnologia di ChatGPT e venduta da Axon, nota soprattutto per aver sviluppato il Taser e come principale fornitore di videocamere corporee negli Stati Uniti, questa tecnologia potrebbe diventare, secondo Gilmore, un’altra “rivoluzione” per il lavoro di polizia.

“Gli agenti diventano poliziotti perché vogliono fare il lavoro di polizia, e passare metà della loro giornata a inserire dati è solo una parte tediosa del lavoro che odiano,” ha detto Rick Smith, fondatore e CEO di Axon, descrivendo il nuovo prodotto di IA — chiamato Draft One — come quello che ha ricevuto la “reazione più positiva” di qualsiasi altro prodotto introdotto dall’azienda.

“Ovviamente, ci sono delle preoccupazioni”, ha aggiunto Smith. In particolare, ha detto che i procuratori che perseguono un caso penale vogliono essere sicuri che siano gli agenti di polizia — e non esclusivamente un chatbot IA — a essere responsabili della stesura dei rapporti, poiché potrebbero dover testimoniare in tribunale su ciò che hanno visto.

“Non vogliono mai avere un agente sul banco dei testimoni che dica: ‘L’ha scritto l’IA, non io’”, ha detto Smith.

La tecnologia IA non è nuova per le agenzie di polizia, che hanno adottato strumenti algoritmici per leggere targhe, riconoscere volti di sospetti, rilevare suoni di spari e prevedere dove potrebbero verificarsi crimini. Molte di queste applicazioni hanno suscitato preoccupazioni sulla privacy e sui diritti civili, portando i legislatori a cercare di stabilire delle garanzie. Tuttavia, l’introduzione dei rapporti di polizia generati dall’IA è così recente che ci sono poche, se non nessuna, direttive che ne guidino l’uso.

Le preoccupazioni riguardo ai pregiudizi e alle discriminazioni razziali che potrebbero essere incorporati nella tecnologia IA sono solo parte di ciò che l’attivista comunitario di Oklahoma City, aurelius francisco, trova “profondamente inquietante” riguardo a questo nuovo strumento, che ha appreso tramite The Associated Press. francisco preferisce scrivere il suo nome in minuscolo come tattica per resistere al professionalismo.

“Il fatto che la tecnologia sia utilizzata dalla stessa azienda che fornisce i Taser al dipartimento è già abbastanza allarmante,” ha detto francisco, co-fondatore della Foundation for Liberating Minds a Oklahoma City.

Ha affermato che automatizzare quei rapporti “faciliterà la capacità della polizia di molestare, sorvegliare e infliggere violenza ai membri della comunità. Mentre facilita il lavoro dei poliziotti, rende più difficile la vita delle persone nere e marroni.”

Prima di provare lo strumento a Oklahoma City, i funzionari di polizia l’hanno mostrato ai procuratori locali, che hanno consigliato di usarlo con cautela nei casi penali di alta rilevanza. Per ora, viene utilizzato solo per rapporti su incidenti minori che non portano all’arresto di qualcuno.

“Quindi niente arresti, niente reati gravi, niente crimini violenti,” ha detto il capitano della polizia di Oklahoma City, Jason Bussert, che si occupa della tecnologia dell’informazione per il dipartimento di 1.170 agenti.

Non è lo stesso caso in un’altra città, Lafayette, Indiana, dove il capo della polizia Scott Galloway ha detto all’AP che tutti i suoi agenti possono utilizzare Draft One per qualsiasi tipo di caso ed è stato “incredibilmente popolare” da quando è iniziato il progetto pilota all’inizio di quest’anno.

Oppure a Fort Collins, Colorado, dove il sergente di polizia Robert Younger ha detto che gli agenti sono liberi di utilizzarlo su qualsiasi tipo di rapporto, anche se hanno scoperto che non funziona bene nelle pattuglie del distretto dei bar del centro città a causa di una “quantità schiacciante di rumore.”

Oltre all’uso dell’IA per analizzare e riassumere le registrazioni audio, Axon ha sperimentato la visione artificiale per riassumere ciò che viene “visto” nelle riprese video, prima di rendersi conto rapidamente che la tecnologia non era pronta.

“Date tutte le sensibilità legate alla polizia, alla razza e ad altre identità delle persone coinvolte, penso che ci sarà molto lavoro da fare prima di introdurla,” ha detto Smith, CEO di Axon, descrivendo alcune delle risposte testate come non “esplicitamente razziste” ma insensibili in altri modi.

Questi esperimenti hanno portato Axon a concentrarsi esclusivamente sull’audio nel prodotto presentato ad aprile durante la conferenza annuale dell’azienda per i funzionari di polizia.

La tecnologia si basa sullo stesso modello di intelligenza artificiale generativa che alimenta ChatGPT, sviluppato dalla OpenAI di San Francisco. OpenAI è un partner commerciale stretto di Microsoft, che è il fornitore di cloud computing di Axon.

“Usiamo la stessa tecnologia di base di ChatGPT, ma abbiamo accesso a più controlli e regolazioni rispetto a un normale utente di ChatGPT,” ha detto Noah Spitzer-Williams, che gestisce i prodotti di IA di Axon. Abbassare il “livello di creatività” aiuta il modello a concentrarsi sui fatti, in modo che “non esageri o allucini come farebbe se si usasse semplicemente ChatGPT da solo,” ha detto.

Axon non dice quanti dipartimenti di polizia stiano utilizzando la tecnologia. Non è l’unico fornitore, con startup come Policereports.ai e Truleo che offrono prodotti simili. Ma dato il rapporto stretto di Axon con i dipartimenti di polizia che acquistano i suoi Taser e le videocamere corporee, esperti e funzionari di polizia si aspettano che i rapporti generati dall’IA diventino più diffusi nei prossimi mesi e anni.

Prima che ciò accada, lo studioso di diritto Andrew Ferguson vorrebbe vedere una discussione pubblica più ampia sui benefici e i potenziali danni. Per esempio, i modelli linguistici di grandi dimensioni che alimentano i chatbot IA sono inclini a inventare informazioni false, un problema noto come “allucinazione” che potrebbe aggiungere false informazioni convincenti e difficili da notare in un rapporto di polizia.

“Sono preoccupato che l’automazione e la facilità della tecnologia possano portare gli agenti di polizia a essere meno attenti nella scrittura,” ha detto Ferguson, professore di diritto all’American University, che sta lavorando a quello che si prevede sarà il primo articolo di revisione legale su questa tecnologia emergente.

Ferguson ha detto che un rapporto di polizia è importante per determinare se il sospetto di un agente “giustifica la perdita della libertà di una persona.” A volte è l’unica testimonianza che un giudice vede, specialmente per i reati minori.

Anche i rapporti di polizia redatti dagli esseri umani hanno dei difetti, ha detto Ferguson, ma è una questione aperta su quale sia più affidabile.

Fonte: https://apnews.com/article/ai-writes-police-reports-axon-body-cameras-chatgpt-a24d1502b53faae4be0dac069243f418#

Articolo prodotto con il supporto di ChatGPT

Imprese, Intelligenza artificiale, Lavoro, Licenziamenti

L’IA ha innescato una nuova rivoluzione industriale. Lavoratori più esposti ai licenziamenti collettivi.

Il CEO di Klarna, Sebastian Siemiatkowski, ha lanciato un messaggio chiaro che alimenta le crescenti preoccupazioni per il futuro del lavoro nell’era dell’intelligenza artificiale (IA). Parlando al Financial Times, ha esaltato i benefici dell’IA nel contesto della sua azienda, una fintech che aveva raggiunto una valutazione stellare di quasi 50 miliardi di dollari nel 2021, prima che la realtà economica del rialzo dei tassi e la conseguente cautela degli investitori la ridimensionassero a meno di 10 miliardi.

Ora, mentre Klarna punta a una nuova valutazione di 15-20 miliardi in vista di una possibile quotazione in borsa, Siemiatkowski ha chiarito che il rilancio dell’azienda passerà attraverso un uso intensivo dell’IA, che ha già contribuito a ridurre drasticamente la forza lavoro da 5.000 a 3.800 dipendenti e potrebbe portare a ulteriori tagli fino a 2.000 dipendenti nei prossimi anni. L’introduzione dell’IA in settori chiave come il servizio clienti e il marketing, ha spiegato il CEO, permette a Klarna di fare “molto di più con meno”, aumentando il fatturato medio per dipendente e riducendo i costi operativi.

Tuttavia, questa strategia di “ottimizzazione” ha un prezzo: migliaia di posti di lavoro sono stati già tagliati, e molti altri potrebbero seguirli. Per Siemiatkowski, le conseguenze sociali e occupazionali di queste scelte non sono un problema dell’azienda, ma dei governi, sollevando così una questione critica su chi debba farsi carico dell’impatto umano delle innovazioni tecnologiche.

Mentre Klarna registra un incremento del fatturato per dipendente, raggiungendo i 700.000 dollari all’anno, rimane aperto il dibattito su quale sarà il futuro per i lavoratori, sempre più marginalizzati da una logica aziendale che premia l’efficienza a scapito della forza lavoro. Il mantra di Siemiatkowski è chiaro: meno costi per il personale, ma stipendi elevati per i pochi che rimangono. Un messaggio che getta un’ombra preoccupante sul futuro del lavoro in un mondo sempre più dominato dall’intelligenza artificiale.

L’AI consentirà sempre più alle aziende di risanarsi o di essere sempre più competitive. Saranno i lavoratori che perdendo il lavoro risaneranno le imprese in crisi. Ma in realtà questi fenomeni saranno più accentuati con le grandi aziende che taglieranno importanti numeri della propria forza lavoro. Le piccole e micro imprese, invece, potrebbero avere difficoltà ad accedere a queste tecnologie per la carenza di profili professionali dedicati, mentre l’outsorcing sarà sempre più oneroso. L’impatto dell’IA sulle imprese ne cambierà la fisionomia riducendo i players dei mercati e costringendo soprattutto le micro e piccole imprese, per la loro soppravivenza, ad allearsi in rete. Le grandi prospereranno ed i costi dei licenziamenti saranno a carico della collettività. Senza una legislazione che obblighi forme di disincentivazione della pratica del licenziamento selvaggio dovute all’uso dell’intentelligenza artificiale.

Sono necessari ammortizzatori sociali che aiutino la transizione dovuta al disallineamento tra la velocità della trasformazione digitale e tecnologica e il tempo necessario ai lavoratori di acquisire le nuove conoscenze per rimanere nel mercato del lavoro. La politica deve necessariamente introdurre strumenti operativi per la nuova economia e governare il fenomeno invece di tentare di impedire l’uso di tecnologie che non sono altro che la nuova economia dovuta alla rivoluzione tecnologica in atto. L’iperregolamentazione europea o forme di rifiuto avranno solo l’esito di impedire al nostro Paese di restere tra le più grandi economie del mondo.

Intelligenza artificiale, Robotica

Un robot che gioca a ping pong come un dilettante umano: La sfida della robotica sportiva.

L’articolo che segue è una sintesi di un paper pubblicato da Google DeepMind, una divisione di Alphabet Inc. (la società madre di Google) dedicata alla ricerca e allo sviluppo di intelligenza artificiale avanzata. Famosa per aver creato AlphaGo, il programma che ha sconfitto i campioni del mondo di Go, DeepMind è all’avanguardia nello sviluppo di AI capace di affrontare sfide complesse nel mondo reale.

Lo studio dimostra, in prospettiva, come anche le attività manuali potranno essere potenzialmente sostituite da quelle degli automi. Sfatando la portata conservativa dell’intelligenza artificiale sulla società e sulle nostre vite. Indubbiamente ci stiamo avviando in una nuova società dell’automazione sempre più dipendente dalle grandi multinazionali dell’high-tech.

Ma tonialo al paper, che ci dimostra come un robot sviluppato da Google DeepMind sappia competere a livello amatoriale nel ping pong, vincendo il 45% delle partite contro avversari umani.

Immagina di giocare una partita di ping pong contro un robot. Non un semplice lanciapalline, ma un avversario capace di adattarsi al tuo stile di gioco, di rispondere con precisione ai tuoi colpi e di sfidarti in un vero e proprio match. Questo non è più fantascienza, ma la realtà grazie a un progetto ambizioso sviluppato da Google DeepMind. Un team di ricercatori ha creato un robot in grado di giocare a ping pong a livello amatoriale, con una percentuale di vittorie del 45% contro avversari umani di diversi livelli di abilità.

Il progetto L’obiettivo dei ricercatori era di raggiungere un livello di competizione umano, una sfida enorme per la robotica. Il ping pong, infatti, è uno sport che richiede velocità, precisione e adattabilità, qualità difficili da replicare in un robot. Per affrontare questa sfida, il team ha sviluppato un sistema di controllo gerarchico e modulare, con diverse “politiche” che permettono al robot di scegliere la mossa migliore in ogni situazione.

Il funzionamento Il robot utilizza un braccio meccanico montato su un sistema di binari che gli permette di muoversi rapidamente lungo il tavolo. Grazie a un sistema di visione e a una serie di algoritmi avanzati, il robot è in grado di calcolare la traiettoria della pallina e di adattare la sua risposta in tempo reale. Il sistema è stato addestrato in simulazione, utilizzando dati raccolti da partite tra esseri umani e iterativamente migliorato attraverso test e perfezionamenti sul campo.

Le performance Il robot è stato testato in 29 partite contro giocatori umani di vari livelli, dai principianti agli avanzati. Ha vinto tutte le partite contro i principianti, il 55% delle partite contro giocatori intermedi, ma ha perso contro i giocatori più avanzati. Questo dimostra che il robot ha raggiunto un livello di abilità comparabile a quello di un giocatore dilettante, in grado di sfidare seriamente avversari umani.

Adattabilità e miglioramenti Una delle caratteristiche più impressionanti del robot è la sua capacità di adattarsi agli avversari. Utilizzando una combinazione di apprendimento online e un modello che valuta continuamente le performance del robot e dell’avversario, il sistema è in grado di migliorare le sue strategie durante la partita. Tuttavia, come dimostrano i risultati contro i giocatori avanzati, c’è ancora margine per migliorare la capacità del robot di gestire situazioni di gioco più complesse.

Conclusione Questo progetto segna un passo importante nel campo della robotica sportiva, dimostrando che è possibile costruire robot che non solo replicano movimenti fisici complessi, ma che possono anche competere in attività dinamiche e strategiche come il ping pong. Anche se c’è ancora molto lavoro da fare per raggiungere i livelli di un giocatore professionista, i progressi compiuti sono notevoli e aprono la strada a futuri sviluppi non solo nello sport, ma in una vasta gamma di applicazioni che richiedono interazione fisica e adattabilità.

Fonte: Achieving Human Level Competitive Robot Table Tennis (Paper disponibile qui)

Note: L’articolo è in parte realizzato con l’assistenza di ChatGPT 4o

Immagine: Realizzata con DALL-E

Innovazione, Intelligenza artificiale, Pubblica amministrazione

Quali effetti produrrà l’intelligenza artificiale nella Pubblica amministrazione?

L’impatto dell’intelligenza artificiale (IA) sulla pubblica amministrazione (PA) italiana è destinato a essere profondo e trasformativo, con effetti significativi sulla forza lavoro del settore pubblico. Secondo il rapporto di FPA Data Insight del maggio 2024, l’IA rappresenta una “terza ondata” di cambiamento per la PA, successiva al disinvestimento nel settore pubblico degli ultimi 15 anni e all’accelerazione della digitalizzazione innescata dalla pandemia di Covid-19.

Effetti sulla forza lavoro

Uno degli aspetti più critici riguarda l’esposizione dei dipendenti pubblici all’IA. Il rapporto stima che il 57% dei dipendenti pubblici, pari a circa 1,85 milioni di individui, è altamente esposto all’IA, con un potenziale impatto diretto sulla loro attività lavorativa. Tra questi, l’80% potrebbe beneficiare positivamente dall’integrazione dell’IA, soprattutto in ruoli dirigenziali e di leadership, dove l’IA potrebbe fungere da potente strumento per migliorare l’efficienza e la qualità del lavoro. Tuttavia, il 12% dei dipendenti, circa 218.000 individui, potrebbe essere vulnerabile alla sostituzione, specialmente in ruoli meno specializzati e con compiti ripetitivi.

Il settore dell’istruzione e della ricerca emerge come il comparto con il maggiore numero di addetti fortemente esposti all’IA, mentre le funzioni centrali e locali della PA mostrano una percentuale elevata di esposizione, con rispettivamente il 96,2% e il 93,5% del personale coinvolto.

Complementarietà vs. Sostituzione

Il rapporto sottolinea che l’IA non rappresenta solo una minaccia di sostituzione, ma anche un’opportunità di complementarità. In molti casi, l’IA potrebbe arricchire il lavoro umano, migliorando la produttività e liberando i lavoratori da compiti ripetitivi per concentrarsi su attività più qualificate. Tuttavia, vi è un rischio concreto di “automation bias”, ossia la tendenza a delegare eccessivamente decisioni all’IA senza la necessaria supervisione, che potrebbe portare a errori significativi.

Le amministrazioni che adotteranno l’IA

Le amministrazioni pubbliche che sapranno integrare efficacemente l’IA nei loro processi operativi saranno in una posizione di netto vantaggio rispetto a quelle che ignoreranno questa tecnologia. Queste amministrazioni potranno non solo migliorare l’efficienza e la qualità dei servizi offerti, ma anche attrarre nuovi talenti e promuovere un ambiente di lavoro più innovativo e flessibile. Al contrario, le amministrazioni che non adotteranno l’IA rischiano di rimanere indietro, incapaci di competere in un contesto sempre più digitalizzato e tecnologicamente avanzato.

Conclusioni

L’integrazione dell’IA nella pubblica amministrazione italiana è inevitabile e porterà con sé sfide significative, soprattutto in termini di gestione della forza lavoro. Sarà fondamentale per la PA non solo adottare tecnologie avanzate, ma anche investire in formazione e sviluppo delle competenze, per garantire che l’IA diventi uno strumento di empowerment piuttosto che di esclusione. In questo contesto, la capacità delle amministrazioni di governare efficacemente questi processi di cambiamento determinerà il successo o il fallimento di questa trasformazione epocale.

Fonte: L’impatto dell’intelligenza artificiale sul pubblico impiego (maggio 2024)

Immagine: Realizzata con Dall-E

Intelligenza artificiale

Il Futuro del Lavoro: Opportunità e Sfide nell’Era dell’Intelligenza Artificiale

L’intelligenza artificiale (IA) sta rapidamente trasformando il mondo del lavoro, promettendo di rivoluzionare l’economia globale e di portare cambiamenti significativi nella società occidentale. Questo cambiamento, tuttavia, porta con sé sia opportunità straordinarie sia sfide significative che devono essere affrontate con urgenza. In questo articolo esploreremo gli elementi più interessanti e le implicazioni di questo cambiamento, evidenziando i potenziali benefici e i rischi che ne derivano.

Opportunità dell’IA nel Mondo del Lavoro

L’introduzione dell’IA offre enormi opportunità per migliorare l’efficienza e la produttività in vari settori. Ad esempio, nell’ambito della sanità, l’uso di robot assistenziali potrebbe colmare il divario causato dall’invecchiamento della popolazione e dalla carenza di personale sanitario. I robot possono svolgere compiti ripetitivi e tecnici, liberando così tempo per i professionisti umani di concentrarsi su attività più complesse e personali. Questo non solo aumenterebbe l’efficienza del sistema sanitario, ma migliorerebbe anche la qualità dell’assistenza fornita ai pazienti.

Inoltre, l’IA ha il potenziale per democratizzare l’accesso alla conoscenza attraverso piattaforme di citizen science, che consentono ai cittadini comuni di partecipare alla ricerca scientifica. Questi progetti possono trasformare i cittadini in creatori attivi di conoscenza, migliorando la qualità della vita e rafforzando il tessuto sociale.

Sfide e Rischi: Disoccupazione Tecnologica e Disuguaglianza

Nonostante le opportunità, l’IA porta con sé il rischio della cosiddetta “disoccupazione tecnologica”. Secondo alcuni studi, molte professioni, comprese quelle che richiedono competenze cognitive elevate, potrebbero essere automatizzate, lasciando milioni di persone senza lavoro. Questo fenomeno potrebbe esacerbare le disuguaglianze economiche e sociali, creando una divisione ancora più netta tra coloro che beneficiano della nuova economia digitale e coloro che ne sono esclusi.

La risposta a questa sfida non può limitarsi all’introduzione di un reddito di base universale (UBI). Sebbene l’UBI possa fornire un sostegno finanziario, potrebbe anche accettare passivamente l’inevitabilità della disoccupazione tecnologica, senza affrontare le radici del problema. È necessario, invece, adottare un approccio di “Innovazione Responsabile” che integri considerazioni etiche e sociali fin dalle prime fasi di sviluppo delle tecnologie.

Innovazione Responsabile: Un Modello per il Futuro

L’Innovazione Responsabile propone di non accettare passivamente la direzione presa dallo sviluppo tecnologico, ma di guidarla attivamente per garantire che l’IA migliori davvero la qualità della vita umana. Questo approccio richiede un cambiamento di paradigma: la tecnologia non deve essere vista come un fine in sé, ma come uno strumento per raggiungere obiettivi sociali e morali più ampi.

Ad esempio, nella progettazione di sistemi robotici per l’assistenza sanitaria, è fondamentale considerare non solo l’efficienza, ma anche l’impatto sulla dignità e sul benessere dei pazienti. Similmente, nell’educazione e nelle altre sfere sociali, le tecnologie devono essere progettate per rispettare i valori e gli obiettivi specifici di ciascun ambito, evitando la contaminazione normativa tra le diverse sfere della vita sociale.

Il Valore del Capitale Mentale

Un altro aspetto cruciale è il riconoscimento e la valorizzazione delle capacità mentali e sociali umane come parte integrante del capitale economico. Nell’era digitale, le piattaforme online, i social media e l’economia della condivisione si basano pesantemente sulla partecipazione e sulla creatività degli utenti. Tuttavia, queste attività spesso non vengono adeguatamente ricompensate. È necessario sviluppare nuovi modelli economici che riconoscano e remunerino equamente il contributo intellettuale e creativo delle persone.

Conclusione: Verso un Futuro Sostenibile e Giusto

L’integrazione dell’IA nel mondo del lavoro rappresenta una delle più grandi sfide e opportunità del nostro tempo. Per navigare con successo in questa transizione, è essenziale adottare un approccio che combini l’innovazione tecnologica con una profonda riflessione etica e sociale. Solo così potremo garantire che l’IA contribuisca a costruire una società più giusta, inclusiva e prospera.


Fonte: Santoni de Sio, F., Almeida, T., & van den Hoven, J. (2024). The future of work: freedom, justice and capital in the age of artificial intelligence. Critical Review of International Social and Political Philosophy, 27(5), 659-683.

Note: Questo articolo è stato prodotto attraverso ChatGPT 4o. Le opinioni indicate nel presente articolo possono non essere allineate con il proprietario del blog.

Image credit: Jiraroj Praditcharoenkul/iStock

Intelligenza artificiale, Politica

Intelligenza Artificiale: Rivoluzione Economica e Trasformazione del Mercato del Lavoro

L’emergere dell’intelligenza artificiale generativa (IA) ha sollevato interrogativi su un’accelerazione rapida nell’automazione dei compiti che potrebbe ridurre significativamente i costi del lavoro, aumentare la produttività e incrementare la crescita economica. Se l’IA manterrà le sue promesse, potrebbe trasformare radicalmente il mercato del lavoro e stimolare la crescita della produttività globale nei prossimi decenni.

Produttività e Crescita Economica

Uno degli effetti principali dell’IA è la possibilità di risparmiare sui costi del lavoro e aumentare la produttività. L’adozione diffusa dell’IA generativa potrebbe aumentare la crescita della produttività del lavoro negli Stati Uniti di circa 1,5 punti percentuali all’anno. Questo incremento è paragonabile a quello osservato dopo l’introduzione di tecnologie transformative come il motore elettrico e il computer personale​.

A livello globale, si stima che l’IA potrebbe incrementare il PIL annuale del 7%, evidenziando il suo potenziale economico significativo. Tuttavia, l’impatto effettivo dipenderà dalla capacità dell’IA e dalla velocità con cui verrà adottata​​. Si stima che circa il 18% del lavoro globale potrebbe essere automatizzato dall’IA, con effetti più significativi nelle economie sviluppate rispetto a quelle emergenti​​.

Impatto sul Mercato del Lavoro

L’IA generativa ha la capacità di automatizzare una vasta gamma di compiti, esponendo circa due terzi delle occupazioni attuali a qualche grado di automazione. Nei settori amministrativi e legali, l’esposizione all’automazione potrebbe essere particolarmente alta, con il 46% e il 44% rispettivamente, mentre nei lavori manuali e all’aperto, come la costruzione e la manutenzione, l’impatto sarà probabilmente minore, con esposizioni del 6% e del 4%​.

La Goldman Sachs stima che l’IA generativa potrebbe esporre all’automazione l’equivalente di 300 milioni di posti di lavoro a tempo pieno a livello globale​​.

Dislocazione e Creazione di Nuovi Lavori

Storicamente, la dislocazione dei lavoratori dovuta all’automazione è stata compensata dalla creazione di nuovi ruoli e compiti. Studi accademici indicano che, sebbene l’automazione possa inizialmente ridurre la domanda di lavoro in alcuni settori, nel lungo termine porta alla creazione di nuove occupazioni e aumenta la domanda aggregata di lavoro​.

L’adozione dell’IA potrebbe portare a un boom di produttività, con lavoratori che diventano più produttivi nei loro ruoli esistenti e nuovi posti di lavoro creati in risposta all’aumento della domanda di lavoro e alla maggiore produttività aggregata​​.

In conclusione, mentre l’intelligenza artificiale presenta sfide significative per il mercato del lavoro, il suo potenziale per migliorare la produttività e stimolare la crescita economica è enorme. La chiave sarà gestire la transizione in modo che i benefici superino i costi a breve termine, garantendo che la forza lavoro sia adeguatamente preparata per i nuovi tipi di lavoro che emergeranno.

Fonte: Goldmansachs.com

Lavoro, Tecnologia

In attesa dei robot, ecco dove la tecnologia ha cambiato il lavoro

Non saranno solo i robot a cambiare il mondo del lavoro. I numeri dicono che il lavoro sta già cambiando oggi. E che queste modifiche sono legate a tecnologie decisamente più “semplici”. Basta l’introduzione di un nuovo software o di un nuovo device in azienda e le mansioni dei dipendenti cambiano. Lo scorso anno, in Europa, è successo ad un lavoratore su sei.

Lo afferma Eurostat, secondo la quale nel 2018 il 16% dei lavoratori dipendenti che utilizzano una connessione ad Internet hanno visto modificarsi il proprio mansionario grazie all’introduzione di un nuovo software o di una nuova apparecchiatura.

Come si nota dalla mappa, questa tendenza è più marcata nei Paesi del nord Europa e si riduce via via che ci si sposta verso sud est. La nazione in cui sono meno i lavoratori che hanno visto il proprio lavoro cambiare è Cipro, dove solo il 3% dei dipendenti che utilizzano la rete professionalmente ha svolto la propria attività in maniera diversa rispetto al passato. Mentre in Norvegia questo cambiamento lo ha vissuto il 29% dei lavoratori connessi, quasi uno su tre.

E l’Italia? Il nostro Paese si trova leggermente al di sotto della media europea. Qui infatti il 12% dei dipendenti che utilizzano Internet hanno visto cambiare la propria attività lavorativa dopo l’introduzione in azienda di un nuovo programma o di un nuovo apparecchio. La stessa percentuale si è registrata anche in Belgio, Repubblica Ceca, Lituania e Slovacchia. Tutte realtà che per molti altri aspetti sono diverse tra loro. Ad esempio, sono diverse per la percentuale di lavoratori dipendenti che utilizzano computer o apparecchi computerizzati. Ecco cosa succede tenendo conto anche di questo parametro:

Screenshot 2019-02-06_09-52-25-161.png

In estrema sintesi, i dati sembrano suggerire che l’impatto sia stato più significativo in Slovacchia, dove è minore la quota di dipendenti che utilizzano strumentazioni digitali. E minore in Belgio, dove l’80% dei lavoratori ne fa uso. Ma, in entrambi i casi, solo il 12% ha vissuto delle modifiche al proprio mansionario. L’Italia, con un 73% di dipendenti che utilizza computer, è decisamente più vicina al caso belga che a quello slovacco.

Per capire meglio, si guardi ai casi di Portogallo e Irlanda, che hanno un 72% di dipendenti che utilizzano il digitale. Qui rispettivamente il 21 ed il 20% ha dichiarato che lo scorso anno il proprio mansionario è cambiato grazie ad un nuovo software o ad un nuovo device. Da sottolineare, infine, il caso del Kosovo: qui appena il 28% dei lavoratori utilizza il digitale, ma il 14% ha affermato di aver vissuto un cambiamento nella propria professione. Perché anche se i robot non sono ancora arrivati, il mondo del lavoro ha già iniziato la metamorfosi.

 

Fonte: ilsole24ore.com (qui)

Elites vs Popoli, Regimi totalitari, Tecnologia

Social Credit System: i big-data per controllare i cittadini in Cina. Come la tecnologia può aiutare i sistemi totalitari.

Il Social Credit System (SCS) dovrebbe essere uno strumento indipendente, organizzato in modo distribuito sul modello della blockchain, ma come ogni opportunità che le nuove tecnologie presentano, vi sono sempre delle elite che colgono l’occasione per garantirsi la soppravivenza. L’SCS, annunciato nel 2014 dal Consiglio di Stato cinese e prossimo all’utilizzo nel 2020, sarà uno strumento di controllo dei cittadini della Repubblica popolare cinese. Uno strumento al servizio dello Stato e del Partito comunista che senza abbandonare la propria dottrina sarà in grado di attuare il Comunismo 4.0. Una nuova dimensione della rivoluzione ubbidienza al Partito in cambio di benefici ed agevolazioni economiche. Un voto di scambio permanente, da un lato l’elite che vuole conservare se stessa e dall’altra i cittadini sottomessi che privandosi della propria identità libera accettano in cambio di una valutazione di affidabilità di comportarsi come vuole il Partito. In tale modo il Partito assicura al cittadino-compagno l’accesso agevolato ai servizi che il sistema economico “capitalista” offre. Uno strumento formidabile per ammaestrare questi cittadini-consumatori. Meno ci scandalizza se tale pratica è adottata da Amazon, o Google o altra multinazionale. Abituati a questo marketing, anche se lentamente ci rendono mansueti al Social Credit System. Uno strumento più utile alle dittature che alle democrazie funzionanti perchè semplicemente. Dimenticavo non siamo in una democrazia funzionante. E allora buon Social Credit System.

Immaginiamo una realtà in cui ogni nostra attività quotidiana è costantemente monitorata e valutata: dove siamo, cosa facciamo, con chi siamo, cosa copriamo, quante ore passiamo davanti al computer o alla tv, quando e quanto paghiamo le bollette, cosa facciamo sui social.

Se non ci risulta molto difficile da immaginare, è perché questo, in parte, sta già accadendo ogni volta che cediamo volontariamente e gratuitamente i nostri dati ai giganti del web come Google, Amazon, Facebook, Instagram, Twitter, Snapchat. Infatti, utilizzando social network, telefono, pagamenti online e carte di credito forniamo una grandissima quantità di informazioni che vanno dai dati personali (nome, cognome, indirizzo, mail, numero di telefono) alle preferenze di acquisto, interessi, hobby e gusti. Queste informazioni vengono analizzate e rielaborate in algoritmi per poi divenire quei fastidiosi banner pubblicitari personalizzati che vediamo sulla nostra home di Facebook.

Ma non solo. Gli algoritmi potrebbero rivelare molto più di quello che vogliamo.

Immaginiamo che sia lo Stato ad utilizzare questi algoritmi al fine di valutare i cittadini in positivo o in negativo, raggruppando le valutazioni in un unico numero, un punteggio o “trust score” utile a valutare se un cittadino è degno o no di fiducia. Un punteggio pubblico che sarà utilizzato per decidere in che misura un cittadino è adatto per un lavoro, può permettersi una casa, ha possibilità di trovare un partner…

Di questo tratta il “Progetto di pianificazione per la costruzione di un sistema di credito sociale”, un documento politico che conteneva un’idea tanto innovativa quanto distopica, reso pubblico dal Consiglio di Stato Cinese nel giugno 2014.

Il Progetto, dal nome “Social Credit System” consiste nel monitorare tutti i cittadini sul territorio, circa 1,3 miliardi di persone, in base alle loro attività online. Il Sistema è già funzionante, sebbene per ora la partecipazione dei cittadini sia volontaria, sarà resa obbligatoria a tutti a partire dal 2020.

810

Postare opinioni politiche dissenzienti o parlare dei fatti di piazza Tiananmen, si sa, non è mai stata una buona idea in Cina, ma presto compiere un’azione del genere potrebbe danneggiare i cittadini abbassando i loro trust scores, con la conseguente limitazione dei diritti: ai cittadini con punteggi bassi non sarà permesso ottenere alcuni lavori, chiedere prestiti in banca o semplicemente noleggiare un auto o entrare in un locale.

Un mix tra 1984 e un episodio di Black Mirror, così è stato definito questo folle progetto dai media internazionali. Per il Governo Cinese, invece, è solo un altro dei tanti modi per influenzare il comportamento dei cittadini a vantaggio di una società che deve essere in linea con l’ideologia del Partito e che cerca costantemente l’instaurazione perfetta del regime totalitario.

Il “Social Credit System” non è, infatti, il primo tentativo del Governo cinese di controllare i suoi cittadini. Al contrario, la Cina vanta una lunga storia di sorveglianza sul suo territorio quando già più di mezzo secolo fa il Partito Comunista Cinese era in possesso dei “dang’an“, file segreti sui cittadini accusati di essere dissidenti.

La logica di base è la stessa del Social Credit System, ovvero il controllo totale, con la sola differenza che la sorveglianza è digitalizzata, più semplice, precisa e veloce.

big-brother-is-watching-you-1984-george-orwell

Riflettendo su quest’idea futuristica e agghiacciante, non può che venirmi in mente la riflessione che Bauman fa nel libro “Sesto potere”: gli individui della società moderna rinunciano alla privacy considerandola un prezzo ragionevole in cambio di ciò che viene offerto dalla società dei consumi. Accecati dalla promessa di poter essere visibili e notati da tutti, abbiamo dimenticato di essere sorvegliati, cadendo in uno stato di “servitù volontaria” in cui collaboriamo quasi entusiasticamente alla nostra sorveglianza elettronica/digitale.

Fonte: Compass Unibo Blog (qui)

Economia, Sovranità monetaria

FT: «Ha ragione la MMT»

E’ dal 2010 che sostengo la teoria MMT. Ho conosciuto Mosler nel giugno 2013 ad un convegno organizzato a Cantù (qui), ma ancor prima il tenace Paolo Barnard che per altro invitammo a Montichiari nel novembre 2013 proprio per un incontro sull’euroschiavitù. In questi giorni è arrivata la conferma di quanto già sosteniamo da quasi dieci anni.

Buona lettura.

Un articolo uscito ieri [17 gennaio 2019] sul blog Alphaville del Financial Times sdogana definitivamente e senza mezzi termini la teoria monetaria moderna (#MMT). Anche su questo, insomma, avevamo ragione noi:

«Non c’è nulla di intrinsecamente socialista per ciò che riguarda il debito pubblico. Un governo può emettere debito per pagare qualunque cosa gli piaccia: per combattere una guerra, per abbassare le tasse, per attutire gli effetti di una recessione. Gli Stati Uniti, per esempio, hanno sempre emesso debito per pagare per queste cose. I politici dicono che il debito pubblico spiazza gli investimenti privati, che è insostenibile e trasformerà il paese che ne fa uso nell’Argentina, nella Grecia o nel Venezuela. Ma indipendentemente da ciò che dicono, i politici americani finiscono sempre per fare ricorso al debito.

I sostenitori della moderna teoria monetaria sostengono che, per un paese sovrano che dispone della propria valuta, non esiste un livello intrinsecamente insostenibile di debito pubblico, sarebbe a dire che non esiste un livello oltre il quale il paese inizia crollare, che sia il 90 per cento o il 200 per cento del PIL. In qualunque momento il governo può appropriarsi delle risorse che ritiene necessarie per finanziare le sue politiche domestiche, indipendentemente dalle entrate.

Un tradizionalista considererebbe tale politica intrinsecamente inflazionistica, sostenendo che, come per qualunque altra merce, aumentare l’offerta di denaro ne riduce il valore. I sostenitori della teoria monetaria moderna sostengono invece che l’inflazione si verifica solo quando l’economia reale – gli impianti, le macchine, i lavoratori – non sono più in grado di assorbire la spesa del governo. Di conseguenza, la spesa va disaccoppiata dalla tassazione. Un governo può spendere finché non sono impiegate tutte le risorse reali di una economia e ricorrere alle tasse solo per raffreddare l’inflazione, una volta che l’economia raggiunge il suo massimo potenziale.

Noi di FT Alphavile riteniamo che [la teoria monetaria moderna] non sia né marxista, né bislacca. È semplicemente un modo diverso di guardare alla politica fiscale, un modo per descrivere i vincoli reali alla spesa pubblica. A ben vedere, il modo in cui la MMT guarda alla spesa pubblica è molto vicino a come i politici di Washington guardano alla spesa pubblica. Attenzione: non stiamo parlando di ciò che dicono, ma di quello che fanno.

Il Congresso degli Stati Uniti spende regolarmente in deficit per le cose che ritiene importanti. Negli ultimi quarant’anni, ha coperto la propria spesa con le tasse solo per un breve periodo, alla fine degli anni Novanta. … Esattamente come sostiene la teoria monetaria moderna, il Congresso spende finché le risorse reali non scarseggiano [cioè finché non viene raggiunto il limite oltre il quale si genererebbe inflazione]. Quel limite non è mai stato raggiunto negli ultimi due decenni.

Quando Washington vuole qualcosa – combattere una guerra, tagliare le tasse – autorizza la spesa necessaria e basta, senza preoccuparsi delle entrate. Dunque le discussioni sulla necessità di pareggiare il bilancio non riguardano i vincoli finanziari ma le priorità. I programmi ritenuti importanti vengono finanziati, sempre e comunque. I programmi che non sono ritenuti importanti devono essere finanziati con le tasse. Quando qualcuno a Washington dice: «Non possiamo permettercelo» in realtà intende «Non penso che sia importante».

In altre parole, [i politici americani] già seguono le prescrizioni della teoria monetaria moderna, anche se non lo ammettono».

Definitivo direi.

Fonte: lantidiplomatico.it (qui) Articolo di Thomas Fazi

Fonte: FT.com (qui)

Economia, Esteri, Lavoro, Tecnocrazia, Tecnologia

Se il lavoro arriva dall’algoritmo

In Austria un software calcolerà la probabilità di un disoccupato di trovare un impiego e stabilirà quali oferte proporgli. Molti temono discriminazioni verso le donne e gli stranieri.

In Austria farà presto parte della quoti- dianità un sistema che valuta i disoccupati e li divide in gruppi. L’Arbeits- marktservice (Ams), l’agenzia governativa del lavoro, userà un algoritmo per calcolare la probabilità che un disoccupato trovi un lavoro. Molti, però, temono che il software possa discriminare le donne, gli anziani e gli stranieri. Il programma funzio- na grazie alla combinazione di diversi dati personali, tra cui informazioni sul livello d’istruzione e sulle esperienze lavorative, ma contano anche l’età, il genere e la citta- dinanza. Quando qualcuno cerca un lavoro, l’algoritmo calcola la sua probabilità di suc- cesso, fornendo una percentuale. In seguito, sulla base di questo valore, il programma divide le persone in tre gruppi: chi ottiene dal 66 per cento in su è inserito in una fascia “alta”, che ha buone opportunità; chi ha un valore inferiore al 25 per cento inisce nella fascia “bassa”; tutti gli altri entrano nella fascia “media”. In un documento dell’Ams si possono leggere le caratteristiche che l’algoritmo giudica negative o positive. Le donne e le persone più anziane, per esempio, hanno un indice negativo. Su questo punto sono scoppiate le critiche più accese. L’obiettivo principale del programma è aumentare l’eicienza dell’Ams. Ma valutare un genere, una certa età o la provenienza come potenziali svantaggi per la ricerca di un lavoro non signiica discriminare?

Secondo Johannes Kopf, presidente dell’Ams, il sistema mostra solo le discriminazioni che esistono già nel mercato del lavoro. Se si ignorassero queste realtà, sarebbe, per esempio, impossibile assicurare alle donne il sostegno necessario. L’Ams è obbligato a spendere il 50 per cento delle sue risorse in misure di sostegno alle donne, anche se nel 2017 erano donne solo il 43,3 per cento delle persone in cerca di lavoro. “Un fedele quadro della realtà non può essere discriminatorio”, conclude Kopf.

Carla Hustedt, che dirige il progetto Eti- ca degli algoritmi per la fondazione Bertelsmann, non la pensa così. Partire da alcuni dati per arrivare a precise conclusioni può essere un problema, “perché così non si fa che riprodurre i pregiudizi esistenti”. Amazon ha eliminato un algoritmo per la selezione delle candidature perché pena- lizzava sistematicamente le donne: dai dati usati come base di calcolo, in parte vecchi di dieci anni, emergeva che i candidati con più probabilità di successo erano gli uomi- ni. Un fenomeno difuso nel settore tecno- logico, che “bisogna riconoscere e combat- tere con misure adeguate”, dice Hustedt.

Fattore vincolante

Kopf è convinto che l’Ams sia pronto ad af- frontare questo tipo di problemi. I suoi dipendenti cominceranno a usare il program- ma dal 15 novembre. Disporranno della percentuale di successo di ogni disoccupato e conosceranno i fattori che l’hanno in- luenzata, ma inizialmente la useranno solo per discutere con chi cerca lavoro. Dal 2020, invece, la probabilità di successo sarà un fattore vincolante e determinante nella va- lutazione dei disoccupati, anche se la scelta delle misure adatte sarà sempre presa da un consulente in carne e ossa, assicurano all’Ams.

Dal 2020, inoltre, a chi fa parte della fa- scia bassa saranno oferti corsi di formazio- ne meno complessi e intensivi. In pratica, chi ha meno opportunità riceverà di meno: tutto nel nome dell’eicienza. La spiegazio- ne di Kopf è che i corsi di formazione spe- cialistici sono cari e spesso i partecipanti abbandonano prima della ine, quindi quei soldi potrebbero essere usati meglio. Pro- prio tra le persone di fascia bassa i corsi base hanno più successo e, dato che costano me- no, possono essere frequentati da più candidati, dice Kopf.

Il problema non è il software in sé, os- serva Hustedt: “La responsabilità è scari- cata tutta sull’algoritmo, ma la questione di chi debba ricevere più aiuto in una società solidale e politica”. Invece il dibattito è sostituito dall’algoritmo, “visto da alcuni come il male assoluto e da altri come una benedizione”. Bisognerebbe parlare delle sfumature. Kopf promette proprio di fare questo: il software dovrà essere controllato e migliorato costantemente. Saranno valUtati i posti di lavoro assegnati e il successo delle misure adottate, ma anche come si comportano i dipendenti dell’Ams con l’al- goritmo. “Faremo in modo che i nostri consulenti non attribuiscano un valore ec- cessivo alla probabilità di successo”, conclude.

Fonte: Valentin Dornis, Süddeutsche Zeitung, Germania

Imprese, Innovazione, Intelligenza artificiale

Robot e lavoro in Italia: le aziende dicono sì all’intelligenza artificiale

Per l’89% delle aziende i robot e l’intelligenza artificiale non potranno mai sostituire del tutto il lavoro delle persone e hanno un impatto migliorativo del lavoro.

Il 61% delle aziende italiane è pronto ad introdurre sistemi di intelligenza artificiale e robot nelle proprie organizzazioni. Solo l’11% si dichiara totalmente contrario. Tra le ragioni principali che spingo le aziende favorevoli ad introdurre tali sistemi la convinzione che il loro utilizzo rende il lavoro delle persone meno faticoso e più sicuro (93%), fa aumentare l’efficienza e la produttività (90%) e ha portato a scoperte e risultati un tempo impensabili (85%). Questi alcuni dei dati di fondo emersi dal Primo Rapporto AIDP-LABLAW 2018 a cura di DOXA su Robot, Intelligenza artificiale e lavoro in Italia, che verrà presentato a Roma domani 23 ottobre 2018 presso il CNEL.

Le aziende e i manager sono convinti a stragrande maggioranza (89%) che i robot e l’IA non potranno mai sostituire del tutto il lavoro delle persone e che avranno un impatto positivo sul mondo del lavoro e delle aziende: permetterà, infatti, di creare ruoli, funzioni, e posizioni lavorative che prima non c’erano (77%); stimolerà lo sviluppo di nuove competenze e professionalità (77%); consentirà alle persone di lavorare meno e meglio (76%). Avrà un impatto molto forte nei lavori a più basso contenuto professionale: favorirà, infatti, la sostituzione dei lavori manuali con attività di concetto (per l’81% del campione). I manager e gli imprenditori ritengono, infatti, che al di là dei benefici in termini organizzativi, l’introduzione di queste tecnologie, potrà avere effetti negativi sull’occupazione e l’esclusione dal mercato del lavoro di chi è meno scolarizzato e qualificato. In quest’ottica va letto il dato negativo sulle conseguenze in termini di perdita di posti di lavoro indicata dal 75% dei rispondenti.

Un dato di grande interesse riguarda le modalità con cui i sistemi di intelligenza artificiale e robot si sono «integrati» in azienda. Per il 56% delle aziende l’impiego di queste tecnologie è stato a supporto delle persone, a riprova che queste sono da considerarsi principalmente un’estensione delle attività umane e non una loro sostituzione. Per il 33%, inoltre, tali sistemi sono stati impiegati per svolgere attività nuove mai realizzate in precedenza. Per il 42% delle aziende, invece, l’IA e i robot hanno sostituito mansioni prima svolte da dipendenti. Questi dati confermano la rivoluzione in atto nelle organizzazioni del lavoro e nelle attività di guida di tali processi che i direttori del personale saranno chiamati a svolgere ed è questa una delle ragioni principali che ha spinto l’AIDP ad investire nella realizzazione annuale di un rapporto che fornisca dati e informazione utili a capire meglio il futuro del lavoro nell’era dei robot e dell’intelligenza artificiale.

In generale l’intelligenza artificiale e i robot migliorano molti aspetti intrinseci del lavoro dipendente perché hanno favorito una maggiore flessibilità dell’orario di lavoro in entrata e in uscita (38%); la riorganizzazione degli spazi di lavoro/uffici (35%); la promozione di servizi di benessere e welfare per i lavoratori (31%); il lavoro a distanza e smart working (26%); la riduzione dell’orario di lavoro (22%).

Le differenze tra percezione e realtà. Il Rapporto AIDP-LABLAW 2018, inoltre, ha messo a confronto l’opinione delle aziende che hanno già introdotto sistemi di Robot e intelligenza artificiale con quelle che non lo hanno ancora fatto. Le differenza principali che emergono riguarda l’atteggiamento verso queste tecnologie: molto positivo (75%) da parte delle aziende robotizzate, meno positivo (47%) per le aziende non robotizzate. In generale le aziende che non hanno introdotto sistemi di Robot e IA tendono a «sovrastimare» una serie di conseguenze negative che la pratica delle aziende robotizzate, invece, smentisce nei fatti. C’è quindi un tema di percezione delle criticità legate all’introduzione di queste tecnologie eccessivamente elevata rispetto alla condizione reale delle aziende chi le utilizza che al contrario, evidenzia soprattutto gli aspetti positivi.

«I risultati della ricerca, fanno capire che la digitalizzazione non è mai solo una questione tecnologica ma strategica – spiegaIsabella Covili Faggioli, Presidente AIDP -. C’è sempre più la consapevolezza che a nulla serviranno le tecnologie se non ci riappropriamo del pensiero che nulla succede se le persone no lo fano accadere e che sono le persone che fanno la differenza, sempre e comunque, ottimizzando le innovazioni e dando loro il ruolo che hanno, un ruolo di supporto e di miglioramento della qualità della vita. Sono tre secoli che il rapporto uomo macchina è complicato perché basato sulla paura. Paura che le macchine, in questo caso i robot, sostituiranno le persone mentre si è poi sempre verificato che è solo migliorata la qualità della vita e che si sono venute a creare nuove professionalità.» 

«A fronte dei risultati della ricerca AIDP-LABLAW emerge chiaramente un tema di nuove relazioni industriali, di nuovi rapporti tra imprese e lavoratori – spiega Francesco Rotondi, Giuslavorista e co-founder di LabLaw –. Ci troviamo di fronte la possibilità di un’integrazione tra processi fisici e tecnologia digitale mai vista in precedenza. Il processo in atto lascia presagire la nascita di un modello nel quale l’impresa tenderà a perdere la propria connotazione spazio-temporale, in favore di un sistema di relazioni fatto di continue interconnessioni tra soggetti (fornitori, dipendenti, clienti, chiamati ad agire in un ambito territoriale che superi la dimensione aziendale e prescinda dal rispetto di un precostituito orario di lavoro ».

Fonte: diariodelweb.it (qui) Articolo di V. Ferrero del 23 ottobre 2018.

Inquinamento, Salute

Avviso ai cittadini: Lo smog accorcia la vita, “annebbia” la mente e rende più stupidi.

Un team di ricerca sino-americano ha dimostrato che l’inquinamento atmosferico ha un impatto negativo e diretto sulle nostre facoltà cognitive, riducendole proporzionalmente in base all’età e ai livelli di esposizione. Gli studiosi hanno condotto un’indagine con 20mila partecipanti sottoposti a test matematici e linguistici.

Lo smog riduce le nostre capacità cognitive e ci rende meno intelligenti. L’effetto dell’inquinamento atmosferico è particolarmente marcato sugli uomini meno istruiti, inoltre cresce proporzionalmente con l’età: più invecchiamo e più diventiamo stupidi a causa dell’aria contaminata che respiriamo. A determinarlo un team di ricerca internazionale composto da studiosi cinesi e americani della Scuola di Statistica dell’Università Pechino e della Scuola di Salute Pubblica dell’Università di Yale. Gli scienziati, coordinati dal professor Xi Chen, docente presso il Dipartimento di Gestione e Politiche della Salute dell’ateneo statunitense, sono giunti a questa conclusione dopo aver analizzato i dati di oltre 20mila cittadini cinesi. Si è trattato del più ampio e approfondito studio di questo genere.

Ma come hanno dimostrato il legame tra smog e impatto sul livello cognitivo? Chen e colleghi hanno innanzitutto calcolato i livelli di inquinamento respirati da tutti i partecipanti sulla base degli indirizzi di residenza. Tra le sostanze prese in esame vi erano il particolato sottile inferiore al PM10 (quello con particelle di 10 micrometri), l’anidride solforosa (biossido di zolfo) e il biossido di azoto; altre come l’ozono e il pericolosissimo monossido di carbonio non sono state invece integrate nei calcoli statistici. Dopo aver determinato effettivamente i livelli di smog respirati da ciascun partecipante, di entrambi i sessi e tutti con un’età uguale o superiore ai 10 anni, hanno sottoposto loro dei test matematici e linguistici (rispettivamente con 24 e 34 domande) per misurarne le capacità cognitive. Dall’analisi dei dati è emerso chiaramente che maggiori erano i livelli di smog e peggiori erano i punteggi nei test cognitivi, con i risultati più scarsi ottenuti dagli uomini più anziani e meno istruiti. Secondo gli scienziati ciò è dovuto al fatto che questa categoria di uomini spesso è impegnata in lavori manuali all’aperto, dunque è più soggetta all’influenza dell’inquinamento atmosferico.

Poiché si è trattato di uno studio di osservazione, Chen e colleghi non hanno trovato un rapporto di causa-effetto tra l’inquinamento e impatto negativo sull’intelligenza, tuttavia i risultati collimano con quelli ottenuti da altre indagini simili. Un team di ricerca dell’Università di Barcellona, ad esempio, aveva dimostrato che lo smog può ‘rallentare’ il cervello dei bambini, riducendo la loro capacità di attenzione e la memoria, mentre un altro studio spagnolo ha evidenziato che i bambini che vanno a scuola a piedi e sono più esposti al particolato sottile PM2.5 manifestano una riduzione nella memoria di lavoro.

L’inquinamento atmosferico, dunque, oltre a essere pericolosissimo per la salute fisica – uccide più di 6 milioni di persone ogni anno, 500mila solo in Europa – deteriora anche quella mentale, anche se non sono ben chiari i meccanismi. La teoria più accredita risiede comunque nel trasporto di tossine nel cervello attraverso il particolato sottile. I dettagli dello studio sino-americano sono stati pubblicati sull’autorevole rivista scientifica PNAS.

Fonte: scienze.fanpage.it (qui)

Inoltre, respirare aria inquinata accorcia la vita di più di un anno, scrive Environmental Science & Technology Letters. Un nuovo studio ha stimato l’impatto delle polveri sottili Pm 2,5 sulle aspettative di vita in 185 paesi, usando i dati del rapporto Global burden of disease. È stata calcolata una riduzione media dell’aspettativa di vita di 1,2 anni a livello globale. I paesi più penalizzati sono Bangladesh, Egitto e Niger, con due anni di vita persi, mentre i migliori sono Svezia, Australia e Nuova Zelanda, con uno o due mesi persi. Inalare polveri sottili aumenta il rischio di tumori, ictus, malattie cardiache e respiratorie.

Fonte: Internazionale 31 agosto 2018.

Ci siamo mai chiesti perché la lotta all’inquinamento è poco convinta? Gli effetti interessano alle élite che mantengono il potere sulle masse “annebbiate”, alle corporation farmaceutiche per tutto l’indotto delle malattie causate dall’inquinamento, alle grandi case automobilistiche che vogliono sfruttare fino in fondo le tecnologie basate sui carburanti tradizionali.

Ricordiamoci queste élite sono contro i popoli.

Intelligenza artificiale, Sicurezza, Tecnologia

SARI: Intelligenza Artificiale per la Polizia Italiana. Saremo tutti tracciati?

In un recente caso di cronaca (la rapina di Lanciano) la Polizia Scientifica di Brescia ha potuto arrestare due sospettati grazie SARI (Sistema automatico di un riconoscimento immagini), un sistema di riconoscimento facciale introdotto l’anno scorso al servizio della Polizia Di Stato. Si tratta di un sistema di Intelligenza Artificiale che mette a confronto e cerca di riconoscere i volti.

SARI ha due modalità di funzionamento, come si può intuire dalla bozza di contratto pubblicata sul sito della Polizia: la modalità Enterprise che confronta una fotografia con un database di grandi dimensioni (nell’ordine di 10 milioni di immagini) e genera “una lista di volti simili al volto ricercato”.

E una modalità Real Time “per il riconoscimento in tempo reale di volti presenti in flussi video provenienti da telecamere IP, con relativo confronto dei volti presenti nei flussi video con quelli di una “watch-list” (con una grandezza dell’ordine di 100.000 soggetti) e trasmissione di un alert in caso di match positivo”.

È un sistema concettualmente simile a quello che ognuno di noi può sperimentare in Google Photo, su iOS, su Amazon Photo o in tanti altri sistemi simili. Il software non solo sa riconoscere i volti umani, ma riesce anche a distinguere tra l’uno e l’altro. Quello che non si trova nei software commerciali, naturalmente, è il confronto con un database esterno composto da centinaia di migliaia o anche milioni di immagini; ciò che permette a SARI di dire questa foto potrebbe essere Tizio.

Nella fattispecie, SARI è sviluppato dall’azienda Parsec 3.26 con sede a Lecce ed è probabilmente basato sul loro prodotto commerciale Reco – Face Recognition System. Il database usato per il confronto è la banca dati SsA del sistema AFIS, e include 16 milioni di immagini grazie ad “altri database”.

Finora non è stato possibile chiarire da dove vengono le altre immagini, tant’è che il Deputato Federico D’Incà ha chiesto chiarimenti tramite un’interrogazione parlamentare ufficiale. C’è chi si domanda da dove arrivino quei sedici milioni di immagini e come siano state raccolte, e per ora sono domande senza risposta. Con il timore che i cittadini italiani siano stati inclusi a loro insaputa.

Altra criticità riguarda i falsi positivi. Fermo restando che la responsabilità ultima resta all’agente, questi sistemi di sorveglianza se la cavano piuttosto bene con le fotografie, ma quando si passa alle videocamere in tempo reale la precisione è discutibile nel migliore dei casi, disastrosa in quello peggiore.

L’altro problema riguarda la privacy di tutti: le videocamere registrano immagini e le conservano per chiunque passi sotto il loro occhio elettronico. Che si tratti di criminali incalliti o di cittadini perfettamente onesti, non cambia nulla: le immagini vengono conservate a lungo, mesi o anche anni a volte (dipende dalla legislazione e dagli eventi).

In Gran Bretagna, in occasione di una partita, un sistema simile ha individuato 2297 persone che sono state fermate e interrogate per errore. Ognuna di queste persone si è vista dunque convocare dalla polizia e poi ha subito un interrogatorio. Non è quindi solo una questione di principio, ma anche di problemi reali, dalla perdita di tempo al trauma emotivo.

Alcuni non ci vedono nessun problema, anzi magari si sentono più sicuri; altri invece credono che sia un’illecita violazione della privacy e della libertà individuale. Torniamo quindi a un’antica dicotomia mai davvero risolta, quella che contrappone libertà individuale e sicurezza pubblica. Per com’è andata la Storia recente, pare che siano due grandezze inconciliabili e inversamente proporzionali. Per avere una bisogna rinunciare all’altra e viceversa.

Fonte: tom’shardware (qui)

Tecnologia

WhatsApp, il co-fondatore pentito Brian Acton: “Ho venduto la privacy degli utenti”

Alla fine dei conti, ho venduto la mia compagnia. Ho venduto la privacy dei miei utenti. Ho fatto una scelta e accettato un compromesso. E ci convivo ogni giorno”. A parlare è Brian Acton, il co-fondatore di WhatsApp. Per la prima volta, in un’intervista a Forbes, ha raccontato la vendita a Facebook e l’addio alla società, avvenuta circa un anno fa.

I motivi dell’addio a Facebook

Acton, da sempre dietro le quinte, si era fatto notare alla fine di marzo twittando #deletefacebook dopo il caso Cambridge Analytica. Un invito a cancellarsi dal social network che lo aveva reso miliardario e per la quale lavorava fino a qualche mese prima. Adesso, dopo l’addio dell’altro co-fondatore Jan Koum e dei padri di Instagram, Acton torna all’attacco. Afferma che “gli sforzi per spingere i ricavi” stavano andando “a scapito della bontà del prodotto”. Un atteggiamento che “mi ha lasciato con l’amaro in bocca”. E che ha portato alle dimissioni. Acton racconta di un rapporto personale mai sbocciato con Zuckerberg (“Non ho molto da aggiungere sul ragazzo”). E di una prospettiva completamente diversa rispetto alla sua. Facebook, contro la volontà dei fondatori, voleva introdurre la pubblicità su WhatsApp. Acton ha raccontato di aver proposto a Sheryl Sandberg un’alternativa: far pagare gli utenti pochi centesimi dopo un certo numero di messaggi. Una soluzione che non avrebbe convinto i vertici di Menlo Park. Secondo Acton perché non avrebbe reso abbastanza. “Loro sono buoni uomini d’affari. Solo che rappresentano – ha affermato il co-fondatore di WhatsApp – pratiche, principi etici e politiche con i quali non sono d’accordo”. Ecco allora i motivi dell’addio. Costato ad Acton 850 milioni di dollari. A tanto equivale l’ultima tranche di azioni che avrebbe ottenuto di lì a qualche mese.

La risposta di Mr Messenger

Facebook non ha risposto ufficialmente. Lo ha fatto però con un post, a titolo personale, David Marcus. Fino a maggio è stato responsabile di Messenger e oggi è a capo dei progetti di Menlo Park sulla blockchain. “Ditemi pure che sono vecchio stile – scrive Marcus – ma credo che attaccare le persone e la compagnia che ti hanno reso miliardario e che ti hanno protetto per anni, sia un colpo basso”. Acton ha sì rinunciato a 850 milioni. Ma ha comunque incassato buona parte di quei 19 miliardi spesi da Facebook per comprare l’app di messaggistica. Lo stesso co-fondatore l’ha definita definisce “un’offerta che non si poteva rifiutare”. Marcus difende direttamente Zuckerberg, per aver “tutelato” e dato “un’autonomia senza precedenti in una grande compagnia” ai fondatori delle società acquisite, come WhatsApp e Instagram. Quanto alle alternative proposte da Acton, Marcus sostiene un’altra versione, trasformandosi in una zavorra con il chiaro intento di “rallentare” l’avanzamento dei progetti.

Fonte: tg24.sky.it (qui), Forbes (qui)

Innovazione, Intelligenza artificiale, Sicurezza

Riconoscimento facciale, come funziona. Il video della polizia.

Sono terminate le fasi di sperimentazione e formazione relative al nuovo software della Polizia di Stato denominato ”Sistema Automatico di Riconoscimento Immagini (S.A.R.I.)”, strumento di supporto alle attività investigative di contrasto al crimine. Il SARI Enterprise consente di effettuare ricerche nella banca dati A.F.I.S., attraverso l’inserimento di un’immagine fotografica di un soggetto ignoto che, elaborata da due algoritmi di riconoscimento facciale, fornisce un elenco di immagini ordinato secondo un grado di similarità. Nell’ipotesi di match, al fine di integrare l’utilità investigativa del risultato con un accertamento tecnico a valenza dibattimentale, è comunque necessaria una comparazione fisionomica effettuata da personale specializzato di Polizia Scientifica. Anche grazie al sistema di riconoscimento facciale due ladri georgiani sono stati arrestati dalla polizia a Brescia. I due sono ritenuti responsabili di un furto in un’abitazione commesso lo scorso 17 luglio. Decisiva, per le indagini condotte dalla Squadra mobile, è stata l’acquisizione delle immagini di una telecamera di video sorveglianza installata all’interno dello stabile che aveva ripreso in azione i due. “I fotogrammi sono stati poi analizzati con l’applicativo in uso alla Polizia Scientifica che permette di confrontare le immagini dei rei con i volti dei milioni di soggetti schedati, restituendo una ristretta platea di sospettati. A completare il quadro indiziario a carico dei due stranieri, domiciliati in provincia di Verona, è stato il ritrovamento degli indumenti indossati durante il furto e l’analisi dei tabulati telefonici”.

Fonte: quotidiano.net (qui)

Innovazione, Politica, Salute

Così l’intelligenza artificiale impara a scovare i tumori. In meno di due ore

Un test, condotto grazie al co-fondatore di una startup e un radiologo, vuole dare un’idea di come funzionino questi “cervelli”. Che presto potrebbero salvarci la vita.

Tutti sappiamo come si è formato un medico: libri e articoli, ore e ore sul campo. Il modo in cui funziona l’intelligenza artificiale è meno intuitivo. Abbiamo deciso di chiarirlo, anche perché l’AI sarà sempre più importante per la diagnostica. È questo il ragionamento che ha spinto Quartz a fare un esperimento: allenare due algoritmi a riconoscere un cancro ai polmoni. In un paio d’ore.

L’esperimento

Diciamolo subito: un “medico artificiale” efficiente ha bisogno di più tempo e molti più dati. Il test, condotto grazie al co-fondatore della startup MD.ai Leon Chen e al radiologo Luke Oakden-Rayner, vuole dare un’idea di come funzionino questi “cervelli”. Che presto potrebbero salvarci la vita. Se un oncologo impara dai manuali e dall’esperienza, l’intelligenza artificiale apprende solo dai dati: circa 190.000 immagini, bidimensionali e in 3D, con noduli maligni, benigni o privi di qualsiasi formazione. Un nodulo è un piccolo pezzo di tessuto  di tessuto che non è normalmente presente nei polmoni. Già individuarlo non è semplice. Perché è piccolo e spesso poco visibili. E può essere confuso con altre formazioni. Poi il passo successivo: saper distinguere tra un nodulo maligno e uno che non lo è.

Cosa impara l’AI in 75 minuti

Dopo una ventina di minuti e dopo aver digerito le prime 50.000 immagini, l’algoritmo inizia a dare i primi risultati (ancora scarsi). Individua correttamente circa il 46% dei noduli. Ma non ha ancora cognizione di cosa siano di preciso. A volte, infatti, confonde i vasi sanguigni con un possibile cancro. Dopo mezz’ora, gli algoritmi hanno analizzato 95.000 radiografie. Riescono a individuare il 60% dei noduli. E nel 69% sono in grado di dire con esattezza se sono maligni. “In questa fase, il sistema ha un’estrema sicurezza quando rileva noduli di grandi dimensioni (oltre il centimetro di diametro)”. Mentre “non ha ancora imparato alcune nozioni semplici”.

Anzi, molto semplici. È tarato solo per riconoscere i noduli polmonari, ma non sa cosa sia esattamente un polmone. Individua quindi formazioni in zone del corpo dove i “noduli polmonari” non possono esserci. Per il semplice fatto che sono, appunto, polmonari. In altre parole, spiega Quartz: l’intelligenza artificiale è priva di buon senso perché si attiene ai soli dati. A questo stadio, quindi, combina risultati discreti con falle elementari. “Anche un bambino di tre anni sa distinguere pancia e petto”. L’AI invece “non sa cosa siano”. A tre quarti dell’esperimento, dopo quasi un’ora e 143.000 immagini, l’intelligenza artificiale comincia a possedere la materia. Ed evidenzia risultati che Quartz definisce “piuttosto buoni”. Ha ancora difficolta a individuare i noduli (l’accuratezza è del 64%). Anche in questo caso, la pecca è la mancanza di buon senso. Il medico artificiale indica noduli in zone dove è molto raro che ci siano.

Confondendoli spesso con piccole cicatrici. Un medico umano, in questo, è molto più efficiente. Inizia a essere significativa l’accuratezza delle formazioni maligne: 76.38%. Fine dell’esperimento, dopo 75 minuti e oltre 190.000 immagini. L’accuratezza nell’individuazione dei noduli sfiora il 68%. E la capacità di capire quali sono maligni è dell’82.82%. L’intelligenza artificiale è migliorata ancora. Ancora troppo spesso i noduli vengono scambiati con altro. Ma, quando succede, l’AI giudica la formazione benigna. “La risposta terapeutica per il paziente – scrivono gli autori del test – sarebbe quindi simile”.

Conoscenza ed esperienza

“L’intelligenza artificiale funziona molto bene, anche se non è ancora al livello di un radiologo”, conclude Quartz. Molto dipende da un corredo di dati ancora troppo esiguo. Ma se questi sono i risultati ottenuto in meno di due ore e con 190.000 immagini, pensate cosa potrebbe fare un sistema più complesso, con un archivio fatto di centinaia di migliaia di contenuti. Come quelli prodotti ogni giorno da cliniche e ospedali.

Allo stesso tempo, l’esperimento sottolinea i pregi dell’uomo, in grado di usare “le conoscenze pregresse come un’impalcatura”. L’intelligenza artificiale, invece, ha bisogno di costruirla ogni volta. E può farlo solo grazie a una mole enorme di esempi. In questo caso ne sono serviti 50.000 per “insegnare” alle macchine quello che uno studente imparerebbe con un solo manuale. Solo che nessun medico è in grado di leggere un libro in 17 minuti. Il futuro della diagnostica dipenderà dalla capacità di fondere le doti di ognuno: la conoscenza umana con l’esperienza artificiale.

Fonte: agi.it Articolo di P. Fiore dell’8 settembre 2018 (qui)