Imprese, Intelligenza artificiale, Microimprese

AI: Dal 2 febbraio 2025 la formazione nelle aziende è obbligatoria.

A partire dal 2 febbraio 2025, le aziende operanti nell’Unione Europea dovranno affrontare una nuova sfida: garantire che i propri dipendenti acquisiscano competenze adeguate sull’intelligenza artificiale (IA). Questo obbligo, introdotto dall’AI Act, rappresenta un passo significativo verso la creazione di un ecosistema lavorativo più consapevole e preparato alle trasformazioni digitali. L’obiettivo è chiaro: assicurare che la forza lavoro europea sia in grado di utilizzare, gestire e sviluppare tecnologie IA in modo etico, sicuro ed efficiente.

Il contesto: l’AI Act e la regolamentazione dell’intelligenza artificiale

L’AI Act, approvato dall’Unione Europea nel 2023, è il primo quadro normativo completo al mondo dedicato alla regolamentazione dell’intelligenza artificiale. Questo regolamento mira a bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali, garantendo che l’IA sia sviluppata e utilizzata in modo responsabile. Tra le varie disposizioni, una delle più rilevanti è l’obbligo per le aziende di formare i propri dipendenti sulle competenze necessarie per lavorare con e accanto all’IA.

L’introduzione di questo obbligo riflette la crescente consapevolezza dell’impatto trasformativo dell’IA sul mondo del lavoro. Secondo un rapporto della Commissione Europea, entro il 2030, oltre il 50% delle professioni richiederà competenze digitali avanzate, con l’IA che giocherà un ruolo centrale in molti settori, dalla sanità alla finanza, dalla manifattura ai servizi pubblici.

Perché è necessaria la formazione obbligatoria sull’IA?

L’IA sta rivoluzionando il modo in cui lavoriamo, introducendo nuove opportunità ma anche nuove sfide. Automazione, analisi predittiva, machine learning e altre tecnologie IA stanno trasformando processi aziendali, creando nuovi ruoli e rendendo obsoleti altri. Tuttavia, per sfruttare appieno il potenziale di queste tecnologie, è essenziale che i lavoratori abbiano le competenze necessarie per utilizzarle in modo efficace.

Senza una formazione adeguata, c’è il rischio che i dipendenti si trovino impreparati di fronte a queste innovazioni, con conseguenti inefficienze, errori e persino rischi per la sicurezza. Inoltre, la mancanza di competenze digitali potrebbe esacerbare le disuguaglianze nel mercato del lavoro, lasciando indietro coloro che non riescono ad adattarsi alle nuove esigenze.

L’obbligo di formazione sull’IA introdotto dall’AI Act mira a colmare questo divario, garantendo che tutti i lavoratori, indipendentemente dal loro ruolo o settore, abbiano accesso alle conoscenze necessarie per navigare nel nuovo panorama digitale.

Chi deve essere formato?

L’obbligo di formazione non riguarda solo i professionisti direttamente coinvolti nello sviluppo o nella gestione dei sistemi di IA, ma anche i dipendenti che interagiscono con queste tecnologie nel corso delle proprie mansioni quotidiane. Ciò include:

  • Sviluppatori e ingegneri software;
  • Operatori che utilizzano sistemi automatizzati;
  • Manager e dirigenti responsabili delle decisioni strategiche;
  • Persone coinvolte nell’analisi dei dati o nella valutazione dei risultati prodotti dall’IA.

Cosa implica l’obbligo di formazione per le aziende?

A partire dal 2 febbraio 2025, tutte le aziende operanti nell’UE dovranno garantire che i propri dipendenti ricevano una formazione adeguata sull’intelligenza artificiale. Questo obbligo si applica a tutte le imprese, indipendentemente dalle loro dimensioni o settore, sebbene le modalità di attuazione possano variare in base alle specifiche esigenze aziendali.

Le aziende dovranno sviluppare programmi di formazione che coprano una gamma di competenze, tra cui:

  1. Concetti di base dell’IA: comprensione dei principi fondamentali dell’intelligenza artificiale, del machine learning e delle reti neurali.
  2. Applicazioni pratiche dell’IA: come l’IA viene utilizzata in diversi settori e quali sono i suoi potenziali benefici e limiti.
  3. Etica e responsabilità: consapevolezza delle implicazioni etiche dell’IA, inclusi i rischi di bias, discriminazione e violazione della privacy.
  4. Sicurezza e conformità: conoscenza delle normative europee in materia di IA, compresi i requisiti di trasparenza e accountability.
  5. Collaborazione uomo-macchina: sviluppo di competenze per lavorare in sinergia con sistemi IA, migliorando l’efficienza e la produttività.

Le aziende avranno la flessibilità di scegliere come erogare questa formazione, che potrà avvenire attraverso corsi online, workshop, seminari o programmi di apprendimento sul posto di lavoro. Tuttavia, dovranno garantire che la formazione sia accessibile a tutti i dipendenti e che sia adattata alle esigenze specifiche del loro settore.

Le sfide per le aziende

L’implementazione di questo obbligo non sarà priva di sfide. Per molte aziende, specialmente le piccole e medie imprese (PMI), organizzare e finanziare programmi di formazione sull’IA potrebbe rappresentare un onere significativo. Inoltre, la rapida evoluzione delle tecnologie IA richiederà un aggiornamento continuo delle competenze, rendendo la formazione un processo dinamico e in costante evoluzione.

Per affrontare queste sfide, la Commissione Europea ha annunciato una serie di misure di supporto, tra cui finanziamenti dedicati, piattaforme di condivisione delle migliori pratiche e partenariati pubblico-privati per lo sviluppo di programmi di formazione. Inoltre, le aziende potranno beneficiare di collaborazioni con università, centri di ricerca e fornitori di formazione specializzati per garantire che i loro dipendenti ricevano una formazione di alta qualità.

I benefici a lungo termine

Nonostante le sfide, l’obbligo di formazione sull’IA offre numerosi benefici a lungo termine per le aziende, i dipendenti e l’economia europea nel suo complesso.

Per le aziende, investire nella formazione dei dipendenti sull’IA significa aumentare la produttività, migliorare l’innovazione e rimanere competitive in un mercato globale sempre più digitalizzato. Inoltre, aziende con una forza lavoro ben formata saranno meglio attrezzate per adottare nuove tecnologie e rispondere alle esigenze dei clienti in modo più efficace.

Per i dipendenti, acquisire competenze sull’IA significa migliorare la propria occupabilità e aprire nuove opportunità di carriera. In un mondo del lavoro in rapida evoluzione, la capacità di lavorare con l’IA sarà un asset sempre più prezioso, che consentirà ai lavoratori di rimanere rilevanti e competitivi.

A livello macroeconomico, la diffusione di competenze digitali avanzate contribuirà a rafforzare la posizione dell’Europa come leader globale nell’innovazione tecnologica. Una forza lavoro ben formata sull’IA sarà essenziale per guidare la transizione digitale e garantire una crescita economica sostenibile e inclusiva.

Conclusioni

L’obbligo di formazione sull’intelligenza artificiale introdotto dall’AI Act rappresenta un passo fondamentale verso la creazione di un futuro del lavoro più equo, sicuro e innovativo. Mentre le aziende si preparano a implementare questa nuova normativa, è essenziale che collaborino con istituzioni, educatori e esperti per garantire che i programmi di formazione siano efficaci, accessibili e all’avanguardia.

In un mondo sempre più dominato dalla tecnologia, investire nelle competenze dei dipendenti non è solo una questione di conformità normativa, ma una strategia vincente per costruire un futuro prospero e sostenibile. L’Europa, con questa iniziativa, si posiziona come pioniere nella regolamentazione e nella promozione di un uso responsabile e consapevole dell’intelligenza artificiale, gettando le basi per una società digitale più inclusiva e preparata alle sfide del domani.

Articolo generato dall’IA.

Innovazione, Intelligenza artificiale

Strategia italiana per l’intelligenza artificiale: una sintesi di ChatGPT 4o.

Ho chiesto a ChatGPT 4o di analizzare il documento relativo alla Strategia italiana per l’intelligenza artificiale 2024-2026 e produrre una sintesi circa le azioni previste. Gli ho inoltre chiesto di classificare le azioni in efficaci, programmatiche, irrealizzabili, costose, innovative, e quelle, che se attuate, comporteranno una limitazione all’uso dell’AI.

Ecco il risultato:

La “Strategia Italiana per l’Intelligenza Artificiale 2024-2026” presenta una serie di azioni programmate che si possono classificare come segue:

  1. Efficaci • Sviluppo di infrastrutture per l’IA: Viene promossa la costruzione di reti intelligenti per evitare la congestione dovuta al traffico dati e per garantire un’infrastruttura tecnologica adeguata. Azioni come la collaborazione tra settore pubblico e privato e investimenti in soluzioni di edge computing possono risultare efficaci nel migliorare la capacità tecnologica dell’Italia.
    • Percorsi di reskilling e upskilling: Vengono proposte iniziative mirate alla formazione e alla riqualificazione del personale nelle imprese e nella pubblica amministrazione, con l’obiettivo di colmare il divario tra competenze richieste e disponibili. Questa azione è cruciale per preparare il mercato del lavoro alla rivoluzione dell’IA.
  2. Programmatiche • Promozione della ricerca scientifica fondazionale e applicata: L’Italia punta a consolidare l’ecosistema della ricerca e promuovere la collaborazione internazionale. Viene indicato l’obiettivo di sviluppare soluzioni di IA in ambiti strategici e sociali, come la tutela ambientale e sanitaria.
    • Monitoraggio e coordinamento tramite la Fondazione per l’IA: Si propone la creazione di una Fondazione che coordini l’attuazione delle varie iniziative, gestisca il registro dei dataset e modelli di IA e monitori i progressi della strategia.
  3. Irrealizzabili • Rischio di non fare: Il documento sottolinea il rischio che un approccio timido o mal focalizzato porti alla mancanza di efficacia delle azioni. Questo aspetto evidenzia che alcune delle azioni proposte potrebbero rimanere irrealizzabili se non sostenute da un impegno serio e coerente a livello politico e amministrativo.
  4. Costose • Infrastrutture di rete per l’IA: Il miglioramento delle infrastrutture digitali e lo sviluppo di reti intelligenti richiedono un notevole impegno economico, specialmente in termini di aggiornamento delle infrastrutture esistenti e implementazione di tecnologie avanzate.
    • Fondi per sostenere la strategia: La creazione di un fondo per sostenere le azioni strategiche, alimentato anche da ricavi derivanti dalle stesse iniziative, richiederà un investimento iniziale considerevole.
  5. Innovative • Creazione di un registro nazionale di dataset e modelli di IA: Questa azione prevede la condivisione e il riuso di dati e modelli di IA attraverso un registro nazionale. L’obiettivo è standardizzare i processi e rendere accessibili i dataset per accelerare lo sviluppo di soluzioni italiane. L’adozione di tecnologie per la protezione della privacy (PET) è un’idea innovativa che potrebbe favorire la partecipazione e la fiducia nella condivisione dei dati.
    • Applicazioni di IA nella Pubblica Amministrazione: Le iniziative per automatizzare e migliorare l’efficienza delle procedure amministrative attraverso l’IA rappresentano un’azione innovativa, che potrebbe cambiare radicalmente l’esperienza dei cittadini nell’interazione con lo Stato.
  6. Limitazione dell’uso dell’IA • Rischio dell’iper-regolamentazione: Il documento evidenzia che l’IA potrebbe essere soggetta a eccessive regolamentazioni, specialmente con l’introduzione dell’AI Act europeo. La complessità delle normative potrebbe rallentare l’adozione dell’IA, limitando il potenziale innovativo, soprattutto per le piccole e medie imprese.

Queste azioni delineano una strategia ambiziosa che bilancia innovazione, necessità di infrastrutture e formazione con un’attenta regolamentazione per minimizzare i rischi sociali e culturali legati all’adozione dell’intelligenza artificiale.

Articolo realizzato con ChatGPT

Fonte: Qui

Intelligenza artificiale, Occupazione, Robotica

Robotica umanoide. Ancora passi in avanti. Mentre i futuri effetti sull’occupazione umana sono ancora al palo nel dibattito politico quotidiano.

1X Technologies ha recentemente presentato NEO Beta, un prototipo di robot umanoide bipedale progettato per l’uso domestico. NEO Beta rappresenta un passo avanti importante, combinando design bio-ispirati con un’attenzione particolare alla sicurezza, per operare in ambienti abitati. L’obiettivo di 1X è creare robot che possano svolgere un’ampia gamma di compiti, contribuendo all’automazione del lavoro fisico, riducendo il carico di lavoro umano e garantendo la sicurezza degli utenti. Inizialmente, una serie limitata sarà distribuita per la ricerca e sviluppo.

Analisi Tecnologica e Impatti

L’arrivo di NEO Beta rappresenta un notevole avanzamento nel campo della robotica umanoide, con tecnologie bio-ispirate che rendono questi robot più adattabili e sicuri per l’interazione con le persone. Questa evoluzione segna una transizione importante, da prototipi concettuali a prodotti commerciali su larga scala. L’introduzione di NEO nelle case promette di rivoluzionare il modo in cui concepiamo il lavoro fisico, rendendo la vita domestica più efficiente e automatizzata.

Implicazioni sull’Occupazione

L’automazione avanzata come quella offerta da NEO Beta porta con sé domande importanti riguardo all’impatto sull’occupazione. Se da un lato i robot possono prendere in carico compiti domestici e ripetitivi, liberando gli esseri umani da mansioni più faticose, dall’altro si potrebbe assistere a una diminuzione di posti di lavoro in settori tradizionali legati ai servizi. Tuttavia, questa nuova ondata tecnologica potrebbe anche creare nuove opportunità, specialmente nel campo della manutenzione e gestione della robotica.

In conclusione, l’introduzione di robot umanoidi su larga scala nelle abitazioni apre un futuro di collaborazione uomo-macchina, con potenziali vantaggi in termini di produttività e qualità della vita, se accompagnata da una corretta gestione dell’impatto occupazionale.

Articolo realizzato con il supporto di ChatGPT

Immagine: Dal sito di 1X technologies.

Fonte: 1X technologies https://www.1x.tech/discover/announcement-1x-unveils-neo-beta-a-humanoid-robot-for-the-home

Intelligenza artificiale, Sicurezza

Oklahoma City (USA). Gli agenti di polizia iniziano a utilizzare chatbot IA per redigere i rapporti sui crimini. Saranno validi in tribunale?

Una videocamera corporea ha catturato ogni parola e suono mentre il sergente di polizia Matt Gilmore e il suo cane K-9, Gunner, cercavano un gruppo di sospetti per quasi un’ora.

Normalmente, il sergente della polizia di Oklahoma City avrebbe preso il suo laptop e trascorso altri 30-45 minuti a scrivere un rapporto sulla ricerca. Ma questa volta ha utilizzato l’intelligenza artificiale per scrivere la prima bozza.

Traendo informazioni dai suoni e dalle comunicazioni radio captate dal microfono collegato alla videocamera corporea di Gilmore, lo strumento di IA ha prodotto un rapporto in otto secondi.

“Era un rapporto migliore di quanto avrei mai potuto scrivere io, ed era 100% accurato. Scorreva meglio”, ha detto Gilmore. Ha persino documentato un fatto che lui non ricordava di aver sentito: la menzione del colore dell’auto da cui i sospetti erano fuggiti, fatta da un altro agente.

Il dipartimento di polizia di Oklahoma City è uno dei pochi che sta sperimentando l’uso di chatbot IA per produrre le prime bozze dei rapporti sugli incidenti. Gli agenti di polizia che l’hanno provato sono entusiasti del tempo risparmiato grazie a questa tecnologia, mentre alcuni procuratori, osservatori della polizia e studiosi di diritto esprimono preoccupazioni su come potrebbe alterare un documento fondamentale nel sistema giudiziario penale, che gioca un ruolo chiave nel determinare chi viene perseguito o incarcerato.

Sviluppata con la stessa tecnologia di ChatGPT e venduta da Axon, nota soprattutto per aver sviluppato il Taser e come principale fornitore di videocamere corporee negli Stati Uniti, questa tecnologia potrebbe diventare, secondo Gilmore, un’altra “rivoluzione” per il lavoro di polizia.

“Gli agenti diventano poliziotti perché vogliono fare il lavoro di polizia, e passare metà della loro giornata a inserire dati è solo una parte tediosa del lavoro che odiano,” ha detto Rick Smith, fondatore e CEO di Axon, descrivendo il nuovo prodotto di IA — chiamato Draft One — come quello che ha ricevuto la “reazione più positiva” di qualsiasi altro prodotto introdotto dall’azienda.

“Ovviamente, ci sono delle preoccupazioni”, ha aggiunto Smith. In particolare, ha detto che i procuratori che perseguono un caso penale vogliono essere sicuri che siano gli agenti di polizia — e non esclusivamente un chatbot IA — a essere responsabili della stesura dei rapporti, poiché potrebbero dover testimoniare in tribunale su ciò che hanno visto.

“Non vogliono mai avere un agente sul banco dei testimoni che dica: ‘L’ha scritto l’IA, non io’”, ha detto Smith.

La tecnologia IA non è nuova per le agenzie di polizia, che hanno adottato strumenti algoritmici per leggere targhe, riconoscere volti di sospetti, rilevare suoni di spari e prevedere dove potrebbero verificarsi crimini. Molte di queste applicazioni hanno suscitato preoccupazioni sulla privacy e sui diritti civili, portando i legislatori a cercare di stabilire delle garanzie. Tuttavia, l’introduzione dei rapporti di polizia generati dall’IA è così recente che ci sono poche, se non nessuna, direttive che ne guidino l’uso.

Le preoccupazioni riguardo ai pregiudizi e alle discriminazioni razziali che potrebbero essere incorporati nella tecnologia IA sono solo parte di ciò che l’attivista comunitario di Oklahoma City, aurelius francisco, trova “profondamente inquietante” riguardo a questo nuovo strumento, che ha appreso tramite The Associated Press. francisco preferisce scrivere il suo nome in minuscolo come tattica per resistere al professionalismo.

“Il fatto che la tecnologia sia utilizzata dalla stessa azienda che fornisce i Taser al dipartimento è già abbastanza allarmante,” ha detto francisco, co-fondatore della Foundation for Liberating Minds a Oklahoma City.

Ha affermato che automatizzare quei rapporti “faciliterà la capacità della polizia di molestare, sorvegliare e infliggere violenza ai membri della comunità. Mentre facilita il lavoro dei poliziotti, rende più difficile la vita delle persone nere e marroni.”

Prima di provare lo strumento a Oklahoma City, i funzionari di polizia l’hanno mostrato ai procuratori locali, che hanno consigliato di usarlo con cautela nei casi penali di alta rilevanza. Per ora, viene utilizzato solo per rapporti su incidenti minori che non portano all’arresto di qualcuno.

“Quindi niente arresti, niente reati gravi, niente crimini violenti,” ha detto il capitano della polizia di Oklahoma City, Jason Bussert, che si occupa della tecnologia dell’informazione per il dipartimento di 1.170 agenti.

Non è lo stesso caso in un’altra città, Lafayette, Indiana, dove il capo della polizia Scott Galloway ha detto all’AP che tutti i suoi agenti possono utilizzare Draft One per qualsiasi tipo di caso ed è stato “incredibilmente popolare” da quando è iniziato il progetto pilota all’inizio di quest’anno.

Oppure a Fort Collins, Colorado, dove il sergente di polizia Robert Younger ha detto che gli agenti sono liberi di utilizzarlo su qualsiasi tipo di rapporto, anche se hanno scoperto che non funziona bene nelle pattuglie del distretto dei bar del centro città a causa di una “quantità schiacciante di rumore.”

Oltre all’uso dell’IA per analizzare e riassumere le registrazioni audio, Axon ha sperimentato la visione artificiale per riassumere ciò che viene “visto” nelle riprese video, prima di rendersi conto rapidamente che la tecnologia non era pronta.

“Date tutte le sensibilità legate alla polizia, alla razza e ad altre identità delle persone coinvolte, penso che ci sarà molto lavoro da fare prima di introdurla,” ha detto Smith, CEO di Axon, descrivendo alcune delle risposte testate come non “esplicitamente razziste” ma insensibili in altri modi.

Questi esperimenti hanno portato Axon a concentrarsi esclusivamente sull’audio nel prodotto presentato ad aprile durante la conferenza annuale dell’azienda per i funzionari di polizia.

La tecnologia si basa sullo stesso modello di intelligenza artificiale generativa che alimenta ChatGPT, sviluppato dalla OpenAI di San Francisco. OpenAI è un partner commerciale stretto di Microsoft, che è il fornitore di cloud computing di Axon.

“Usiamo la stessa tecnologia di base di ChatGPT, ma abbiamo accesso a più controlli e regolazioni rispetto a un normale utente di ChatGPT,” ha detto Noah Spitzer-Williams, che gestisce i prodotti di IA di Axon. Abbassare il “livello di creatività” aiuta il modello a concentrarsi sui fatti, in modo che “non esageri o allucini come farebbe se si usasse semplicemente ChatGPT da solo,” ha detto.

Axon non dice quanti dipartimenti di polizia stiano utilizzando la tecnologia. Non è l’unico fornitore, con startup come Policereports.ai e Truleo che offrono prodotti simili. Ma dato il rapporto stretto di Axon con i dipartimenti di polizia che acquistano i suoi Taser e le videocamere corporee, esperti e funzionari di polizia si aspettano che i rapporti generati dall’IA diventino più diffusi nei prossimi mesi e anni.

Prima che ciò accada, lo studioso di diritto Andrew Ferguson vorrebbe vedere una discussione pubblica più ampia sui benefici e i potenziali danni. Per esempio, i modelli linguistici di grandi dimensioni che alimentano i chatbot IA sono inclini a inventare informazioni false, un problema noto come “allucinazione” che potrebbe aggiungere false informazioni convincenti e difficili da notare in un rapporto di polizia.

“Sono preoccupato che l’automazione e la facilità della tecnologia possano portare gli agenti di polizia a essere meno attenti nella scrittura,” ha detto Ferguson, professore di diritto all’American University, che sta lavorando a quello che si prevede sarà il primo articolo di revisione legale su questa tecnologia emergente.

Ferguson ha detto che un rapporto di polizia è importante per determinare se il sospetto di un agente “giustifica la perdita della libertà di una persona.” A volte è l’unica testimonianza che un giudice vede, specialmente per i reati minori.

Anche i rapporti di polizia redatti dagli esseri umani hanno dei difetti, ha detto Ferguson, ma è una questione aperta su quale sia più affidabile.

Fonte: https://apnews.com/article/ai-writes-police-reports-axon-body-cameras-chatgpt-a24d1502b53faae4be0dac069243f418#

Articolo prodotto con il supporto di ChatGPT

Imprese, Intelligenza artificiale, Lavoro, Licenziamenti

L’IA ha innescato una nuova rivoluzione industriale. Lavoratori più esposti ai licenziamenti collettivi.

Il CEO di Klarna, Sebastian Siemiatkowski, ha lanciato un messaggio chiaro che alimenta le crescenti preoccupazioni per il futuro del lavoro nell’era dell’intelligenza artificiale (IA). Parlando al Financial Times, ha esaltato i benefici dell’IA nel contesto della sua azienda, una fintech che aveva raggiunto una valutazione stellare di quasi 50 miliardi di dollari nel 2021, prima che la realtà economica del rialzo dei tassi e la conseguente cautela degli investitori la ridimensionassero a meno di 10 miliardi.

Ora, mentre Klarna punta a una nuova valutazione di 15-20 miliardi in vista di una possibile quotazione in borsa, Siemiatkowski ha chiarito che il rilancio dell’azienda passerà attraverso un uso intensivo dell’IA, che ha già contribuito a ridurre drasticamente la forza lavoro da 5.000 a 3.800 dipendenti e potrebbe portare a ulteriori tagli fino a 2.000 dipendenti nei prossimi anni. L’introduzione dell’IA in settori chiave come il servizio clienti e il marketing, ha spiegato il CEO, permette a Klarna di fare “molto di più con meno”, aumentando il fatturato medio per dipendente e riducendo i costi operativi.

Tuttavia, questa strategia di “ottimizzazione” ha un prezzo: migliaia di posti di lavoro sono stati già tagliati, e molti altri potrebbero seguirli. Per Siemiatkowski, le conseguenze sociali e occupazionali di queste scelte non sono un problema dell’azienda, ma dei governi, sollevando così una questione critica su chi debba farsi carico dell’impatto umano delle innovazioni tecnologiche.

Mentre Klarna registra un incremento del fatturato per dipendente, raggiungendo i 700.000 dollari all’anno, rimane aperto il dibattito su quale sarà il futuro per i lavoratori, sempre più marginalizzati da una logica aziendale che premia l’efficienza a scapito della forza lavoro. Il mantra di Siemiatkowski è chiaro: meno costi per il personale, ma stipendi elevati per i pochi che rimangono. Un messaggio che getta un’ombra preoccupante sul futuro del lavoro in un mondo sempre più dominato dall’intelligenza artificiale.

L’AI consentirà sempre più alle aziende di risanarsi o di essere sempre più competitive. Saranno i lavoratori che perdendo il lavoro risaneranno le imprese in crisi. Ma in realtà questi fenomeni saranno più accentuati con le grandi aziende che taglieranno importanti numeri della propria forza lavoro. Le piccole e micro imprese, invece, potrebbero avere difficoltà ad accedere a queste tecnologie per la carenza di profili professionali dedicati, mentre l’outsorcing sarà sempre più oneroso. L’impatto dell’IA sulle imprese ne cambierà la fisionomia riducendo i players dei mercati e costringendo soprattutto le micro e piccole imprese, per la loro soppravivenza, ad allearsi in rete. Le grandi prospereranno ed i costi dei licenziamenti saranno a carico della collettività. Senza una legislazione che obblighi forme di disincentivazione della pratica del licenziamento selvaggio dovute all’uso dell’intentelligenza artificiale.

Sono necessari ammortizzatori sociali che aiutino la transizione dovuta al disallineamento tra la velocità della trasformazione digitale e tecnologica e il tempo necessario ai lavoratori di acquisire le nuove conoscenze per rimanere nel mercato del lavoro. La politica deve necessariamente introdurre strumenti operativi per la nuova economia e governare il fenomeno invece di tentare di impedire l’uso di tecnologie che non sono altro che la nuova economia dovuta alla rivoluzione tecnologica in atto. L’iperregolamentazione europea o forme di rifiuto avranno solo l’esito di impedire al nostro Paese di restere tra le più grandi economie del mondo.

Intelligenza artificiale, Robotica

Un robot che gioca a ping pong come un dilettante umano: La sfida della robotica sportiva.

L’articolo che segue è una sintesi di un paper pubblicato da Google DeepMind, una divisione di Alphabet Inc. (la società madre di Google) dedicata alla ricerca e allo sviluppo di intelligenza artificiale avanzata. Famosa per aver creato AlphaGo, il programma che ha sconfitto i campioni del mondo di Go, DeepMind è all’avanguardia nello sviluppo di AI capace di affrontare sfide complesse nel mondo reale.

Lo studio dimostra, in prospettiva, come anche le attività manuali potranno essere potenzialmente sostituite da quelle degli automi. Sfatando la portata conservativa dell’intelligenza artificiale sulla società e sulle nostre vite. Indubbiamente ci stiamo avviando in una nuova società dell’automazione sempre più dipendente dalle grandi multinazionali dell’high-tech.

Ma tonialo al paper, che ci dimostra come un robot sviluppato da Google DeepMind sappia competere a livello amatoriale nel ping pong, vincendo il 45% delle partite contro avversari umani.

Immagina di giocare una partita di ping pong contro un robot. Non un semplice lanciapalline, ma un avversario capace di adattarsi al tuo stile di gioco, di rispondere con precisione ai tuoi colpi e di sfidarti in un vero e proprio match. Questo non è più fantascienza, ma la realtà grazie a un progetto ambizioso sviluppato da Google DeepMind. Un team di ricercatori ha creato un robot in grado di giocare a ping pong a livello amatoriale, con una percentuale di vittorie del 45% contro avversari umani di diversi livelli di abilità.

Il progetto L’obiettivo dei ricercatori era di raggiungere un livello di competizione umano, una sfida enorme per la robotica. Il ping pong, infatti, è uno sport che richiede velocità, precisione e adattabilità, qualità difficili da replicare in un robot. Per affrontare questa sfida, il team ha sviluppato un sistema di controllo gerarchico e modulare, con diverse “politiche” che permettono al robot di scegliere la mossa migliore in ogni situazione.

Il funzionamento Il robot utilizza un braccio meccanico montato su un sistema di binari che gli permette di muoversi rapidamente lungo il tavolo. Grazie a un sistema di visione e a una serie di algoritmi avanzati, il robot è in grado di calcolare la traiettoria della pallina e di adattare la sua risposta in tempo reale. Il sistema è stato addestrato in simulazione, utilizzando dati raccolti da partite tra esseri umani e iterativamente migliorato attraverso test e perfezionamenti sul campo.

Le performance Il robot è stato testato in 29 partite contro giocatori umani di vari livelli, dai principianti agli avanzati. Ha vinto tutte le partite contro i principianti, il 55% delle partite contro giocatori intermedi, ma ha perso contro i giocatori più avanzati. Questo dimostra che il robot ha raggiunto un livello di abilità comparabile a quello di un giocatore dilettante, in grado di sfidare seriamente avversari umani.

Adattabilità e miglioramenti Una delle caratteristiche più impressionanti del robot è la sua capacità di adattarsi agli avversari. Utilizzando una combinazione di apprendimento online e un modello che valuta continuamente le performance del robot e dell’avversario, il sistema è in grado di migliorare le sue strategie durante la partita. Tuttavia, come dimostrano i risultati contro i giocatori avanzati, c’è ancora margine per migliorare la capacità del robot di gestire situazioni di gioco più complesse.

Conclusione Questo progetto segna un passo importante nel campo della robotica sportiva, dimostrando che è possibile costruire robot che non solo replicano movimenti fisici complessi, ma che possono anche competere in attività dinamiche e strategiche come il ping pong. Anche se c’è ancora molto lavoro da fare per raggiungere i livelli di un giocatore professionista, i progressi compiuti sono notevoli e aprono la strada a futuri sviluppi non solo nello sport, ma in una vasta gamma di applicazioni che richiedono interazione fisica e adattabilità.

Fonte: Achieving Human Level Competitive Robot Table Tennis (Paper disponibile qui)

Note: L’articolo è in parte realizzato con l’assistenza di ChatGPT 4o

Immagine: Realizzata con DALL-E

Innovazione, Intelligenza artificiale, Pubblica amministrazione

Quali effetti produrrà l’intelligenza artificiale nella Pubblica amministrazione?

L’impatto dell’intelligenza artificiale (IA) sulla pubblica amministrazione (PA) italiana è destinato a essere profondo e trasformativo, con effetti significativi sulla forza lavoro del settore pubblico. Secondo il rapporto di FPA Data Insight del maggio 2024, l’IA rappresenta una “terza ondata” di cambiamento per la PA, successiva al disinvestimento nel settore pubblico degli ultimi 15 anni e all’accelerazione della digitalizzazione innescata dalla pandemia di Covid-19.

Effetti sulla forza lavoro

Uno degli aspetti più critici riguarda l’esposizione dei dipendenti pubblici all’IA. Il rapporto stima che il 57% dei dipendenti pubblici, pari a circa 1,85 milioni di individui, è altamente esposto all’IA, con un potenziale impatto diretto sulla loro attività lavorativa. Tra questi, l’80% potrebbe beneficiare positivamente dall’integrazione dell’IA, soprattutto in ruoli dirigenziali e di leadership, dove l’IA potrebbe fungere da potente strumento per migliorare l’efficienza e la qualità del lavoro. Tuttavia, il 12% dei dipendenti, circa 218.000 individui, potrebbe essere vulnerabile alla sostituzione, specialmente in ruoli meno specializzati e con compiti ripetitivi.

Il settore dell’istruzione e della ricerca emerge come il comparto con il maggiore numero di addetti fortemente esposti all’IA, mentre le funzioni centrali e locali della PA mostrano una percentuale elevata di esposizione, con rispettivamente il 96,2% e il 93,5% del personale coinvolto.

Complementarietà vs. Sostituzione

Il rapporto sottolinea che l’IA non rappresenta solo una minaccia di sostituzione, ma anche un’opportunità di complementarità. In molti casi, l’IA potrebbe arricchire il lavoro umano, migliorando la produttività e liberando i lavoratori da compiti ripetitivi per concentrarsi su attività più qualificate. Tuttavia, vi è un rischio concreto di “automation bias”, ossia la tendenza a delegare eccessivamente decisioni all’IA senza la necessaria supervisione, che potrebbe portare a errori significativi.

Le amministrazioni che adotteranno l’IA

Le amministrazioni pubbliche che sapranno integrare efficacemente l’IA nei loro processi operativi saranno in una posizione di netto vantaggio rispetto a quelle che ignoreranno questa tecnologia. Queste amministrazioni potranno non solo migliorare l’efficienza e la qualità dei servizi offerti, ma anche attrarre nuovi talenti e promuovere un ambiente di lavoro più innovativo e flessibile. Al contrario, le amministrazioni che non adotteranno l’IA rischiano di rimanere indietro, incapaci di competere in un contesto sempre più digitalizzato e tecnologicamente avanzato.

Conclusioni

L’integrazione dell’IA nella pubblica amministrazione italiana è inevitabile e porterà con sé sfide significative, soprattutto in termini di gestione della forza lavoro. Sarà fondamentale per la PA non solo adottare tecnologie avanzate, ma anche investire in formazione e sviluppo delle competenze, per garantire che l’IA diventi uno strumento di empowerment piuttosto che di esclusione. In questo contesto, la capacità delle amministrazioni di governare efficacemente questi processi di cambiamento determinerà il successo o il fallimento di questa trasformazione epocale.

Fonte: L’impatto dell’intelligenza artificiale sul pubblico impiego (maggio 2024)

Immagine: Realizzata con Dall-E

Intelligenza artificiale

Il Futuro del Lavoro: Opportunità e Sfide nell’Era dell’Intelligenza Artificiale

L’intelligenza artificiale (IA) sta rapidamente trasformando il mondo del lavoro, promettendo di rivoluzionare l’economia globale e di portare cambiamenti significativi nella società occidentale. Questo cambiamento, tuttavia, porta con sé sia opportunità straordinarie sia sfide significative che devono essere affrontate con urgenza. In questo articolo esploreremo gli elementi più interessanti e le implicazioni di questo cambiamento, evidenziando i potenziali benefici e i rischi che ne derivano.

Opportunità dell’IA nel Mondo del Lavoro

L’introduzione dell’IA offre enormi opportunità per migliorare l’efficienza e la produttività in vari settori. Ad esempio, nell’ambito della sanità, l’uso di robot assistenziali potrebbe colmare il divario causato dall’invecchiamento della popolazione e dalla carenza di personale sanitario. I robot possono svolgere compiti ripetitivi e tecnici, liberando così tempo per i professionisti umani di concentrarsi su attività più complesse e personali. Questo non solo aumenterebbe l’efficienza del sistema sanitario, ma migliorerebbe anche la qualità dell’assistenza fornita ai pazienti.

Inoltre, l’IA ha il potenziale per democratizzare l’accesso alla conoscenza attraverso piattaforme di citizen science, che consentono ai cittadini comuni di partecipare alla ricerca scientifica. Questi progetti possono trasformare i cittadini in creatori attivi di conoscenza, migliorando la qualità della vita e rafforzando il tessuto sociale.

Sfide e Rischi: Disoccupazione Tecnologica e Disuguaglianza

Nonostante le opportunità, l’IA porta con sé il rischio della cosiddetta “disoccupazione tecnologica”. Secondo alcuni studi, molte professioni, comprese quelle che richiedono competenze cognitive elevate, potrebbero essere automatizzate, lasciando milioni di persone senza lavoro. Questo fenomeno potrebbe esacerbare le disuguaglianze economiche e sociali, creando una divisione ancora più netta tra coloro che beneficiano della nuova economia digitale e coloro che ne sono esclusi.

La risposta a questa sfida non può limitarsi all’introduzione di un reddito di base universale (UBI). Sebbene l’UBI possa fornire un sostegno finanziario, potrebbe anche accettare passivamente l’inevitabilità della disoccupazione tecnologica, senza affrontare le radici del problema. È necessario, invece, adottare un approccio di “Innovazione Responsabile” che integri considerazioni etiche e sociali fin dalle prime fasi di sviluppo delle tecnologie.

Innovazione Responsabile: Un Modello per il Futuro

L’Innovazione Responsabile propone di non accettare passivamente la direzione presa dallo sviluppo tecnologico, ma di guidarla attivamente per garantire che l’IA migliori davvero la qualità della vita umana. Questo approccio richiede un cambiamento di paradigma: la tecnologia non deve essere vista come un fine in sé, ma come uno strumento per raggiungere obiettivi sociali e morali più ampi.

Ad esempio, nella progettazione di sistemi robotici per l’assistenza sanitaria, è fondamentale considerare non solo l’efficienza, ma anche l’impatto sulla dignità e sul benessere dei pazienti. Similmente, nell’educazione e nelle altre sfere sociali, le tecnologie devono essere progettate per rispettare i valori e gli obiettivi specifici di ciascun ambito, evitando la contaminazione normativa tra le diverse sfere della vita sociale.

Il Valore del Capitale Mentale

Un altro aspetto cruciale è il riconoscimento e la valorizzazione delle capacità mentali e sociali umane come parte integrante del capitale economico. Nell’era digitale, le piattaforme online, i social media e l’economia della condivisione si basano pesantemente sulla partecipazione e sulla creatività degli utenti. Tuttavia, queste attività spesso non vengono adeguatamente ricompensate. È necessario sviluppare nuovi modelli economici che riconoscano e remunerino equamente il contributo intellettuale e creativo delle persone.

Conclusione: Verso un Futuro Sostenibile e Giusto

L’integrazione dell’IA nel mondo del lavoro rappresenta una delle più grandi sfide e opportunità del nostro tempo. Per navigare con successo in questa transizione, è essenziale adottare un approccio che combini l’innovazione tecnologica con una profonda riflessione etica e sociale. Solo così potremo garantire che l’IA contribuisca a costruire una società più giusta, inclusiva e prospera.


Fonte: Santoni de Sio, F., Almeida, T., & van den Hoven, J. (2024). The future of work: freedom, justice and capital in the age of artificial intelligence. Critical Review of International Social and Political Philosophy, 27(5), 659-683.

Note: Questo articolo è stato prodotto attraverso ChatGPT 4o. Le opinioni indicate nel presente articolo possono non essere allineate con il proprietario del blog.

Image credit: Jiraroj Praditcharoenkul/iStock

Intelligenza artificiale, Politica

Intelligenza Artificiale: Rivoluzione Economica e Trasformazione del Mercato del Lavoro

L’emergere dell’intelligenza artificiale generativa (IA) ha sollevato interrogativi su un’accelerazione rapida nell’automazione dei compiti che potrebbe ridurre significativamente i costi del lavoro, aumentare la produttività e incrementare la crescita economica. Se l’IA manterrà le sue promesse, potrebbe trasformare radicalmente il mercato del lavoro e stimolare la crescita della produttività globale nei prossimi decenni.

Produttività e Crescita Economica

Uno degli effetti principali dell’IA è la possibilità di risparmiare sui costi del lavoro e aumentare la produttività. L’adozione diffusa dell’IA generativa potrebbe aumentare la crescita della produttività del lavoro negli Stati Uniti di circa 1,5 punti percentuali all’anno. Questo incremento è paragonabile a quello osservato dopo l’introduzione di tecnologie transformative come il motore elettrico e il computer personale​.

A livello globale, si stima che l’IA potrebbe incrementare il PIL annuale del 7%, evidenziando il suo potenziale economico significativo. Tuttavia, l’impatto effettivo dipenderà dalla capacità dell’IA e dalla velocità con cui verrà adottata​​. Si stima che circa il 18% del lavoro globale potrebbe essere automatizzato dall’IA, con effetti più significativi nelle economie sviluppate rispetto a quelle emergenti​​.

Impatto sul Mercato del Lavoro

L’IA generativa ha la capacità di automatizzare una vasta gamma di compiti, esponendo circa due terzi delle occupazioni attuali a qualche grado di automazione. Nei settori amministrativi e legali, l’esposizione all’automazione potrebbe essere particolarmente alta, con il 46% e il 44% rispettivamente, mentre nei lavori manuali e all’aperto, come la costruzione e la manutenzione, l’impatto sarà probabilmente minore, con esposizioni del 6% e del 4%​.

La Goldman Sachs stima che l’IA generativa potrebbe esporre all’automazione l’equivalente di 300 milioni di posti di lavoro a tempo pieno a livello globale​​.

Dislocazione e Creazione di Nuovi Lavori

Storicamente, la dislocazione dei lavoratori dovuta all’automazione è stata compensata dalla creazione di nuovi ruoli e compiti. Studi accademici indicano che, sebbene l’automazione possa inizialmente ridurre la domanda di lavoro in alcuni settori, nel lungo termine porta alla creazione di nuove occupazioni e aumenta la domanda aggregata di lavoro​.

L’adozione dell’IA potrebbe portare a un boom di produttività, con lavoratori che diventano più produttivi nei loro ruoli esistenti e nuovi posti di lavoro creati in risposta all’aumento della domanda di lavoro e alla maggiore produttività aggregata​​.

In conclusione, mentre l’intelligenza artificiale presenta sfide significative per il mercato del lavoro, il suo potenziale per migliorare la produttività e stimolare la crescita economica è enorme. La chiave sarà gestire la transizione in modo che i benefici superino i costi a breve termine, garantendo che la forza lavoro sia adeguatamente preparata per i nuovi tipi di lavoro che emergeranno.

Fonte: Goldmansachs.com

Imprese, Innovazione, Intelligenza artificiale

Robot e lavoro in Italia: le aziende dicono sì all’intelligenza artificiale

Per l’89% delle aziende i robot e l’intelligenza artificiale non potranno mai sostituire del tutto il lavoro delle persone e hanno un impatto migliorativo del lavoro.

Il 61% delle aziende italiane è pronto ad introdurre sistemi di intelligenza artificiale e robot nelle proprie organizzazioni. Solo l’11% si dichiara totalmente contrario. Tra le ragioni principali che spingo le aziende favorevoli ad introdurre tali sistemi la convinzione che il loro utilizzo rende il lavoro delle persone meno faticoso e più sicuro (93%), fa aumentare l’efficienza e la produttività (90%) e ha portato a scoperte e risultati un tempo impensabili (85%). Questi alcuni dei dati di fondo emersi dal Primo Rapporto AIDP-LABLAW 2018 a cura di DOXA su Robot, Intelligenza artificiale e lavoro in Italia, che verrà presentato a Roma domani 23 ottobre 2018 presso il CNEL.

Le aziende e i manager sono convinti a stragrande maggioranza (89%) che i robot e l’IA non potranno mai sostituire del tutto il lavoro delle persone e che avranno un impatto positivo sul mondo del lavoro e delle aziende: permetterà, infatti, di creare ruoli, funzioni, e posizioni lavorative che prima non c’erano (77%); stimolerà lo sviluppo di nuove competenze e professionalità (77%); consentirà alle persone di lavorare meno e meglio (76%). Avrà un impatto molto forte nei lavori a più basso contenuto professionale: favorirà, infatti, la sostituzione dei lavori manuali con attività di concetto (per l’81% del campione). I manager e gli imprenditori ritengono, infatti, che al di là dei benefici in termini organizzativi, l’introduzione di queste tecnologie, potrà avere effetti negativi sull’occupazione e l’esclusione dal mercato del lavoro di chi è meno scolarizzato e qualificato. In quest’ottica va letto il dato negativo sulle conseguenze in termini di perdita di posti di lavoro indicata dal 75% dei rispondenti.

Un dato di grande interesse riguarda le modalità con cui i sistemi di intelligenza artificiale e robot si sono «integrati» in azienda. Per il 56% delle aziende l’impiego di queste tecnologie è stato a supporto delle persone, a riprova che queste sono da considerarsi principalmente un’estensione delle attività umane e non una loro sostituzione. Per il 33%, inoltre, tali sistemi sono stati impiegati per svolgere attività nuove mai realizzate in precedenza. Per il 42% delle aziende, invece, l’IA e i robot hanno sostituito mansioni prima svolte da dipendenti. Questi dati confermano la rivoluzione in atto nelle organizzazioni del lavoro e nelle attività di guida di tali processi che i direttori del personale saranno chiamati a svolgere ed è questa una delle ragioni principali che ha spinto l’AIDP ad investire nella realizzazione annuale di un rapporto che fornisca dati e informazione utili a capire meglio il futuro del lavoro nell’era dei robot e dell’intelligenza artificiale.

In generale l’intelligenza artificiale e i robot migliorano molti aspetti intrinseci del lavoro dipendente perché hanno favorito una maggiore flessibilità dell’orario di lavoro in entrata e in uscita (38%); la riorganizzazione degli spazi di lavoro/uffici (35%); la promozione di servizi di benessere e welfare per i lavoratori (31%); il lavoro a distanza e smart working (26%); la riduzione dell’orario di lavoro (22%).

Le differenze tra percezione e realtà. Il Rapporto AIDP-LABLAW 2018, inoltre, ha messo a confronto l’opinione delle aziende che hanno già introdotto sistemi di Robot e intelligenza artificiale con quelle che non lo hanno ancora fatto. Le differenza principali che emergono riguarda l’atteggiamento verso queste tecnologie: molto positivo (75%) da parte delle aziende robotizzate, meno positivo (47%) per le aziende non robotizzate. In generale le aziende che non hanno introdotto sistemi di Robot e IA tendono a «sovrastimare» una serie di conseguenze negative che la pratica delle aziende robotizzate, invece, smentisce nei fatti. C’è quindi un tema di percezione delle criticità legate all’introduzione di queste tecnologie eccessivamente elevata rispetto alla condizione reale delle aziende chi le utilizza che al contrario, evidenzia soprattutto gli aspetti positivi.

«I risultati della ricerca, fanno capire che la digitalizzazione non è mai solo una questione tecnologica ma strategica – spiegaIsabella Covili Faggioli, Presidente AIDP -. C’è sempre più la consapevolezza che a nulla serviranno le tecnologie se non ci riappropriamo del pensiero che nulla succede se le persone no lo fano accadere e che sono le persone che fanno la differenza, sempre e comunque, ottimizzando le innovazioni e dando loro il ruolo che hanno, un ruolo di supporto e di miglioramento della qualità della vita. Sono tre secoli che il rapporto uomo macchina è complicato perché basato sulla paura. Paura che le macchine, in questo caso i robot, sostituiranno le persone mentre si è poi sempre verificato che è solo migliorata la qualità della vita e che si sono venute a creare nuove professionalità.» 

«A fronte dei risultati della ricerca AIDP-LABLAW emerge chiaramente un tema di nuove relazioni industriali, di nuovi rapporti tra imprese e lavoratori – spiega Francesco Rotondi, Giuslavorista e co-founder di LabLaw –. Ci troviamo di fronte la possibilità di un’integrazione tra processi fisici e tecnologia digitale mai vista in precedenza. Il processo in atto lascia presagire la nascita di un modello nel quale l’impresa tenderà a perdere la propria connotazione spazio-temporale, in favore di un sistema di relazioni fatto di continue interconnessioni tra soggetti (fornitori, dipendenti, clienti, chiamati ad agire in un ambito territoriale che superi la dimensione aziendale e prescinda dal rispetto di un precostituito orario di lavoro ».

Fonte: diariodelweb.it (qui) Articolo di V. Ferrero del 23 ottobre 2018.

Intelligenza artificiale, Sicurezza, Tecnologia

SARI: Intelligenza Artificiale per la Polizia Italiana. Saremo tutti tracciati?

In un recente caso di cronaca (la rapina di Lanciano) la Polizia Scientifica di Brescia ha potuto arrestare due sospettati grazie SARI (Sistema automatico di un riconoscimento immagini), un sistema di riconoscimento facciale introdotto l’anno scorso al servizio della Polizia Di Stato. Si tratta di un sistema di Intelligenza Artificiale che mette a confronto e cerca di riconoscere i volti.

SARI ha due modalità di funzionamento, come si può intuire dalla bozza di contratto pubblicata sul sito della Polizia: la modalità Enterprise che confronta una fotografia con un database di grandi dimensioni (nell’ordine di 10 milioni di immagini) e genera “una lista di volti simili al volto ricercato”.

E una modalità Real Time “per il riconoscimento in tempo reale di volti presenti in flussi video provenienti da telecamere IP, con relativo confronto dei volti presenti nei flussi video con quelli di una “watch-list” (con una grandezza dell’ordine di 100.000 soggetti) e trasmissione di un alert in caso di match positivo”.

È un sistema concettualmente simile a quello che ognuno di noi può sperimentare in Google Photo, su iOS, su Amazon Photo o in tanti altri sistemi simili. Il software non solo sa riconoscere i volti umani, ma riesce anche a distinguere tra l’uno e l’altro. Quello che non si trova nei software commerciali, naturalmente, è il confronto con un database esterno composto da centinaia di migliaia o anche milioni di immagini; ciò che permette a SARI di dire questa foto potrebbe essere Tizio.

Nella fattispecie, SARI è sviluppato dall’azienda Parsec 3.26 con sede a Lecce ed è probabilmente basato sul loro prodotto commerciale Reco – Face Recognition System. Il database usato per il confronto è la banca dati SsA del sistema AFIS, e include 16 milioni di immagini grazie ad “altri database”.

Finora non è stato possibile chiarire da dove vengono le altre immagini, tant’è che il Deputato Federico D’Incà ha chiesto chiarimenti tramite un’interrogazione parlamentare ufficiale. C’è chi si domanda da dove arrivino quei sedici milioni di immagini e come siano state raccolte, e per ora sono domande senza risposta. Con il timore che i cittadini italiani siano stati inclusi a loro insaputa.

Altra criticità riguarda i falsi positivi. Fermo restando che la responsabilità ultima resta all’agente, questi sistemi di sorveglianza se la cavano piuttosto bene con le fotografie, ma quando si passa alle videocamere in tempo reale la precisione è discutibile nel migliore dei casi, disastrosa in quello peggiore.

L’altro problema riguarda la privacy di tutti: le videocamere registrano immagini e le conservano per chiunque passi sotto il loro occhio elettronico. Che si tratti di criminali incalliti o di cittadini perfettamente onesti, non cambia nulla: le immagini vengono conservate a lungo, mesi o anche anni a volte (dipende dalla legislazione e dagli eventi).

In Gran Bretagna, in occasione di una partita, un sistema simile ha individuato 2297 persone che sono state fermate e interrogate per errore. Ognuna di queste persone si è vista dunque convocare dalla polizia e poi ha subito un interrogatorio. Non è quindi solo una questione di principio, ma anche di problemi reali, dalla perdita di tempo al trauma emotivo.

Alcuni non ci vedono nessun problema, anzi magari si sentono più sicuri; altri invece credono che sia un’illecita violazione della privacy e della libertà individuale. Torniamo quindi a un’antica dicotomia mai davvero risolta, quella che contrappone libertà individuale e sicurezza pubblica. Per com’è andata la Storia recente, pare che siano due grandezze inconciliabili e inversamente proporzionali. Per avere una bisogna rinunciare all’altra e viceversa.

Fonte: tom’shardware (qui)

Innovazione, Intelligenza artificiale, Sicurezza

Riconoscimento facciale, come funziona. Il video della polizia.

Sono terminate le fasi di sperimentazione e formazione relative al nuovo software della Polizia di Stato denominato ”Sistema Automatico di Riconoscimento Immagini (S.A.R.I.)”, strumento di supporto alle attività investigative di contrasto al crimine. Il SARI Enterprise consente di effettuare ricerche nella banca dati A.F.I.S., attraverso l’inserimento di un’immagine fotografica di un soggetto ignoto che, elaborata da due algoritmi di riconoscimento facciale, fornisce un elenco di immagini ordinato secondo un grado di similarità. Nell’ipotesi di match, al fine di integrare l’utilità investigativa del risultato con un accertamento tecnico a valenza dibattimentale, è comunque necessaria una comparazione fisionomica effettuata da personale specializzato di Polizia Scientifica. Anche grazie al sistema di riconoscimento facciale due ladri georgiani sono stati arrestati dalla polizia a Brescia. I due sono ritenuti responsabili di un furto in un’abitazione commesso lo scorso 17 luglio. Decisiva, per le indagini condotte dalla Squadra mobile, è stata l’acquisizione delle immagini di una telecamera di video sorveglianza installata all’interno dello stabile che aveva ripreso in azione i due. “I fotogrammi sono stati poi analizzati con l’applicativo in uso alla Polizia Scientifica che permette di confrontare le immagini dei rei con i volti dei milioni di soggetti schedati, restituendo una ristretta platea di sospettati. A completare il quadro indiziario a carico dei due stranieri, domiciliati in provincia di Verona, è stato il ritrovamento degli indumenti indossati durante il furto e l’analisi dei tabulati telefonici”.

Fonte: quotidiano.net (qui)

Innovazione, Politica, Salute

Così l’intelligenza artificiale impara a scovare i tumori. In meno di due ore

Un test, condotto grazie al co-fondatore di una startup e un radiologo, vuole dare un’idea di come funzionino questi “cervelli”. Che presto potrebbero salvarci la vita.

Tutti sappiamo come si è formato un medico: libri e articoli, ore e ore sul campo. Il modo in cui funziona l’intelligenza artificiale è meno intuitivo. Abbiamo deciso di chiarirlo, anche perché l’AI sarà sempre più importante per la diagnostica. È questo il ragionamento che ha spinto Quartz a fare un esperimento: allenare due algoritmi a riconoscere un cancro ai polmoni. In un paio d’ore.

L’esperimento

Diciamolo subito: un “medico artificiale” efficiente ha bisogno di più tempo e molti più dati. Il test, condotto grazie al co-fondatore della startup MD.ai Leon Chen e al radiologo Luke Oakden-Rayner, vuole dare un’idea di come funzionino questi “cervelli”. Che presto potrebbero salvarci la vita. Se un oncologo impara dai manuali e dall’esperienza, l’intelligenza artificiale apprende solo dai dati: circa 190.000 immagini, bidimensionali e in 3D, con noduli maligni, benigni o privi di qualsiasi formazione. Un nodulo è un piccolo pezzo di tessuto  di tessuto che non è normalmente presente nei polmoni. Già individuarlo non è semplice. Perché è piccolo e spesso poco visibili. E può essere confuso con altre formazioni. Poi il passo successivo: saper distinguere tra un nodulo maligno e uno che non lo è.

Cosa impara l’AI in 75 minuti

Dopo una ventina di minuti e dopo aver digerito le prime 50.000 immagini, l’algoritmo inizia a dare i primi risultati (ancora scarsi). Individua correttamente circa il 46% dei noduli. Ma non ha ancora cognizione di cosa siano di preciso. A volte, infatti, confonde i vasi sanguigni con un possibile cancro. Dopo mezz’ora, gli algoritmi hanno analizzato 95.000 radiografie. Riescono a individuare il 60% dei noduli. E nel 69% sono in grado di dire con esattezza se sono maligni. “In questa fase, il sistema ha un’estrema sicurezza quando rileva noduli di grandi dimensioni (oltre il centimetro di diametro)”. Mentre “non ha ancora imparato alcune nozioni semplici”.

Anzi, molto semplici. È tarato solo per riconoscere i noduli polmonari, ma non sa cosa sia esattamente un polmone. Individua quindi formazioni in zone del corpo dove i “noduli polmonari” non possono esserci. Per il semplice fatto che sono, appunto, polmonari. In altre parole, spiega Quartz: l’intelligenza artificiale è priva di buon senso perché si attiene ai soli dati. A questo stadio, quindi, combina risultati discreti con falle elementari. “Anche un bambino di tre anni sa distinguere pancia e petto”. L’AI invece “non sa cosa siano”. A tre quarti dell’esperimento, dopo quasi un’ora e 143.000 immagini, l’intelligenza artificiale comincia a possedere la materia. Ed evidenzia risultati che Quartz definisce “piuttosto buoni”. Ha ancora difficolta a individuare i noduli (l’accuratezza è del 64%). Anche in questo caso, la pecca è la mancanza di buon senso. Il medico artificiale indica noduli in zone dove è molto raro che ci siano.

Confondendoli spesso con piccole cicatrici. Un medico umano, in questo, è molto più efficiente. Inizia a essere significativa l’accuratezza delle formazioni maligne: 76.38%. Fine dell’esperimento, dopo 75 minuti e oltre 190.000 immagini. L’accuratezza nell’individuazione dei noduli sfiora il 68%. E la capacità di capire quali sono maligni è dell’82.82%. L’intelligenza artificiale è migliorata ancora. Ancora troppo spesso i noduli vengono scambiati con altro. Ma, quando succede, l’AI giudica la formazione benigna. “La risposta terapeutica per il paziente – scrivono gli autori del test – sarebbe quindi simile”.

Conoscenza ed esperienza

“L’intelligenza artificiale funziona molto bene, anche se non è ancora al livello di un radiologo”, conclude Quartz. Molto dipende da un corredo di dati ancora troppo esiguo. Ma se questi sono i risultati ottenuto in meno di due ore e con 190.000 immagini, pensate cosa potrebbe fare un sistema più complesso, con un archivio fatto di centinaia di migliaia di contenuti. Come quelli prodotti ogni giorno da cliniche e ospedali.

Allo stesso tempo, l’esperimento sottolinea i pregi dell’uomo, in grado di usare “le conoscenze pregresse come un’impalcatura”. L’intelligenza artificiale, invece, ha bisogno di costruirla ogni volta. E può farlo solo grazie a una mole enorme di esempi. In questo caso ne sono serviti 50.000 per “insegnare” alle macchine quello che uno studente imparerebbe con un solo manuale. Solo che nessun medico è in grado di leggere un libro in 17 minuti. Il futuro della diagnostica dipenderà dalla capacità di fondere le doti di ognuno: la conoscenza umana con l’esperienza artificiale.

Fonte: agi.it Articolo di P. Fiore dell’8 settembre 2018 (qui)

Economia, Innovazione

Olivetti, 110 anni e nessuno che abbia imparato la lezione

La prima cosa che ti viene da chiederti è perché.

Perché un’azienda italiana che era all’avanguardia della tecnologia mondiale è quasi scomparsa?

Perché un intero settore industriale del nostro paese è stato cancellato a favore delle aziende statunitensi?

Perché la Silicon Valley aveva iniziato a parlare italiano ma poi la conquista dell’America è svanita nel nulla?

Sono i perché che ti vengono su come un bolo visitando la mostra ‘Olivetti: 110 anni di impresa’ appena aperta alla Galleria Nazionale d’arte moderna e contemporanea di Roma.

La risposta che vi daranno a questi tanti perché i nostri attuali, rapaci, imprenditori e supermanager è che Olivetti era una fabbrica di idee, di design, di simboli, di geni ma non di profitti. Che la ‘visione’ Olivetti non è quella del moderno capitalismo. Che Olivetti, in fondo, ha fallito.

In realtà, la filosofia di Adriano Olivetti, figlio del fondatore Camillo, era quella di un imprenditore illuminato come dai suoi tempi non più si manifestano nel mondo occidentale. Le sue stesse fabbriche erano studiate per dare qualcosa al territorio, in termini di lavoro, certo, ma soprattutto di bellezza e di meraviglia. La tecnologia per quella visione assumeva un ruolo quasi mistico che al giorno d’oggi un qualsiasi ricco scarparo guarderebbe dall’alto in basso senza neanche capire che il poveraccio è proprio lui.

Quello che la visione Olivetti aveva afferrato nella sua fantasmagorica espansione elettromeccanica è che il profitto non è il valore principale di un’azienda.

Lo sono, al contrario, le cosiddette positively disturbing ideas come i valori immateriali rappresentati dalla cultura e dalla capacità innovativa, la priorità ai giovani (i più adattabili all’innovazione), la selezione dei talenti, il design innovativo inteso come intrinseco al prodotto, una struttura aziendale informale nella quale chiunque, a prescindere dal proprio ruolo, potesse essere chiamato a dare il suo contributo alla ‘impresa’ (nel vero senso della parola).

La piramide aziendale, ovviamente esistente anche in Olivetti, doveva aiutare l’uomo nel processo creativo, non opprimerlo. Provate a suggerire una cosa del genere oggi alla Fiat di Marchionne (anzi, alla FCA, che la Fiat italiana non esiste più).

Ma l’idea più disturbante di tutte nel mondo lucrativo e inumano di oggi derivante dalle teorie ultraliberiste di Milton Friedman è senz’altro quella della responsabilità sociale dell’impresa. Una responsabilità che è dovuta agli azionisti quanto ai dipendenti, quanto al territorio sul quale si operi. Costruisce case per i dipendenti, cinema e piscine per la città. Distribuisce benessere, diminuisce l’orario di lavoro, senza variazioni di salario.

Voglio ricordare ancora una volta poi la regola aurea che si rispettava alla Olivetti: nessun manager doveva guadagnare più di dieci volte il salario minimo di un operaio. Oggi che i supermanager arrivano anche ad intascare (spesso immeritatamente) fino a 500 volte la paga di un loro umile dipendente, si capisce che il capitalismo illuminato ha avuto in Adriano Olivetti un unico, splendente sole. Che non è mai più risorto.

A proposito di sole, Olivetti e la California. A Cupertino l’azienda della grigia Ivrea fu la prima a fare tecnologia nella Silicon Valley prima che questa si chiamasse così. Nel 1973 la Olivetti apre il suo primo ufficio a Mountain View (sì, proprio dove ha sede Google) mentre Steve Jobs ancora studia e lavora ai videogiochi della Atari. Nel ’79 la Apple muove i primi passi mentre Olivetti inaugura l’Advanced Technology Center. Tre anni dopo nasce l’M20. L’Apple Macintosh arriva solo nell’84. Quello che è considerato il primo personal computer del mondo, il P101, Olivetti lo aveva prodotto nel 1965.

Perché Olivetti, un’azienda che era arrivata ad avere 50mila dipendenti in 100 paesi del mondo è quasi scomparsa e vive ora solo come pallida costola di Tim (200 dipendenti o giù di lì)? Molti oggi affermano che la gestione di Adriano Olivetti fu miope e non adeguata a cavalcare la rivoluzione elettronica. Negli anni 2000 poi, un vero e proprio tracollo: dal 2003 al 2014 le perdite medie annue s’aggiravano sui 30-35 milioni per un totale di 400 milioni di euro, ripianati prima da Pirelli e poi da Telecom.

Ma per qualcun altro, invece, la sorte di Olivetti era già stata decisa altrove. In un macabro parallelo con l’Eni di Enrico Mattei, qualche ex dipendente afferma che la manina che affondò l’azienda è quella imperialista americana. Nel 1962/63 gli Usa, presidenza Kennedy, avevano notato l’intraprendenza di questi italiani che avevano il predominio dell’office automation nel mondo e miravano al controllo dell’elettronica per entrare nell’era informatica.

In Italia si stavano formando i primi governi di centrosinistra. Detto fatto: le banche italiane chiesero alla Olivetti Divisione Elettronica il rientro immediato dei capitali. L’Olivetti fu costretta a “svendere” alla General Electric la sua Divisione Elettronica, con tutta la rete di assistenza. Un suicidio. Fantapolitica? Chissà.

Intanto oggi Olivetti celebra il suo anniversario solo grazie a un’altra azienda italiana nel frattempo divenuta francese. Andare a vedere la mostra della Gnam inorgoglisce, ma fa veramente incazzare.

Fonte: ilfattoquotidiano.it Articolo di I. Mej (qui)

Economia, Esteri, Innovazione

E’ a Tokyo la prima Smart City sicura e interconnessa grazie alla Blockchain

La Blockchain, in italiano “catena di blocchi”, è un processo in cui un insieme di soggetti condivide risorse informatiche – dati, memoria, Cpu, banda – per rendere disponibile alla comunità di utenti un database virtuale, generalmente di tipo pubblico, ma ci sono anche esempi di implementazioni private, e in cui ogni partecipante ha una copia dei dati.

Alla base del funzionamento della Blockchain c’è la sicurezza poiché il database condiviso è centralizzato e criptato; in questo modo viene garantita la sicurezza e la conservazione delle informazioni in esso contenute, inoltre, per effettuare delle modifiche è necessario il consenso di tutti e comunque vengono registrate tutte le versioni precedenti.

L’utilizzo della tecnologia Blockchain è ancora molto nebuloso poiché si può spaziare dall’impiego all’interno del mondo criptovalute, fino ad arrivare ai settori più disparati come banche, trasporti, sanità, finanza, sicurezza, istruzione, assicurazioni. Questi che abbiamo appena elencato sono alcuni degli ambiti che, secondo gli esperti, saranno prima o poi contaminati dalla Blockchain.

Blockchain è anche pronta a sbarcare all’Università di Pisa,primo ateneo in Italia e tra i primi in Europa ad adottare il registro criptato digitale in cui archiviare in ordine cronologico e pubblico tutte le informazioni legate alla carriera universitaria, così da porre fine ai millantatori di titoli di studio.

Ma ora ai diversi ambiti alternativi di applicazione della tecnologia Blockchain se ne aggiunge un altro: il suo utilizzo nella progettazione di una Smart City.

Le Smart City combinano le tecnologie dell’informazione e della comunicazione nel tentativo di migliorare i servizi come i trasporti attraverso la razionalizzazione che produce una riduzione dei costi. Un esempio semplice in tal senso è l’impiego di sensori per la segnalazione di parcheggi liberi, oppure i sistemi di illuminazione che utilizzano i sensori per rilevare l’attività umana nella zona e a seconda dell’afflusso aumentano o diminuiscono l’illuminazione.

L’Internet of Things e la Blockchain rappresentano un ulteriore step per lo sviluppo delle Smart City. L’applicazione dell’Internet of Things all’interno di un ecosistema complesso come quello urbano porta con sé una serie di problematiche.

Se da un parte l’IoT può essere sfruttata per una gestione intelligente ed interconnessa del flusso del traffico, la Blockchain entra in gioco perché in questo contesto è fondamentale mantenere la sicurezza dei dati.

Nell’esempio che prenderemo in rassegna, ossia un’avanzata smartcity di Tokyo, c’è tutto questo ma anche molto altro. Si tratta di un esperimento implementato all’interno del distretto di Daimaruyu che, in un’area di 120 ettari nel quale il 30% degli edifici appartiene a Mitsubishi, riunisce tre quartieri di Tokyo compresi fra la Tokyo Station e il Palazzo imperiale.

L’area delle smartcity di Tokyo.

Ci sono diversi stakeholder e aziende che hanno preso parte al progetto. Fujitsu ha creato l’infrastruttura tecnologica, ossia quella che consentirà alle aziende di condividere i propri dati senza perderne il controllo.  Alla base di tutto c’è sempre la condivisione di dati in modo sicuro e strutturato per creare valore, rispettando sicurezza, privacy e relazioni tra le aziende che vi partecipano.

La tecnologia impiegata, di tipo open source, appositamente progettata sotto la Linux Foundation per un utilizzo in contesto aziendale, è una Blockchain Hyperledger Fabricche sfrutta la “tecnologia contenitore” per ospitare contratti smart chiamati “chaincode” che comprendono la logica applicazione del sistema. In Hyperledger Fabric le regole definite per la specifica Blockchain stabiliscono chi può validare l’ingresso di membri nella Blockchain, autorizzare e verificare ogni transazione.

 Fujitsu ha progettato l’infrastruttura software Virtuora DXattraverso la quale permette di condividere data e smart contracts. Virtuora DX è un servizio cloud che consente alle aziende di portare visibilità e valore nei dati in loro possesso, condividerli, e accelerare la co-creazione di valore. Questo tipo di tecnologia è necessaria perché i dati possono essere sfruttati in modo sicuro per creare innovazione senza però che essi escano dal perimetro aziendale.

All’interno di un’area come quella di Daymaruyu, un distretto ad alta densità economica dove sono presenti 106 grattacieli – 4.300 uffici -, 280mila persone impiegate, 40mila ristoranti, 90mila negozi, 13 stazioni ferroviarie e metro, 28 linee, hanno la loro sede principale 16 delle più grandi aziende al mondo.

In quest’area, che non ha nulla da invidiare alla città rappresentata nel visionario film Minoriry Report, l’infrastruttura tecnologica consente di condividere le informazioni di tipo economico che provengono dalla gestione dei palazzi di proprietà di Mitsubishi, dai sensori IoT raccolti da aziende di trasporti – è presente anche un servizio di bus senza conducente -, dai negozi relativamente all’andamento delle vendite e dalla disponibilità dei beni, dal flusso di dati provenienti dagli hotel sulle camere disponibili, oppure i tavoli liberi all’interno dei ristoranti.

Alcuni dei servizi garantiti dall’uso della blockchain e dell’IoT nella smart city di Tokyo.

L’aggregazione di questi dati a diversi livelli – si può anche conoscere l’andamento dei prezzi degli immobili al metro quadro, oppure quante persone sono presenti all’interno di un locale ma anche sapere il valore e la quantità di ogni transizione effettuata – potrà quindi essere sfruttata dall’azienda che si collega, previa autorizzazione, per progettare un determinato servizio oppure per la sua attività commerciale.

L’esempio del distretto di Daymaruyu conferma l’ascesa delle Smart City che ormai sono diventate un obiettivo principale per molti paesi.

Escludendo il Giappone, secondo i dati diffusi dall’IDC, i paesi che compongono l’area Asia-Pacifico spenderanno nel 2018 in progetti di città intelligenti 28,3 miliardi di dollari, raggiungendo i 45,3 miliardi nel 2021. In tutto questo la Blockchain ha rapidamente guadagnato consensi e può essere considerata una parte integrante del successo delle Smart City.

Questa tecnologia può essere utilizzata anche per assegnare un’identità digitale verificata ad ogni cittadinocosì da consentirgli di accedere ad un sistema interconnesso. Tutto questo si traduce nella fruizione di un’ampia gamma di servizi governativi, professionali e privati – come la richiesta di prestiti bancari, la gestione della proprietà, il trasporto pubblico, lo shopping online o il pagamento delle tasse -, il tutto con estrema facilità e velocità.

Fonte: “E’ a Tokyo la prima Smart City sicura e interconnessa grazie alla Blockchain”  di E. Ragoni su businessinsider.com (qui)

Economia, Rivoluzione digitale

Iniziamo con l’innovazione. L’Intelligenza Artificiale sarà sempre più presente. Ecco la grande trasformazione delle economie avanzate.

untitleddesign61.630x360

CAPIRE L’ARTIFICIAL INTELLIGENCE NON E’ PIU’ UN OPTIONAL. ECCOLA SPIEGATA (dal blog di Paolo Barnard qui)

Nell’educazione politica dei cittadini va oggi inserita come prioritaria la comprensione dell’Artificial Intelligence (di seguito AI).

Così come cinquant’anni fa l’arrivo del personal computer ha cambiato ogni angolo della vita privata, professionale, economica e politica, così è oggi l’AI, solo immensamente di più. Le ‘macchine pensanti’ saranno ovunque e gestiranno quasi tutto, punto. Ma su cosa davvero sia l’AI, e cosa sarà, c’è un’enorme confusione, soprattutto a causa delle fantasie cinematografiche e dell’iperbole nei media. L’AI va quindi capita con lucidità. Ma attenti: date le sue straripanti applicazioni nella politica, economia, istruzione, lavoro e salute, oggi non saperlo non è più un optional.

Dovete iniziare da questa domanda: gli umani già posseggono l’intelligenza, frutto di un improvviso e ancora misterioso salto genetico avvenuto fra 200 e 100 mila anni fa in un ramo di primati; allora perché oggi stiamo ossessivamente cercando di crearne un’altra, quella artificiale?

Esiste solo una risposta: perché quella artificiale dovrà essere molto più potente di quella umana. Infatti non avrebbe senso investire miliardi e lavorare decenni per riottenere delle capacità artificiali pari a quelle naturali dell’uomo. Ma qui ho appena usato un termine che è la chiave di tutta la comprensione della vera AI: “capacità”. Infatti l’attuale AI non ha assolutamente nulla di intelligente, cioè nulla di neppure lontanamente comparabile alle funzioni cognitive del cervello umano; essa ha unicamente delle capacità computazionali prodigiose che gli derivano da istruzioni sempre più sofisticate. Fra capacità artificiali e intelligenza naturale esiste un divario di dimensioni colossali. L’aver usato Intelligence nella locuzione Artificial Intelligence ha portato a un’incomprensione enorme in tutto il mondo, e infatti la locuzione più idonea sarebbe stata Capacità Artificiale, non intelligenza artificiale.

Da più parti, in tema di AI, giungono apocalittici avvisi e scenari che ipotizzano un mondo da incubo dove super macchine capaci di pensieri e sentimenti propri potrebbero schiavizzare la razza umana e dunque conquistare il potere. O peggio: impossessarsi delle atomiche ed estinguerci. Queste sono sciocchezze, che appunto spariscono quando si ha chiara la sopraccitata differenza fra capacità artificiali e intelligenza naturale. Quest’ultima, che appartiene unicamente a noi, è, e quasi certamente rimarrà, irraggiungibile dalle macchine, ed è bene subito chiarirvi il motivo. Purtroppo mi devo soffermare parecchio su questo punto perché se rimaniamo distratti dall’AI fantasy dei film, finiamo per non capire niente del colossale impatto che questa tecnologia davvero avrà sulla politica, l’economia, l’istruzione, il lavoro e la salute degli umani.

SCORDATEVI C-3PO E TERMINATOR.

Prima cosa sia chiara un’altra distinzione: non esiste solo la AI, ma anche la AGI, che è la Artificial General Intelligence. La prima si riferisce a macchine che sotto la totale istruzione e direzione dell’uomo svolgono compiti estremamente complessi, come: tradurre le lingue all’istante; trovare segni patologici invisibili ai medici negli esami clinici; predire i Mercati nelle variabili indecifrabili ai traders; riconoscere miliardi di volti e collegarli senza errore ai conti correnti o ai file di Polizia; interpretare e catalogare migliaia di miliardi di dati in frazioni di secondo per uso e consumo umano, ecc. Quindi si badi bene: stiamo parlando sempre di capacità eccezionali, e non d’intelligenza cognitiva tipica dell’umano. La seconda, l’AGI, è invece il sogno dei tecnologi: le stesse macchine, con le stesse capacità, ma dotate di totale autonomia sia nell’imparare per conto proprio che nel ‘pensare’ per conto proprio alle soluzioni. Cioè che non richiedano più nessuna istruzione e direzione dell’uomo. Di nuovo però, si badi bene: parliamo in questo caso di un passo oltre, ma sempre di tecnologie e nulla a che vedere con l’esatta riproduzione di un cervello umano. Quindi neppure l’AGI rappresenta davvero le futuristiche, anche se emozionanti, fantasie alla Star Wars, Blade Runner e filone successivo.

Che replicare esattamente un encefalo umano dentro un’AGI, cioè creare la cosiddetta Superintelligence, fosse un’impresa pressoché irraggiungibile fu la chiara intuizione del padre dei computers, Alan Turing, il genio matematico inglese scomparso nel 1954. Turing lasciò ai posteri una sfida in questo senso, contenuta nel celeberrimo Turing Test che includeva anche una versione aggiornata col nome di Imitaton Game: in questi test si sarebbe misurato se mai un computer avrebbe ingannato la mente umana mostrando intelligenza superiore (e qui si parla d’intelligenza complessiva, non di abilità agli scacchi o a Go). Fu un primo tentativo di far comprendere quanto lunga in realtà fosse la strada prima di poter davvero decretare che una macchina sa pensare come un uomo, ammesso che quella strada esista in assoluto. Alan Turing lasciò infatti una predizione pessimistica in questo senso, nelle seguenti lapidarie parole: “La questione se le macchine possono pensare è talmente insignificante da neppure meritare una discussione”. I fatti gli stanno dando pienamente ragione a 60 anni di distanza e dopo salti tecnologici giganteschi: la Superintelligence non solo non c’è, ma si allontana sempre di più.

Considerate le seguenti cose, solo quattro punti per far capire, perché davvero dobbiamo sterilizzare il campo dalle fantasie degli esaltati sulla AI, pena il perdere uno dei più importanti treni politici ed economici della Storia, che è la vera AI:

  1. A) Nella Image Recognition, una branca della AI, ancora oggi per ottenere da una macchina ciò che il nostro cervello fa in una frazione di secondo occorrono sforzi tech immensi. Immaginate un numero 9 scribacchiato male: l’occhio e cervello umani dopo pochi istanti, senza alcuno sforzo, sanno capire se si tratta davvero di un 9 o di una g, o di disegni infantili di un girino o di un palloncino attaccato al filo, ecc. Per far sì che un computer arrivi a questo misero risultato, il lavoro di software e di artificial neural networking che gli va insegnato è estenuante. Da qui immaginate cose come la contemplazione di un affresco, e la miriade di stimoli che un cervello umano ne riceve, che vengono capiti all’istante, e che sa poi riprodurre in ogni campo cognitivo in pochi secondi per, infine, produrre azioni di ogni sorta; e di nuovo immaginate cosa ci vorrà per attrezzare un computer ad avere quelle stesse capacità se un 9 scribacchiato male richiede oggi sforzi di decine di ricercatori per farglielo azzeccare.
  2. B) Si fa un gran parlare in AI degli Artificial Neural Networks, cioè imitazioni delle strutture neuronali del nostro cervello messe dentro i computers per renderli più ‘intelligenti’. Sono tecnicamente fondamentali, ma anche qui la realtà è disarmante. Il cervello umano ha 85 miliardi di neuroni interconnessi, e nessuno al mondo oggi sa davvero come funziona neppure un singolo neurone. Alla New York University il luminare delle neuroscienze Rodolfo Llinas ha tentato per anni di capire come agisce il mega neurone del calamaro gigante, cioè come fa ad esempio a fagli distinguere un capodoglio da una roccia, ma è ancora… in alto mare. Perciò quando nella fantasia popolare si parla di AI o di Artificial Neural Networks come se fossimo a un passo dal trovare cervelli umani artificiali perfettamente riprodotti che ci faranno psicoterapia in un ‘Apple consultorio’, o che svolgeranno indagini di polizia, si parla di stupidaggini.
  3. C) Un altro trofeo del nuovo mondo in AI sono i sistemi di navigazione che tutti usiamo in auto e quelli ancor più sofisticati in arrivo per il futuro Driverless di auto, camion, aerei, drones ecc. Cose strabilianti senza dubbio, ma se si parla di esse come fosse intelligenza si va sul ridicolo. Il cervello umano racchiude in pochi cm quadrati delle capacità computazionali simultanee nella gestione dello spazio-tempo e nella sua valutazione cognitiva che nessun computer neppure lontanamente oggi sa riprodurre. Le api hanno appena 800.000 neuroni in un cervello grande come la capocchia di uno spillo, ma posseggono sistemi di navigazione talmente sofisticati che, per riprodurli, a noi occorrono computer giganteschi con l’appoggio di enormi strutture sia terrestri che nello spazio. Anche questo vi dà il senso della distanza fra macchine ‘intelligenti’ e natura davvero intelligente.
  4. D) Hanno fatto molta impressione sul pubblico le notizie delle prodezze di AI come Deep Blue e AlphaGo, cioè dei set d’istruzioni ‘pensanti’ dentro una macchina che hanno sconfitto giocatori-geni umani. Da lì molti hanno immaginato che eravamo a un passo dalla AGI detta Superintelligence, ma assolutamente no. Ciò che non viene fatto capire al pubblico è l’infinita differenza che c’è fra un cervello che impara senza alcuna istruzione su come imparare (l’umano), e un cervello che invece prima di imparare deve essere fornito da un esterno delle istruzioni su come imparare (la AI). Per essere chiari: un infante di 2 anni apprende un codice immensamente complesso come quello del linguaggio e dei suoi contenuti di coscienza senza che nessuno gli infili nel cranio un software su come apprendere linguaggio e coscienza. Invece un’AI prima di imparare il linguaggio e i suoi contenuti dovrà sempre dipendere dall’intelligenza umana che gli sappia ficcare dentro istruzioni sempre più complesse su come E’ vero che si parla di macchine avanzatissime che oggi apprendono alcune cose da sé, tuttavia all’inizio della catena c’è d’obbligo la discrezionalità delle istruzioni umane su come apprendere, cosa che nella biologia umana non accade, noi nasciamo già completi. Ma soprattutto un altro punto.

Come faranno gli scienziati ad arrivare a riprodurre in una macchina i meandri dell’intelligenza se neppure ancora sanno minimamente come questi funzionino in un encefalo biologico? Davvero la Agi con Superintelligence sono ancora fantasie.

E quindi non è un caso che dopo 60 anni dal genio di Alan Turing arrivi proprio oggi una botta di mesto realismo sulla testa della cosiddetta AI Community. Si parla sempre più fra i top esperti di un ‘inverno’ che sta calando sulla AI. Quello che è oggi considerato il Pitagora della AI, Yann LeCun, era stato assunto da Facebook come Guru supremo della loro AI nella speranza di avvicinarsi alla Superintelligence, ma oggi LeCun si sta defilando da Zuckerberg, e sta più nell’ombra.

Tutto questo per dare ai lettori un quadro informato e realistico di cosa davvero s’intende oggi per Artificial Intelligence, quando tutti sparlano di AI come macchine che schiavizzeranno il mondo e di scenari futuri da Isaac Asimov. Non fatevi impressionare dal fatto che Silicon Valley di tanto in tanto riunisca i massimi cervelli in dibattiti sull’etica delle future macchine ‘intelligenti’. DeepMind, che è il centro d’eccellenza sull’AI del colosso Google-Alphabet a Londra, ha lanciato Ethics&Society come laboratorio permanente di studio sulla moralità e sui benefici umani di queste tecnologie. Ma tutto ciò non significa affatto che dietro l’angolo davvero c’è il Terminatorpronto a comparire a schermi unificati nel Pianeta per annunciare la fine dalla razza umana. La discussione sull’uso delle tecnologie e sul loro impatto sull’umanità è, come dire, un contorno che sempre viene servito col piatto principale, e questo fin dall’invenzione della dinamite. Il fatto che le supertech possano finire in networks di controllo politico e di repressione di massa, o addirittura essere usate nelle armi di sterminio della specie, è del tutto vero, ma come sempre sarà la mano dell’uomo a decretarlo, non una Superintelligence che un mattino si sveglia a pigia i bottoni (per i Nerds: tech singularity is a joke, checché ne dica Elon Musk e altri infatuati come Ray Kurzweil).

Spero che siate arrivati fin qua. Ora la parte cruciale invece, perché rimane assolutamente vero che la AI come strumento di gestione comandato dall’uomo nella vita moderna e in ogni campo conosciuto – quindi dalla politica alla Medicina, dalle comunicazioni all’industria, dai servizi alla finanza, dall’istruzione al mondo del lavoro – sia oggi la più grande rivoluzione nelle nostre vite dopo l’arrivo dei computer, ma molto più dirompente, per cui nessuno la deve ignorare, pena rimanere esclusi in una vita da analfabeti ottocenteschi.

Quindi per completare il quadro generale di cosa sia la realistica AI e di come appunto cambierà quasi tutto, vanno descritti i tre pilastri che la compongono e di cui già si sente parlare, ad esempio, nelle offerte lavorative, nella innovation aziendale, e nelle infrastrutture nazionali: MACHINE LEARNING, DEEP LEARNING e gli ARTIFICIAL NEURAL NETWORKS.

MACHINE LEARNING.

Nasce attorno ai primi anni ’80 e la grande innovazione che porta è di sostituire i codici di software scritti a mano dai programmatori con un altro tipo d’istruzioni per i computers affinché… imparino da soli. L’idea fu che se una macchina, invece di dipendere al 100% dal software umano per sapere come svolgere un compito, fosse riuscita a usare il suo enorme potere di calcolo per apprendere, migliorare il proprio giudizio e poi completare quel compito, ovviamente i risultati sarebbero stati mille volte maggiori. Quindi invece di mettere un tradizionale software nel computer (Machine), i tecnici gli permettono d’imparare (Learning) ficcandogli dentro enormi quantità di dati e di algoritmi che appunto gli permettono d’imparare da solo come svolgere quel compito. Cosa accade in pratica dentro al cervello della macchina? Accade che gli algoritmi, che sono in sé istruzioni, studiano la massa dei dati in arrivo, ne traggono insegnamenti, selezionano ciò che è più funzionale, e poi offrono all’uomo un compito finito o una decisione su come fare qualcosa o la previsione di qualcosa.

mighty-ai2Per dare un esempio si consideri l’applicazione oggi più famosa di Machine Learning, che è la computer vision che sarà applicata ai mezzi di trasporto senza autista (Driverless). Il computer usa Machine Learning per dare un senso a oggetti e forme che si trova davanti e per svolgere un compito. Come detto sopra, il suo ‘occhio’ riceve dai tecnici immense quantità di dati su quegli oggetti e forme, impara a distinguerli usando i suoi algoritmi, e di conseguenza svolgerà poi il compito di guidare un’auto in mezzo a essi riconoscendoli e interpretandoli. Non fu facile per i ricercatori all’inizio: prendete un pedone. Prima che Machine Learning sapesse riconoscerlo ed evitarlo, dovette innanzi tutto imparare il concetto di dove inizia la sua forma e dove finisce, ci volle un lavoro computazionale incredibile. Eh sì, sembra assurdo, perché per noi l’idea di dove inizia e dove finisce una figura è scontata, ma non per un computer, che deve imparare anche quello fra miliardi di altre banalissime cose. Ma la velocità dei processori oggi è tale per cui i progressi di Machine Learning sono stati stupefacenti, ed è già in uso in una miriade di applicazioni industriali, aziendali e tecnologiche, la più importante delle quali è nella Medicina diagnostica. Grazie a Machine Learning, un computer sa ‘vedere’ milioni d’immagini nelle lastre, sa razionalizzarle, sa imparare cosa è cosa, e poi usa questo suo sapere su una determinata lastra per trovare ciò che l’occhio del medico potrebbe non aver visto.

DEEP LEARNING & ARTIFICIAL NEURAL NETWORKS.

Sono i gemelli che sempre sentite nominare quando si parla di AI e di Machine Learning. Sono in pratica lo stesso concetto di Machine Learning ma ancor più sofisticato e molto più potente nel funzionamento. Partiamo dai secondi.

Come dice il nome, Artificial Neural Networks, essi sono la riproduzione (assolutamente rudimentale oggi) del sistema dei neuroni del cervello umano ma dentro un computer. In altre parole: non più i codici software, ma una simil-biologia umana per far funzionare le macchine ‘pensanti’. Anche qui l’idea ha circa 50 anni, ma solo di recente è decollata. I ricercatori fanno strati di neuroni artificiali – attenti: non sono micro cosine di plastica e rame, ma algoritmi – che si connettono fra di loro. Queste connessioni, sia chiaro, non sono neppure lontanamente ramificate e capaci come quelle biologiche, poiché sono costrette entro un ristretto numero di possibilità. Ora, per capire cosa succede in un Artificial Neural Network e a cosa serve, passiamo a un esempio diretto.

Il computer dovrà imparare a riconoscere all’istante un volto di un cliente e ciò che egli ha nel cestino delle compere, per abbinare sia il volto che le compere al suo conto corrente mentre se ne esce con la spesa da uno smart-shop, senza più passare per nessuna cassa né estrarre il portafoglio (gli smart-shop sono già realtà). Ecco come i tecnici di Machine Learning fanno sì che un Artificial Neural Networkimpari da solo a svolgere questo compito. Iniziamo dal riconoscimento del volto: l’immagine viene scomposta in blocchi che arrivano al primo strato di neuroni artificiali. Questi valutano emettendo un giudizio chiamato weighting (soppesare), poi il tutto passa al secondo strato che fa la stessa cosa, e così via fino alla fine, dove tutti i weighting messi assieme arrivano a una conclusione ‘pensata’. Cioè: la forma ovaleggiante dell’immagine (cranio-mascella); il fatto che ha due palle colorate parallele (occhi); che ha attorno qualcosa di colorato (capelli); ci sono altre cose bilaterali (narici, orecchie); si muove (muscoli facciali), ecc., tutto questo viene soppesato dai vari strati di Artificial Neural Networks e alla fine la macchina arriva a una conclusione: è un volto.

Dovete immaginare che questa ‘scuola’ viene ripetuta dal computer milioni di volte, e che esso è sottoposto a un bombardamento di milioni di dati tipici dei volti, fino ad arrivare a una velocità istantanea di riconoscimento di un volto. Un Artificial Neural Networkgià esperto in questo abbina poi quella faccia con precisione perché la trova all’istante fra tutti i volti precedentemente caricati, ad esempio, da una banca, e questo serve poi a completare il compito specifico che era appunto il riconoscimento per addebitare il conto corrente relativo. Vi basta ora replicare questa strepitosa capacità in mille altri campi operativi, industriali, sociali, infrastrutturali, per comprendere perché oggi Machine Learning e Artificial Neural Networks sono sulla bocca di tutti.

Se avete capito fin qui, e mi sono spellato il cervello per essere chiaro, allora è facile capire cosa significhi Deep Learning. Non è altro che l’amplificazione della tecnica sopra descritta negli Artificial Neural Networks su scala sempre maggiore e affidando ai computers algoritmi sempre più sofisticati. Fu l’idea dello scienziato Andrew Ng (Baidu), che comprese che per sveltire l’apprendimento delle macchine ‘intelligenti’ – ma soprattutto per permettere loro apprendimenti sempre più astratti, e quindi vicini a quelli del cervello umano – le si doveva dotare di Artificial Neural Networks giganti e le si doveva sottoporre a dosi colossali di dati. Fu proprio Andrew Ng che ingozzando un computer con 10 milioni di video permise al suo Artificial Neural Network di imparare per la prima volta a riconoscere un gatto. Replicare questo metodo per permettere alle macchine di imparare a ‘pensare’ sempre di più e quindi a svolgere compiti sempre più complessi, è di fatto il Deep Learning.

SARA’ DAPPERTUTTO. ADESSO LA CONOSCETE. GIOVANI, COSA FARE.

Ci sono due categorie d’italiani per cui quanto sopra è essenziale, ma in due modi radicalmente diversi: gli adulti e i giovani. Per gli adulti conoscere l’AI, e più in generale la travolgente rivoluzione globale delle nuove tecnologie chiamata Disruption, ha un valore politico imprescindibile. Per i giovani, cioè dai bambini ai ragazzi, si tratta di capire che chi rimane fuori almeno dalla comprensione di base dall’AI e dalla Disruption è oggi identico all’incolpevole italiano che negli anni ’50 non sapeva ancora leggere e scrivere, e mestamente da escluso sociale guardava le lezioni del Maestro Manzi a “Non è mai troppo tardi” alla RAI in bianco e nero, mentre tutti gli altri partecipavano al grande boom economico del dopoguerra con lavori, sicurezza sociale, e un futuro per i figli.

Per capire il valore politico dell’AI non ci vuole un genio. Queste tecnologie hanno un potere di analisi dei dati sconfinato. Oggi l’adesione a Internet di quasi tutti i cittadini, o anche solo il possesso di un cellulare, significa che coloro che gestiscono il digitale ci carpiscono lecitamente (quindi non Cambridge Analytica o la NSA) milioni di dati al giorno su: cosa facciamo o dove siamo, e quando; cosa diciamo o cosa leggiamo di politicamente rilevante; cosa compriamo, e quanto; lo scontento e il malumore sociale, di chi e dove; e moltissimo altro. Fino a pochissimo tempo fa quella mole cosmica di dati era usata dalle classi dirigenti, fa cui i politici, neppure all’1% perché non esisteva la tecnologia per analizzarli tutti e trarne conclusioni utili. Oggi invece l’AI di Machine Learning e del Data Mining ha spazzato via i sondaggisti come le calcolatrici spazzarono via il pallottoliere, e permette a classi dirigenti e politici un potere di predizione e quindi di manipolazione del consenso inimmaginabili. L’essenza stessa dei maggiori partiti esteri è cambiata: l’AI è il primo strumento di cui si sono dotati, e come sempre l’Italia li imiterà. Non capire oggi il nesso fra politica e AI è esattamente come chi negli anni ‘50 si fosse rifiutato di capire il nesso fra l’arrivo della Tv e la politica.

Nell’economia nazionale, che sono i nostri lavori, redditi, pensioni, alloggi, salute, l’arrivo dell’AI significa una cosa semplice: amplificare il potere di tutto. Questo perché qualsiasi sviluppo dirompente che oggi si applica nell’istruzione, nell’agricoltura, nella finanza, nella sanità, nei trasporti, nelle infrastrutture, nell’industria, nell’azienda, sarebbe rimasto uno scatolone vuoto senza una tecnologia che ne sapesse analizzare e capire la cosmica quantità di nuovi dati, per poi suggerire innovazioni. L’AI esiste proprio per questo, e cambierà tutto.

Per i vostri figli piccoli, e per i ragazzi, posso solo ripetere ciò che ho già scritto tante volte. L’AI e la Disruption delle nuove tecnologie sta, in queste ore, ridipingendo il mondo del lavoro come mai nella storia umana. Ne ho già trattato lungamente. Uno può scalciare, può illudersi, e negare la realtà, faccia pure, sarà solo un perdente, come il povero italiano analfabeta che vagava le strade del boom economico del dopoguerra. Seguite il mio consiglio: leggete i pochissimi autori come me che vi stanno raccontando ‘live’, giorno dopo giorno, cosa succede a Disruption & Work e quali capacità (gli Skills) è oggi prioritario acquisire nell’era della Disruption. Ma, genitori dei piccoli e ragazzi adolescenti, io mi spingo ancora oltre: leggeteci, e poi confrontatevi con gli insegnanti, e se li troverete scettici o addirittura impreparati su questi temi fate manifestazioni per pretendere che vi tutelino con gli aggiornamenti, in particolare, ripeto, su Disruption & Work. Perché quando uno dei Signori del mondo di oggi, Google-Alphabet, scrive sulla home la frase che conclude questo paragrafo, un giovane deve schizzare sulla sedia come la dinamite se davvero sogna un lavoro dignitoso, una vita da persona libera: “Il 65% degli studenti di oggi lavoreranno in lavori che neppure ancora esistono”.

Ora sapete tutti almeno le basi, solide e informate, su cosa sai l’Artificial Intelligence, e perché non conoscerla non è più un optional. Ora fate la vostra parte e divulgate questo articolo.

(le immagini sono dei rispettivi proprietari)