Lavoro, Tecnologia

In attesa dei robot, ecco dove la tecnologia ha cambiato il lavoro

Non saranno solo i robot a cambiare il mondo del lavoro. I numeri dicono che il lavoro sta già cambiando oggi. E che queste modifiche sono legate a tecnologie decisamente più “semplici”. Basta l’introduzione di un nuovo software o di un nuovo device in azienda e le mansioni dei dipendenti cambiano. Lo scorso anno, in Europa, è successo ad un lavoratore su sei.

Lo afferma Eurostat, secondo la quale nel 2018 il 16% dei lavoratori dipendenti che utilizzano una connessione ad Internet hanno visto modificarsi il proprio mansionario grazie all’introduzione di un nuovo software o di una nuova apparecchiatura.

Come si nota dalla mappa, questa tendenza è più marcata nei Paesi del nord Europa e si riduce via via che ci si sposta verso sud est. La nazione in cui sono meno i lavoratori che hanno visto il proprio lavoro cambiare è Cipro, dove solo il 3% dei dipendenti che utilizzano la rete professionalmente ha svolto la propria attività in maniera diversa rispetto al passato. Mentre in Norvegia questo cambiamento lo ha vissuto il 29% dei lavoratori connessi, quasi uno su tre.

E l’Italia? Il nostro Paese si trova leggermente al di sotto della media europea. Qui infatti il 12% dei dipendenti che utilizzano Internet hanno visto cambiare la propria attività lavorativa dopo l’introduzione in azienda di un nuovo programma o di un nuovo apparecchio. La stessa percentuale si è registrata anche in Belgio, Repubblica Ceca, Lituania e Slovacchia. Tutte realtà che per molti altri aspetti sono diverse tra loro. Ad esempio, sono diverse per la percentuale di lavoratori dipendenti che utilizzano computer o apparecchi computerizzati. Ecco cosa succede tenendo conto anche di questo parametro:

Screenshot 2019-02-06_09-52-25-161.png

In estrema sintesi, i dati sembrano suggerire che l’impatto sia stato più significativo in Slovacchia, dove è minore la quota di dipendenti che utilizzano strumentazioni digitali. E minore in Belgio, dove l’80% dei lavoratori ne fa uso. Ma, in entrambi i casi, solo il 12% ha vissuto delle modifiche al proprio mansionario. L’Italia, con un 73% di dipendenti che utilizza computer, è decisamente più vicina al caso belga che a quello slovacco.

Per capire meglio, si guardi ai casi di Portogallo e Irlanda, che hanno un 72% di dipendenti che utilizzano il digitale. Qui rispettivamente il 21 ed il 20% ha dichiarato che lo scorso anno il proprio mansionario è cambiato grazie ad un nuovo software o ad un nuovo device. Da sottolineare, infine, il caso del Kosovo: qui appena il 28% dei lavoratori utilizza il digitale, ma il 14% ha affermato di aver vissuto un cambiamento nella propria professione. Perché anche se i robot non sono ancora arrivati, il mondo del lavoro ha già iniziato la metamorfosi.

 

Fonte: ilsole24ore.com (qui)

Elites vs Popoli, Regimi totalitari, Tecnologia

Social Credit System: i big-data per controllare i cittadini in Cina. Come la tecnologia può aiutare i sistemi totalitari.

Il Social Credit System (SCS) dovrebbe essere uno strumento indipendente, organizzato in modo distribuito sul modello della blockchain, ma come ogni opportunità che le nuove tecnologie presentano, vi sono sempre delle elite che colgono l’occasione per garantirsi la soppravivenza. L’SCS, annunciato nel 2014 dal Consiglio di Stato cinese e prossimo all’utilizzo nel 2020, sarà uno strumento di controllo dei cittadini della Repubblica popolare cinese. Uno strumento al servizio dello Stato e del Partito comunista che senza abbandonare la propria dottrina sarà in grado di attuare il Comunismo 4.0. Una nuova dimensione della rivoluzione ubbidienza al Partito in cambio di benefici ed agevolazioni economiche. Un voto di scambio permanente, da un lato l’elite che vuole conservare se stessa e dall’altra i cittadini sottomessi che privandosi della propria identità libera accettano in cambio di una valutazione di affidabilità di comportarsi come vuole il Partito. In tale modo il Partito assicura al cittadino-compagno l’accesso agevolato ai servizi che il sistema economico “capitalista” offre. Uno strumento formidabile per ammaestrare questi cittadini-consumatori. Meno ci scandalizza se tale pratica è adottata da Amazon, o Google o altra multinazionale. Abituati a questo marketing, anche se lentamente ci rendono mansueti al Social Credit System. Uno strumento più utile alle dittature che alle democrazie funzionanti perchè semplicemente. Dimenticavo non siamo in una democrazia funzionante. E allora buon Social Credit System.

Immaginiamo una realtà in cui ogni nostra attività quotidiana è costantemente monitorata e valutata: dove siamo, cosa facciamo, con chi siamo, cosa copriamo, quante ore passiamo davanti al computer o alla tv, quando e quanto paghiamo le bollette, cosa facciamo sui social.

Se non ci risulta molto difficile da immaginare, è perché questo, in parte, sta già accadendo ogni volta che cediamo volontariamente e gratuitamente i nostri dati ai giganti del web come Google, Amazon, Facebook, Instagram, Twitter, Snapchat. Infatti, utilizzando social network, telefono, pagamenti online e carte di credito forniamo una grandissima quantità di informazioni che vanno dai dati personali (nome, cognome, indirizzo, mail, numero di telefono) alle preferenze di acquisto, interessi, hobby e gusti. Queste informazioni vengono analizzate e rielaborate in algoritmi per poi divenire quei fastidiosi banner pubblicitari personalizzati che vediamo sulla nostra home di Facebook.

Ma non solo. Gli algoritmi potrebbero rivelare molto più di quello che vogliamo.

Immaginiamo che sia lo Stato ad utilizzare questi algoritmi al fine di valutare i cittadini in positivo o in negativo, raggruppando le valutazioni in un unico numero, un punteggio o “trust score” utile a valutare se un cittadino è degno o no di fiducia. Un punteggio pubblico che sarà utilizzato per decidere in che misura un cittadino è adatto per un lavoro, può permettersi una casa, ha possibilità di trovare un partner…

Di questo tratta il “Progetto di pianificazione per la costruzione di un sistema di credito sociale”, un documento politico che conteneva un’idea tanto innovativa quanto distopica, reso pubblico dal Consiglio di Stato Cinese nel giugno 2014.

Il Progetto, dal nome “Social Credit System” consiste nel monitorare tutti i cittadini sul territorio, circa 1,3 miliardi di persone, in base alle loro attività online. Il Sistema è già funzionante, sebbene per ora la partecipazione dei cittadini sia volontaria, sarà resa obbligatoria a tutti a partire dal 2020.

810

Postare opinioni politiche dissenzienti o parlare dei fatti di piazza Tiananmen, si sa, non è mai stata una buona idea in Cina, ma presto compiere un’azione del genere potrebbe danneggiare i cittadini abbassando i loro trust scores, con la conseguente limitazione dei diritti: ai cittadini con punteggi bassi non sarà permesso ottenere alcuni lavori, chiedere prestiti in banca o semplicemente noleggiare un auto o entrare in un locale.

Un mix tra 1984 e un episodio di Black Mirror, così è stato definito questo folle progetto dai media internazionali. Per il Governo Cinese, invece, è solo un altro dei tanti modi per influenzare il comportamento dei cittadini a vantaggio di una società che deve essere in linea con l’ideologia del Partito e che cerca costantemente l’instaurazione perfetta del regime totalitario.

Il “Social Credit System” non è, infatti, il primo tentativo del Governo cinese di controllare i suoi cittadini. Al contrario, la Cina vanta una lunga storia di sorveglianza sul suo territorio quando già più di mezzo secolo fa il Partito Comunista Cinese era in possesso dei “dang’an“, file segreti sui cittadini accusati di essere dissidenti.

La logica di base è la stessa del Social Credit System, ovvero il controllo totale, con la sola differenza che la sorveglianza è digitalizzata, più semplice, precisa e veloce.

big-brother-is-watching-you-1984-george-orwell

Riflettendo su quest’idea futuristica e agghiacciante, non può che venirmi in mente la riflessione che Bauman fa nel libro “Sesto potere”: gli individui della società moderna rinunciano alla privacy considerandola un prezzo ragionevole in cambio di ciò che viene offerto dalla società dei consumi. Accecati dalla promessa di poter essere visibili e notati da tutti, abbiamo dimenticato di essere sorvegliati, cadendo in uno stato di “servitù volontaria” in cui collaboriamo quasi entusiasticamente alla nostra sorveglianza elettronica/digitale.

Fonte: Compass Unibo Blog (qui)

Economia, Sovranità monetaria

FT: «Ha ragione la MMT»

E’ dal 2010 che sostengo la teoria MMT. Ho conosciuto Mosler nel giugno 2013 ad un convegno organizzato a Cantù (qui), ma ancor prima il tenace Paolo Barnard che per altro invitammo a Montichiari nel novembre 2013 proprio per un incontro sull’euroschiavitù. In questi giorni è arrivata la conferma di quanto già sosteniamo da quasi dieci anni.

Buona lettura.

Un articolo uscito ieri [17 gennaio 2019] sul blog Alphaville del Financial Times sdogana definitivamente e senza mezzi termini la teoria monetaria moderna (#MMT). Anche su questo, insomma, avevamo ragione noi:

«Non c’è nulla di intrinsecamente socialista per ciò che riguarda il debito pubblico. Un governo può emettere debito per pagare qualunque cosa gli piaccia: per combattere una guerra, per abbassare le tasse, per attutire gli effetti di una recessione. Gli Stati Uniti, per esempio, hanno sempre emesso debito per pagare per queste cose. I politici dicono che il debito pubblico spiazza gli investimenti privati, che è insostenibile e trasformerà il paese che ne fa uso nell’Argentina, nella Grecia o nel Venezuela. Ma indipendentemente da ciò che dicono, i politici americani finiscono sempre per fare ricorso al debito.

I sostenitori della moderna teoria monetaria sostengono che, per un paese sovrano che dispone della propria valuta, non esiste un livello intrinsecamente insostenibile di debito pubblico, sarebbe a dire che non esiste un livello oltre il quale il paese inizia crollare, che sia il 90 per cento o il 200 per cento del PIL. In qualunque momento il governo può appropriarsi delle risorse che ritiene necessarie per finanziare le sue politiche domestiche, indipendentemente dalle entrate.

Un tradizionalista considererebbe tale politica intrinsecamente inflazionistica, sostenendo che, come per qualunque altra merce, aumentare l’offerta di denaro ne riduce il valore. I sostenitori della teoria monetaria moderna sostengono invece che l’inflazione si verifica solo quando l’economia reale – gli impianti, le macchine, i lavoratori – non sono più in grado di assorbire la spesa del governo. Di conseguenza, la spesa va disaccoppiata dalla tassazione. Un governo può spendere finché non sono impiegate tutte le risorse reali di una economia e ricorrere alle tasse solo per raffreddare l’inflazione, una volta che l’economia raggiunge il suo massimo potenziale.

Noi di FT Alphavile riteniamo che [la teoria monetaria moderna] non sia né marxista, né bislacca. È semplicemente un modo diverso di guardare alla politica fiscale, un modo per descrivere i vincoli reali alla spesa pubblica. A ben vedere, il modo in cui la MMT guarda alla spesa pubblica è molto vicino a come i politici di Washington guardano alla spesa pubblica. Attenzione: non stiamo parlando di ciò che dicono, ma di quello che fanno.

Il Congresso degli Stati Uniti spende regolarmente in deficit per le cose che ritiene importanti. Negli ultimi quarant’anni, ha coperto la propria spesa con le tasse solo per un breve periodo, alla fine degli anni Novanta. … Esattamente come sostiene la teoria monetaria moderna, il Congresso spende finché le risorse reali non scarseggiano [cioè finché non viene raggiunto il limite oltre il quale si genererebbe inflazione]. Quel limite non è mai stato raggiunto negli ultimi due decenni.

Quando Washington vuole qualcosa – combattere una guerra, tagliare le tasse – autorizza la spesa necessaria e basta, senza preoccuparsi delle entrate. Dunque le discussioni sulla necessità di pareggiare il bilancio non riguardano i vincoli finanziari ma le priorità. I programmi ritenuti importanti vengono finanziati, sempre e comunque. I programmi che non sono ritenuti importanti devono essere finanziati con le tasse. Quando qualcuno a Washington dice: «Non possiamo permettercelo» in realtà intende «Non penso che sia importante».

In altre parole, [i politici americani] già seguono le prescrizioni della teoria monetaria moderna, anche se non lo ammettono».

Definitivo direi.

Fonte: lantidiplomatico.it (qui) Articolo di Thomas Fazi

Fonte: FT.com (qui)

Economia, Esteri, Lavoro, Tecnocrazia, Tecnologia

Se il lavoro arriva dall’algoritmo

In Austria un software calcolerà la probabilità di un disoccupato di trovare un impiego e stabilirà quali oferte proporgli. Molti temono discriminazioni verso le donne e gli stranieri.

In Austria farà presto parte della quoti- dianità un sistema che valuta i disoccupati e li divide in gruppi. L’Arbeits- marktservice (Ams), l’agenzia governativa del lavoro, userà un algoritmo per calcolare la probabilità che un disoccupato trovi un lavoro. Molti, però, temono che il software possa discriminare le donne, gli anziani e gli stranieri. Il programma funzio- na grazie alla combinazione di diversi dati personali, tra cui informazioni sul livello d’istruzione e sulle esperienze lavorative, ma contano anche l’età, il genere e la citta- dinanza. Quando qualcuno cerca un lavoro, l’algoritmo calcola la sua probabilità di suc- cesso, fornendo una percentuale. In seguito, sulla base di questo valore, il programma divide le persone in tre gruppi: chi ottiene dal 66 per cento in su è inserito in una fascia “alta”, che ha buone opportunità; chi ha un valore inferiore al 25 per cento inisce nella fascia “bassa”; tutti gli altri entrano nella fascia “media”. In un documento dell’Ams si possono leggere le caratteristiche che l’algoritmo giudica negative o positive. Le donne e le persone più anziane, per esempio, hanno un indice negativo. Su questo punto sono scoppiate le critiche più accese. L’obiettivo principale del programma è aumentare l’eicienza dell’Ams. Ma valutare un genere, una certa età o la provenienza come potenziali svantaggi per la ricerca di un lavoro non signiica discriminare?

Secondo Johannes Kopf, presidente dell’Ams, il sistema mostra solo le discriminazioni che esistono già nel mercato del lavoro. Se si ignorassero queste realtà, sarebbe, per esempio, impossibile assicurare alle donne il sostegno necessario. L’Ams è obbligato a spendere il 50 per cento delle sue risorse in misure di sostegno alle donne, anche se nel 2017 erano donne solo il 43,3 per cento delle persone in cerca di lavoro. “Un fedele quadro della realtà non può essere discriminatorio”, conclude Kopf.

Carla Hustedt, che dirige il progetto Eti- ca degli algoritmi per la fondazione Bertelsmann, non la pensa così. Partire da alcuni dati per arrivare a precise conclusioni può essere un problema, “perché così non si fa che riprodurre i pregiudizi esistenti”. Amazon ha eliminato un algoritmo per la selezione delle candidature perché pena- lizzava sistematicamente le donne: dai dati usati come base di calcolo, in parte vecchi di dieci anni, emergeva che i candidati con più probabilità di successo erano gli uomi- ni. Un fenomeno difuso nel settore tecno- logico, che “bisogna riconoscere e combat- tere con misure adeguate”, dice Hustedt.

Fattore vincolante

Kopf è convinto che l’Ams sia pronto ad af- frontare questo tipo di problemi. I suoi dipendenti cominceranno a usare il program- ma dal 15 novembre. Disporranno della percentuale di successo di ogni disoccupato e conosceranno i fattori che l’hanno in- luenzata, ma inizialmente la useranno solo per discutere con chi cerca lavoro. Dal 2020, invece, la probabilità di successo sarà un fattore vincolante e determinante nella va- lutazione dei disoccupati, anche se la scelta delle misure adatte sarà sempre presa da un consulente in carne e ossa, assicurano all’Ams.

Dal 2020, inoltre, a chi fa parte della fa- scia bassa saranno oferti corsi di formazio- ne meno complessi e intensivi. In pratica, chi ha meno opportunità riceverà di meno: tutto nel nome dell’eicienza. La spiegazio- ne di Kopf è che i corsi di formazione spe- cialistici sono cari e spesso i partecipanti abbandonano prima della ine, quindi quei soldi potrebbero essere usati meglio. Pro- prio tra le persone di fascia bassa i corsi base hanno più successo e, dato che costano me- no, possono essere frequentati da più candidati, dice Kopf.

Il problema non è il software in sé, os- serva Hustedt: “La responsabilità è scari- cata tutta sull’algoritmo, ma la questione di chi debba ricevere più aiuto in una società solidale e politica”. Invece il dibattito è sostituito dall’algoritmo, “visto da alcuni come il male assoluto e da altri come una benedizione”. Bisognerebbe parlare delle sfumature. Kopf promette proprio di fare questo: il software dovrà essere controllato e migliorato costantemente. Saranno valUtati i posti di lavoro assegnati e il successo delle misure adottate, ma anche come si comportano i dipendenti dell’Ams con l’al- goritmo. “Faremo in modo che i nostri consulenti non attribuiscano un valore ec- cessivo alla probabilità di successo”, conclude.

Fonte: Valentin Dornis, Süddeutsche Zeitung, Germania

Imprese, Innovazione, Intelligenza artificiale

Robot e lavoro in Italia: le aziende dicono sì all’intelligenza artificiale

Per l’89% delle aziende i robot e l’intelligenza artificiale non potranno mai sostituire del tutto il lavoro delle persone e hanno un impatto migliorativo del lavoro.

Il 61% delle aziende italiane è pronto ad introdurre sistemi di intelligenza artificiale e robot nelle proprie organizzazioni. Solo l’11% si dichiara totalmente contrario. Tra le ragioni principali che spingo le aziende favorevoli ad introdurre tali sistemi la convinzione che il loro utilizzo rende il lavoro delle persone meno faticoso e più sicuro (93%), fa aumentare l’efficienza e la produttività (90%) e ha portato a scoperte e risultati un tempo impensabili (85%). Questi alcuni dei dati di fondo emersi dal Primo Rapporto AIDP-LABLAW 2018 a cura di DOXA su Robot, Intelligenza artificiale e lavoro in Italia, che verrà presentato a Roma domani 23 ottobre 2018 presso il CNEL.

Le aziende e i manager sono convinti a stragrande maggioranza (89%) che i robot e l’IA non potranno mai sostituire del tutto il lavoro delle persone e che avranno un impatto positivo sul mondo del lavoro e delle aziende: permetterà, infatti, di creare ruoli, funzioni, e posizioni lavorative che prima non c’erano (77%); stimolerà lo sviluppo di nuove competenze e professionalità (77%); consentirà alle persone di lavorare meno e meglio (76%). Avrà un impatto molto forte nei lavori a più basso contenuto professionale: favorirà, infatti, la sostituzione dei lavori manuali con attività di concetto (per l’81% del campione). I manager e gli imprenditori ritengono, infatti, che al di là dei benefici in termini organizzativi, l’introduzione di queste tecnologie, potrà avere effetti negativi sull’occupazione e l’esclusione dal mercato del lavoro di chi è meno scolarizzato e qualificato. In quest’ottica va letto il dato negativo sulle conseguenze in termini di perdita di posti di lavoro indicata dal 75% dei rispondenti.

Un dato di grande interesse riguarda le modalità con cui i sistemi di intelligenza artificiale e robot si sono «integrati» in azienda. Per il 56% delle aziende l’impiego di queste tecnologie è stato a supporto delle persone, a riprova che queste sono da considerarsi principalmente un’estensione delle attività umane e non una loro sostituzione. Per il 33%, inoltre, tali sistemi sono stati impiegati per svolgere attività nuove mai realizzate in precedenza. Per il 42% delle aziende, invece, l’IA e i robot hanno sostituito mansioni prima svolte da dipendenti. Questi dati confermano la rivoluzione in atto nelle organizzazioni del lavoro e nelle attività di guida di tali processi che i direttori del personale saranno chiamati a svolgere ed è questa una delle ragioni principali che ha spinto l’AIDP ad investire nella realizzazione annuale di un rapporto che fornisca dati e informazione utili a capire meglio il futuro del lavoro nell’era dei robot e dell’intelligenza artificiale.

In generale l’intelligenza artificiale e i robot migliorano molti aspetti intrinseci del lavoro dipendente perché hanno favorito una maggiore flessibilità dell’orario di lavoro in entrata e in uscita (38%); la riorganizzazione degli spazi di lavoro/uffici (35%); la promozione di servizi di benessere e welfare per i lavoratori (31%); il lavoro a distanza e smart working (26%); la riduzione dell’orario di lavoro (22%).

Le differenze tra percezione e realtà. Il Rapporto AIDP-LABLAW 2018, inoltre, ha messo a confronto l’opinione delle aziende che hanno già introdotto sistemi di Robot e intelligenza artificiale con quelle che non lo hanno ancora fatto. Le differenza principali che emergono riguarda l’atteggiamento verso queste tecnologie: molto positivo (75%) da parte delle aziende robotizzate, meno positivo (47%) per le aziende non robotizzate. In generale le aziende che non hanno introdotto sistemi di Robot e IA tendono a «sovrastimare» una serie di conseguenze negative che la pratica delle aziende robotizzate, invece, smentisce nei fatti. C’è quindi un tema di percezione delle criticità legate all’introduzione di queste tecnologie eccessivamente elevata rispetto alla condizione reale delle aziende chi le utilizza che al contrario, evidenzia soprattutto gli aspetti positivi.

«I risultati della ricerca, fanno capire che la digitalizzazione non è mai solo una questione tecnologica ma strategica – spiegaIsabella Covili Faggioli, Presidente AIDP -. C’è sempre più la consapevolezza che a nulla serviranno le tecnologie se non ci riappropriamo del pensiero che nulla succede se le persone no lo fano accadere e che sono le persone che fanno la differenza, sempre e comunque, ottimizzando le innovazioni e dando loro il ruolo che hanno, un ruolo di supporto e di miglioramento della qualità della vita. Sono tre secoli che il rapporto uomo macchina è complicato perché basato sulla paura. Paura che le macchine, in questo caso i robot, sostituiranno le persone mentre si è poi sempre verificato che è solo migliorata la qualità della vita e che si sono venute a creare nuove professionalità.» 

«A fronte dei risultati della ricerca AIDP-LABLAW emerge chiaramente un tema di nuove relazioni industriali, di nuovi rapporti tra imprese e lavoratori – spiega Francesco Rotondi, Giuslavorista e co-founder di LabLaw –. Ci troviamo di fronte la possibilità di un’integrazione tra processi fisici e tecnologia digitale mai vista in precedenza. Il processo in atto lascia presagire la nascita di un modello nel quale l’impresa tenderà a perdere la propria connotazione spazio-temporale, in favore di un sistema di relazioni fatto di continue interconnessioni tra soggetti (fornitori, dipendenti, clienti, chiamati ad agire in un ambito territoriale che superi la dimensione aziendale e prescinda dal rispetto di un precostituito orario di lavoro ».

Fonte: diariodelweb.it (qui) Articolo di V. Ferrero del 23 ottobre 2018.

Inquinamento, Salute

Avviso ai cittadini: Lo smog accorcia la vita, “annebbia” la mente e rende più stupidi.

Un team di ricerca sino-americano ha dimostrato che l’inquinamento atmosferico ha un impatto negativo e diretto sulle nostre facoltà cognitive, riducendole proporzionalmente in base all’età e ai livelli di esposizione. Gli studiosi hanno condotto un’indagine con 20mila partecipanti sottoposti a test matematici e linguistici.

Lo smog riduce le nostre capacità cognitive e ci rende meno intelligenti. L’effetto dell’inquinamento atmosferico è particolarmente marcato sugli uomini meno istruiti, inoltre cresce proporzionalmente con l’età: più invecchiamo e più diventiamo stupidi a causa dell’aria contaminata che respiriamo. A determinarlo un team di ricerca internazionale composto da studiosi cinesi e americani della Scuola di Statistica dell’Università Pechino e della Scuola di Salute Pubblica dell’Università di Yale. Gli scienziati, coordinati dal professor Xi Chen, docente presso il Dipartimento di Gestione e Politiche della Salute dell’ateneo statunitense, sono giunti a questa conclusione dopo aver analizzato i dati di oltre 20mila cittadini cinesi. Si è trattato del più ampio e approfondito studio di questo genere.

Ma come hanno dimostrato il legame tra smog e impatto sul livello cognitivo? Chen e colleghi hanno innanzitutto calcolato i livelli di inquinamento respirati da tutti i partecipanti sulla base degli indirizzi di residenza. Tra le sostanze prese in esame vi erano il particolato sottile inferiore al PM10 (quello con particelle di 10 micrometri), l’anidride solforosa (biossido di zolfo) e il biossido di azoto; altre come l’ozono e il pericolosissimo monossido di carbonio non sono state invece integrate nei calcoli statistici. Dopo aver determinato effettivamente i livelli di smog respirati da ciascun partecipante, di entrambi i sessi e tutti con un’età uguale o superiore ai 10 anni, hanno sottoposto loro dei test matematici e linguistici (rispettivamente con 24 e 34 domande) per misurarne le capacità cognitive. Dall’analisi dei dati è emerso chiaramente che maggiori erano i livelli di smog e peggiori erano i punteggi nei test cognitivi, con i risultati più scarsi ottenuti dagli uomini più anziani e meno istruiti. Secondo gli scienziati ciò è dovuto al fatto che questa categoria di uomini spesso è impegnata in lavori manuali all’aperto, dunque è più soggetta all’influenza dell’inquinamento atmosferico.

Poiché si è trattato di uno studio di osservazione, Chen e colleghi non hanno trovato un rapporto di causa-effetto tra l’inquinamento e impatto negativo sull’intelligenza, tuttavia i risultati collimano con quelli ottenuti da altre indagini simili. Un team di ricerca dell’Università di Barcellona, ad esempio, aveva dimostrato che lo smog può ‘rallentare’ il cervello dei bambini, riducendo la loro capacità di attenzione e la memoria, mentre un altro studio spagnolo ha evidenziato che i bambini che vanno a scuola a piedi e sono più esposti al particolato sottile PM2.5 manifestano una riduzione nella memoria di lavoro.

L’inquinamento atmosferico, dunque, oltre a essere pericolosissimo per la salute fisica – uccide più di 6 milioni di persone ogni anno, 500mila solo in Europa – deteriora anche quella mentale, anche se non sono ben chiari i meccanismi. La teoria più accredita risiede comunque nel trasporto di tossine nel cervello attraverso il particolato sottile. I dettagli dello studio sino-americano sono stati pubblicati sull’autorevole rivista scientifica PNAS.

Fonte: scienze.fanpage.it (qui)

Inoltre, respirare aria inquinata accorcia la vita di più di un anno, scrive Environmental Science & Technology Letters. Un nuovo studio ha stimato l’impatto delle polveri sottili Pm 2,5 sulle aspettative di vita in 185 paesi, usando i dati del rapporto Global burden of disease. È stata calcolata una riduzione media dell’aspettativa di vita di 1,2 anni a livello globale. I paesi più penalizzati sono Bangladesh, Egitto e Niger, con due anni di vita persi, mentre i migliori sono Svezia, Australia e Nuova Zelanda, con uno o due mesi persi. Inalare polveri sottili aumenta il rischio di tumori, ictus, malattie cardiache e respiratorie.

Fonte: Internazionale 31 agosto 2018.

Ci siamo mai chiesti perché la lotta all’inquinamento è poco convinta? Gli effetti interessano alle élite che mantengono il potere sulle masse “annebbiate”, alle corporation farmaceutiche per tutto l’indotto delle malattie causate dall’inquinamento, alle grandi case automobilistiche che vogliono sfruttare fino in fondo le tecnologie basate sui carburanti tradizionali.

Ricordiamoci queste élite sono contro i popoli.

Intelligenza artificiale, Sicurezza, Tecnologia

SARI: Intelligenza Artificiale per la Polizia Italiana. Saremo tutti tracciati?

In un recente caso di cronaca (la rapina di Lanciano) la Polizia Scientifica di Brescia ha potuto arrestare due sospettati grazie SARI (Sistema automatico di un riconoscimento immagini), un sistema di riconoscimento facciale introdotto l’anno scorso al servizio della Polizia Di Stato. Si tratta di un sistema di Intelligenza Artificiale che mette a confronto e cerca di riconoscere i volti.

SARI ha due modalità di funzionamento, come si può intuire dalla bozza di contratto pubblicata sul sito della Polizia: la modalità Enterprise che confronta una fotografia con un database di grandi dimensioni (nell’ordine di 10 milioni di immagini) e genera “una lista di volti simili al volto ricercato”.

E una modalità Real Time “per il riconoscimento in tempo reale di volti presenti in flussi video provenienti da telecamere IP, con relativo confronto dei volti presenti nei flussi video con quelli di una “watch-list” (con una grandezza dell’ordine di 100.000 soggetti) e trasmissione di un alert in caso di match positivo”.

È un sistema concettualmente simile a quello che ognuno di noi può sperimentare in Google Photo, su iOS, su Amazon Photo o in tanti altri sistemi simili. Il software non solo sa riconoscere i volti umani, ma riesce anche a distinguere tra l’uno e l’altro. Quello che non si trova nei software commerciali, naturalmente, è il confronto con un database esterno composto da centinaia di migliaia o anche milioni di immagini; ciò che permette a SARI di dire questa foto potrebbe essere Tizio.

Nella fattispecie, SARI è sviluppato dall’azienda Parsec 3.26 con sede a Lecce ed è probabilmente basato sul loro prodotto commerciale Reco – Face Recognition System. Il database usato per il confronto è la banca dati SsA del sistema AFIS, e include 16 milioni di immagini grazie ad “altri database”.

Finora non è stato possibile chiarire da dove vengono le altre immagini, tant’è che il Deputato Federico D’Incà ha chiesto chiarimenti tramite un’interrogazione parlamentare ufficiale. C’è chi si domanda da dove arrivino quei sedici milioni di immagini e come siano state raccolte, e per ora sono domande senza risposta. Con il timore che i cittadini italiani siano stati inclusi a loro insaputa.

Altra criticità riguarda i falsi positivi. Fermo restando che la responsabilità ultima resta all’agente, questi sistemi di sorveglianza se la cavano piuttosto bene con le fotografie, ma quando si passa alle videocamere in tempo reale la precisione è discutibile nel migliore dei casi, disastrosa in quello peggiore.

L’altro problema riguarda la privacy di tutti: le videocamere registrano immagini e le conservano per chiunque passi sotto il loro occhio elettronico. Che si tratti di criminali incalliti o di cittadini perfettamente onesti, non cambia nulla: le immagini vengono conservate a lungo, mesi o anche anni a volte (dipende dalla legislazione e dagli eventi).

In Gran Bretagna, in occasione di una partita, un sistema simile ha individuato 2297 persone che sono state fermate e interrogate per errore. Ognuna di queste persone si è vista dunque convocare dalla polizia e poi ha subito un interrogatorio. Non è quindi solo una questione di principio, ma anche di problemi reali, dalla perdita di tempo al trauma emotivo.

Alcuni non ci vedono nessun problema, anzi magari si sentono più sicuri; altri invece credono che sia un’illecita violazione della privacy e della libertà individuale. Torniamo quindi a un’antica dicotomia mai davvero risolta, quella che contrappone libertà individuale e sicurezza pubblica. Per com’è andata la Storia recente, pare che siano due grandezze inconciliabili e inversamente proporzionali. Per avere una bisogna rinunciare all’altra e viceversa.

Fonte: tom’shardware (qui)

Tecnologia

WhatsApp, il co-fondatore pentito Brian Acton: “Ho venduto la privacy degli utenti”

Alla fine dei conti, ho venduto la mia compagnia. Ho venduto la privacy dei miei utenti. Ho fatto una scelta e accettato un compromesso. E ci convivo ogni giorno”. A parlare è Brian Acton, il co-fondatore di WhatsApp. Per la prima volta, in un’intervista a Forbes, ha raccontato la vendita a Facebook e l’addio alla società, avvenuta circa un anno fa.

I motivi dell’addio a Facebook

Acton, da sempre dietro le quinte, si era fatto notare alla fine di marzo twittando #deletefacebook dopo il caso Cambridge Analytica. Un invito a cancellarsi dal social network che lo aveva reso miliardario e per la quale lavorava fino a qualche mese prima. Adesso, dopo l’addio dell’altro co-fondatore Jan Koum e dei padri di Instagram, Acton torna all’attacco. Afferma che “gli sforzi per spingere i ricavi” stavano andando “a scapito della bontà del prodotto”. Un atteggiamento che “mi ha lasciato con l’amaro in bocca”. E che ha portato alle dimissioni. Acton racconta di un rapporto personale mai sbocciato con Zuckerberg (“Non ho molto da aggiungere sul ragazzo”). E di una prospettiva completamente diversa rispetto alla sua. Facebook, contro la volontà dei fondatori, voleva introdurre la pubblicità su WhatsApp. Acton ha raccontato di aver proposto a Sheryl Sandberg un’alternativa: far pagare gli utenti pochi centesimi dopo un certo numero di messaggi. Una soluzione che non avrebbe convinto i vertici di Menlo Park. Secondo Acton perché non avrebbe reso abbastanza. “Loro sono buoni uomini d’affari. Solo che rappresentano – ha affermato il co-fondatore di WhatsApp – pratiche, principi etici e politiche con i quali non sono d’accordo”. Ecco allora i motivi dell’addio. Costato ad Acton 850 milioni di dollari. A tanto equivale l’ultima tranche di azioni che avrebbe ottenuto di lì a qualche mese.

La risposta di Mr Messenger

Facebook non ha risposto ufficialmente. Lo ha fatto però con un post, a titolo personale, David Marcus. Fino a maggio è stato responsabile di Messenger e oggi è a capo dei progetti di Menlo Park sulla blockchain. “Ditemi pure che sono vecchio stile – scrive Marcus – ma credo che attaccare le persone e la compagnia che ti hanno reso miliardario e che ti hanno protetto per anni, sia un colpo basso”. Acton ha sì rinunciato a 850 milioni. Ma ha comunque incassato buona parte di quei 19 miliardi spesi da Facebook per comprare l’app di messaggistica. Lo stesso co-fondatore l’ha definita definisce “un’offerta che non si poteva rifiutare”. Marcus difende direttamente Zuckerberg, per aver “tutelato” e dato “un’autonomia senza precedenti in una grande compagnia” ai fondatori delle società acquisite, come WhatsApp e Instagram. Quanto alle alternative proposte da Acton, Marcus sostiene un’altra versione, trasformandosi in una zavorra con il chiaro intento di “rallentare” l’avanzamento dei progetti.

Fonte: tg24.sky.it (qui), Forbes (qui)

Innovazione, Intelligenza artificiale, Sicurezza

Riconoscimento facciale, come funziona. Il video della polizia.

Sono terminate le fasi di sperimentazione e formazione relative al nuovo software della Polizia di Stato denominato ”Sistema Automatico di Riconoscimento Immagini (S.A.R.I.)”, strumento di supporto alle attività investigative di contrasto al crimine. Il SARI Enterprise consente di effettuare ricerche nella banca dati A.F.I.S., attraverso l’inserimento di un’immagine fotografica di un soggetto ignoto che, elaborata da due algoritmi di riconoscimento facciale, fornisce un elenco di immagini ordinato secondo un grado di similarità. Nell’ipotesi di match, al fine di integrare l’utilità investigativa del risultato con un accertamento tecnico a valenza dibattimentale, è comunque necessaria una comparazione fisionomica effettuata da personale specializzato di Polizia Scientifica. Anche grazie al sistema di riconoscimento facciale due ladri georgiani sono stati arrestati dalla polizia a Brescia. I due sono ritenuti responsabili di un furto in un’abitazione commesso lo scorso 17 luglio. Decisiva, per le indagini condotte dalla Squadra mobile, è stata l’acquisizione delle immagini di una telecamera di video sorveglianza installata all’interno dello stabile che aveva ripreso in azione i due. “I fotogrammi sono stati poi analizzati con l’applicativo in uso alla Polizia Scientifica che permette di confrontare le immagini dei rei con i volti dei milioni di soggetti schedati, restituendo una ristretta platea di sospettati. A completare il quadro indiziario a carico dei due stranieri, domiciliati in provincia di Verona, è stato il ritrovamento degli indumenti indossati durante il furto e l’analisi dei tabulati telefonici”.

Fonte: quotidiano.net (qui)

Innovazione, Politica, Salute

Così l’intelligenza artificiale impara a scovare i tumori. In meno di due ore

Un test, condotto grazie al co-fondatore di una startup e un radiologo, vuole dare un’idea di come funzionino questi “cervelli”. Che presto potrebbero salvarci la vita.

Tutti sappiamo come si è formato un medico: libri e articoli, ore e ore sul campo. Il modo in cui funziona l’intelligenza artificiale è meno intuitivo. Abbiamo deciso di chiarirlo, anche perché l’AI sarà sempre più importante per la diagnostica. È questo il ragionamento che ha spinto Quartz a fare un esperimento: allenare due algoritmi a riconoscere un cancro ai polmoni. In un paio d’ore.

L’esperimento

Diciamolo subito: un “medico artificiale” efficiente ha bisogno di più tempo e molti più dati. Il test, condotto grazie al co-fondatore della startup MD.ai Leon Chen e al radiologo Luke Oakden-Rayner, vuole dare un’idea di come funzionino questi “cervelli”. Che presto potrebbero salvarci la vita. Se un oncologo impara dai manuali e dall’esperienza, l’intelligenza artificiale apprende solo dai dati: circa 190.000 immagini, bidimensionali e in 3D, con noduli maligni, benigni o privi di qualsiasi formazione. Un nodulo è un piccolo pezzo di tessuto  di tessuto che non è normalmente presente nei polmoni. Già individuarlo non è semplice. Perché è piccolo e spesso poco visibili. E può essere confuso con altre formazioni. Poi il passo successivo: saper distinguere tra un nodulo maligno e uno che non lo è.

Cosa impara l’AI in 75 minuti

Dopo una ventina di minuti e dopo aver digerito le prime 50.000 immagini, l’algoritmo inizia a dare i primi risultati (ancora scarsi). Individua correttamente circa il 46% dei noduli. Ma non ha ancora cognizione di cosa siano di preciso. A volte, infatti, confonde i vasi sanguigni con un possibile cancro. Dopo mezz’ora, gli algoritmi hanno analizzato 95.000 radiografie. Riescono a individuare il 60% dei noduli. E nel 69% sono in grado di dire con esattezza se sono maligni. “In questa fase, il sistema ha un’estrema sicurezza quando rileva noduli di grandi dimensioni (oltre il centimetro di diametro)”. Mentre “non ha ancora imparato alcune nozioni semplici”.

Anzi, molto semplici. È tarato solo per riconoscere i noduli polmonari, ma non sa cosa sia esattamente un polmone. Individua quindi formazioni in zone del corpo dove i “noduli polmonari” non possono esserci. Per il semplice fatto che sono, appunto, polmonari. In altre parole, spiega Quartz: l’intelligenza artificiale è priva di buon senso perché si attiene ai soli dati. A questo stadio, quindi, combina risultati discreti con falle elementari. “Anche un bambino di tre anni sa distinguere pancia e petto”. L’AI invece “non sa cosa siano”. A tre quarti dell’esperimento, dopo quasi un’ora e 143.000 immagini, l’intelligenza artificiale comincia a possedere la materia. Ed evidenzia risultati che Quartz definisce “piuttosto buoni”. Ha ancora difficolta a individuare i noduli (l’accuratezza è del 64%). Anche in questo caso, la pecca è la mancanza di buon senso. Il medico artificiale indica noduli in zone dove è molto raro che ci siano.

Confondendoli spesso con piccole cicatrici. Un medico umano, in questo, è molto più efficiente. Inizia a essere significativa l’accuratezza delle formazioni maligne: 76.38%. Fine dell’esperimento, dopo 75 minuti e oltre 190.000 immagini. L’accuratezza nell’individuazione dei noduli sfiora il 68%. E la capacità di capire quali sono maligni è dell’82.82%. L’intelligenza artificiale è migliorata ancora. Ancora troppo spesso i noduli vengono scambiati con altro. Ma, quando succede, l’AI giudica la formazione benigna. “La risposta terapeutica per il paziente – scrivono gli autori del test – sarebbe quindi simile”.

Conoscenza ed esperienza

“L’intelligenza artificiale funziona molto bene, anche se non è ancora al livello di un radiologo”, conclude Quartz. Molto dipende da un corredo di dati ancora troppo esiguo. Ma se questi sono i risultati ottenuto in meno di due ore e con 190.000 immagini, pensate cosa potrebbe fare un sistema più complesso, con un archivio fatto di centinaia di migliaia di contenuti. Come quelli prodotti ogni giorno da cliniche e ospedali.

Allo stesso tempo, l’esperimento sottolinea i pregi dell’uomo, in grado di usare “le conoscenze pregresse come un’impalcatura”. L’intelligenza artificiale, invece, ha bisogno di costruirla ogni volta. E può farlo solo grazie a una mole enorme di esempi. In questo caso ne sono serviti 50.000 per “insegnare” alle macchine quello che uno studente imparerebbe con un solo manuale. Solo che nessun medico è in grado di leggere un libro in 17 minuti. Il futuro della diagnostica dipenderà dalla capacità di fondere le doti di ognuno: la conoscenza umana con l’esperienza artificiale.

Fonte: agi.it Articolo di P. Fiore dell’8 settembre 2018 (qui)

Economia, Innovazione

Olivetti, 110 anni e nessuno che abbia imparato la lezione

La prima cosa che ti viene da chiederti è perché.

Perché un’azienda italiana che era all’avanguardia della tecnologia mondiale è quasi scomparsa?

Perché un intero settore industriale del nostro paese è stato cancellato a favore delle aziende statunitensi?

Perché la Silicon Valley aveva iniziato a parlare italiano ma poi la conquista dell’America è svanita nel nulla?

Sono i perché che ti vengono su come un bolo visitando la mostra ‘Olivetti: 110 anni di impresa’ appena aperta alla Galleria Nazionale d’arte moderna e contemporanea di Roma.

La risposta che vi daranno a questi tanti perché i nostri attuali, rapaci, imprenditori e supermanager è che Olivetti era una fabbrica di idee, di design, di simboli, di geni ma non di profitti. Che la ‘visione’ Olivetti non è quella del moderno capitalismo. Che Olivetti, in fondo, ha fallito.

In realtà, la filosofia di Adriano Olivetti, figlio del fondatore Camillo, era quella di un imprenditore illuminato come dai suoi tempi non più si manifestano nel mondo occidentale. Le sue stesse fabbriche erano studiate per dare qualcosa al territorio, in termini di lavoro, certo, ma soprattutto di bellezza e di meraviglia. La tecnologia per quella visione assumeva un ruolo quasi mistico che al giorno d’oggi un qualsiasi ricco scarparo guarderebbe dall’alto in basso senza neanche capire che il poveraccio è proprio lui.

Quello che la visione Olivetti aveva afferrato nella sua fantasmagorica espansione elettromeccanica è che il profitto non è il valore principale di un’azienda.

Lo sono, al contrario, le cosiddette positively disturbing ideas come i valori immateriali rappresentati dalla cultura e dalla capacità innovativa, la priorità ai giovani (i più adattabili all’innovazione), la selezione dei talenti, il design innovativo inteso come intrinseco al prodotto, una struttura aziendale informale nella quale chiunque, a prescindere dal proprio ruolo, potesse essere chiamato a dare il suo contributo alla ‘impresa’ (nel vero senso della parola).

La piramide aziendale, ovviamente esistente anche in Olivetti, doveva aiutare l’uomo nel processo creativo, non opprimerlo. Provate a suggerire una cosa del genere oggi alla Fiat di Marchionne (anzi, alla FCA, che la Fiat italiana non esiste più).

Ma l’idea più disturbante di tutte nel mondo lucrativo e inumano di oggi derivante dalle teorie ultraliberiste di Milton Friedman è senz’altro quella della responsabilità sociale dell’impresa. Una responsabilità che è dovuta agli azionisti quanto ai dipendenti, quanto al territorio sul quale si operi. Costruisce case per i dipendenti, cinema e piscine per la città. Distribuisce benessere, diminuisce l’orario di lavoro, senza variazioni di salario.

Voglio ricordare ancora una volta poi la regola aurea che si rispettava alla Olivetti: nessun manager doveva guadagnare più di dieci volte il salario minimo di un operaio. Oggi che i supermanager arrivano anche ad intascare (spesso immeritatamente) fino a 500 volte la paga di un loro umile dipendente, si capisce che il capitalismo illuminato ha avuto in Adriano Olivetti un unico, splendente sole. Che non è mai più risorto.

A proposito di sole, Olivetti e la California. A Cupertino l’azienda della grigia Ivrea fu la prima a fare tecnologia nella Silicon Valley prima che questa si chiamasse così. Nel 1973 la Olivetti apre il suo primo ufficio a Mountain View (sì, proprio dove ha sede Google) mentre Steve Jobs ancora studia e lavora ai videogiochi della Atari. Nel ’79 la Apple muove i primi passi mentre Olivetti inaugura l’Advanced Technology Center. Tre anni dopo nasce l’M20. L’Apple Macintosh arriva solo nell’84. Quello che è considerato il primo personal computer del mondo, il P101, Olivetti lo aveva prodotto nel 1965.

Perché Olivetti, un’azienda che era arrivata ad avere 50mila dipendenti in 100 paesi del mondo è quasi scomparsa e vive ora solo come pallida costola di Tim (200 dipendenti o giù di lì)? Molti oggi affermano che la gestione di Adriano Olivetti fu miope e non adeguata a cavalcare la rivoluzione elettronica. Negli anni 2000 poi, un vero e proprio tracollo: dal 2003 al 2014 le perdite medie annue s’aggiravano sui 30-35 milioni per un totale di 400 milioni di euro, ripianati prima da Pirelli e poi da Telecom.

Ma per qualcun altro, invece, la sorte di Olivetti era già stata decisa altrove. In un macabro parallelo con l’Eni di Enrico Mattei, qualche ex dipendente afferma che la manina che affondò l’azienda è quella imperialista americana. Nel 1962/63 gli Usa, presidenza Kennedy, avevano notato l’intraprendenza di questi italiani che avevano il predominio dell’office automation nel mondo e miravano al controllo dell’elettronica per entrare nell’era informatica.

In Italia si stavano formando i primi governi di centrosinistra. Detto fatto: le banche italiane chiesero alla Olivetti Divisione Elettronica il rientro immediato dei capitali. L’Olivetti fu costretta a “svendere” alla General Electric la sua Divisione Elettronica, con tutta la rete di assistenza. Un suicidio. Fantapolitica? Chissà.

Intanto oggi Olivetti celebra il suo anniversario solo grazie a un’altra azienda italiana nel frattempo divenuta francese. Andare a vedere la mostra della Gnam inorgoglisce, ma fa veramente incazzare.

Fonte: ilfattoquotidiano.it Articolo di I. Mej (qui)

Economia, Esteri, Innovazione

E’ a Tokyo la prima Smart City sicura e interconnessa grazie alla Blockchain

La Blockchain, in italiano “catena di blocchi”, è un processo in cui un insieme di soggetti condivide risorse informatiche – dati, memoria, Cpu, banda – per rendere disponibile alla comunità di utenti un database virtuale, generalmente di tipo pubblico, ma ci sono anche esempi di implementazioni private, e in cui ogni partecipante ha una copia dei dati.

Alla base del funzionamento della Blockchain c’è la sicurezza poiché il database condiviso è centralizzato e criptato; in questo modo viene garantita la sicurezza e la conservazione delle informazioni in esso contenute, inoltre, per effettuare delle modifiche è necessario il consenso di tutti e comunque vengono registrate tutte le versioni precedenti.

L’utilizzo della tecnologia Blockchain è ancora molto nebuloso poiché si può spaziare dall’impiego all’interno del mondo criptovalute, fino ad arrivare ai settori più disparati come banche, trasporti, sanità, finanza, sicurezza, istruzione, assicurazioni. Questi che abbiamo appena elencato sono alcuni degli ambiti che, secondo gli esperti, saranno prima o poi contaminati dalla Blockchain.

Blockchain è anche pronta a sbarcare all’Università di Pisa,primo ateneo in Italia e tra i primi in Europa ad adottare il registro criptato digitale in cui archiviare in ordine cronologico e pubblico tutte le informazioni legate alla carriera universitaria, così da porre fine ai millantatori di titoli di studio.

Ma ora ai diversi ambiti alternativi di applicazione della tecnologia Blockchain se ne aggiunge un altro: il suo utilizzo nella progettazione di una Smart City.

Le Smart City combinano le tecnologie dell’informazione e della comunicazione nel tentativo di migliorare i servizi come i trasporti attraverso la razionalizzazione che produce una riduzione dei costi. Un esempio semplice in tal senso è l’impiego di sensori per la segnalazione di parcheggi liberi, oppure i sistemi di illuminazione che utilizzano i sensori per rilevare l’attività umana nella zona e a seconda dell’afflusso aumentano o diminuiscono l’illuminazione.

L’Internet of Things e la Blockchain rappresentano un ulteriore step per lo sviluppo delle Smart City. L’applicazione dell’Internet of Things all’interno di un ecosistema complesso come quello urbano porta con sé una serie di problematiche.

Se da un parte l’IoT può essere sfruttata per una gestione intelligente ed interconnessa del flusso del traffico, la Blockchain entra in gioco perché in questo contesto è fondamentale mantenere la sicurezza dei dati.

Nell’esempio che prenderemo in rassegna, ossia un’avanzata smartcity di Tokyo, c’è tutto questo ma anche molto altro. Si tratta di un esperimento implementato all’interno del distretto di Daimaruyu che, in un’area di 120 ettari nel quale il 30% degli edifici appartiene a Mitsubishi, riunisce tre quartieri di Tokyo compresi fra la Tokyo Station e il Palazzo imperiale.

L’area delle smartcity di Tokyo.

Ci sono diversi stakeholder e aziende che hanno preso parte al progetto. Fujitsu ha creato l’infrastruttura tecnologica, ossia quella che consentirà alle aziende di condividere i propri dati senza perderne il controllo.  Alla base di tutto c’è sempre la condivisione di dati in modo sicuro e strutturato per creare valore, rispettando sicurezza, privacy e relazioni tra le aziende che vi partecipano.

La tecnologia impiegata, di tipo open source, appositamente progettata sotto la Linux Foundation per un utilizzo in contesto aziendale, è una Blockchain Hyperledger Fabricche sfrutta la “tecnologia contenitore” per ospitare contratti smart chiamati “chaincode” che comprendono la logica applicazione del sistema. In Hyperledger Fabric le regole definite per la specifica Blockchain stabiliscono chi può validare l’ingresso di membri nella Blockchain, autorizzare e verificare ogni transazione.

 Fujitsu ha progettato l’infrastruttura software Virtuora DXattraverso la quale permette di condividere data e smart contracts. Virtuora DX è un servizio cloud che consente alle aziende di portare visibilità e valore nei dati in loro possesso, condividerli, e accelerare la co-creazione di valore. Questo tipo di tecnologia è necessaria perché i dati possono essere sfruttati in modo sicuro per creare innovazione senza però che essi escano dal perimetro aziendale.

All’interno di un’area come quella di Daymaruyu, un distretto ad alta densità economica dove sono presenti 106 grattacieli – 4.300 uffici -, 280mila persone impiegate, 40mila ristoranti, 90mila negozi, 13 stazioni ferroviarie e metro, 28 linee, hanno la loro sede principale 16 delle più grandi aziende al mondo.

In quest’area, che non ha nulla da invidiare alla città rappresentata nel visionario film Minoriry Report, l’infrastruttura tecnologica consente di condividere le informazioni di tipo economico che provengono dalla gestione dei palazzi di proprietà di Mitsubishi, dai sensori IoT raccolti da aziende di trasporti – è presente anche un servizio di bus senza conducente -, dai negozi relativamente all’andamento delle vendite e dalla disponibilità dei beni, dal flusso di dati provenienti dagli hotel sulle camere disponibili, oppure i tavoli liberi all’interno dei ristoranti.

Alcuni dei servizi garantiti dall’uso della blockchain e dell’IoT nella smart city di Tokyo.

L’aggregazione di questi dati a diversi livelli – si può anche conoscere l’andamento dei prezzi degli immobili al metro quadro, oppure quante persone sono presenti all’interno di un locale ma anche sapere il valore e la quantità di ogni transizione effettuata – potrà quindi essere sfruttata dall’azienda che si collega, previa autorizzazione, per progettare un determinato servizio oppure per la sua attività commerciale.

L’esempio del distretto di Daymaruyu conferma l’ascesa delle Smart City che ormai sono diventate un obiettivo principale per molti paesi.

Escludendo il Giappone, secondo i dati diffusi dall’IDC, i paesi che compongono l’area Asia-Pacifico spenderanno nel 2018 in progetti di città intelligenti 28,3 miliardi di dollari, raggiungendo i 45,3 miliardi nel 2021. In tutto questo la Blockchain ha rapidamente guadagnato consensi e può essere considerata una parte integrante del successo delle Smart City.

Questa tecnologia può essere utilizzata anche per assegnare un’identità digitale verificata ad ogni cittadinocosì da consentirgli di accedere ad un sistema interconnesso. Tutto questo si traduce nella fruizione di un’ampia gamma di servizi governativi, professionali e privati – come la richiesta di prestiti bancari, la gestione della proprietà, il trasporto pubblico, lo shopping online o il pagamento delle tasse -, il tutto con estrema facilità e velocità.

Fonte: “E’ a Tokyo la prima Smart City sicura e interconnessa grazie alla Blockchain”  di E. Ragoni su businessinsider.com (qui)

Economia, Rivoluzione digitale

Iniziamo con l’innovazione. L’Intelligenza Artificiale sarà sempre più presente. Ecco la grande trasformazione delle economie avanzate.

untitleddesign61.630x360

CAPIRE L’ARTIFICIAL INTELLIGENCE NON E’ PIU’ UN OPTIONAL. ECCOLA SPIEGATA (dal blog di Paolo Barnard qui)

Nell’educazione politica dei cittadini va oggi inserita come prioritaria la comprensione dell’Artificial Intelligence (di seguito AI).

Così come cinquant’anni fa l’arrivo del personal computer ha cambiato ogni angolo della vita privata, professionale, economica e politica, così è oggi l’AI, solo immensamente di più. Le ‘macchine pensanti’ saranno ovunque e gestiranno quasi tutto, punto. Ma su cosa davvero sia l’AI, e cosa sarà, c’è un’enorme confusione, soprattutto a causa delle fantasie cinematografiche e dell’iperbole nei media. L’AI va quindi capita con lucidità. Ma attenti: date le sue straripanti applicazioni nella politica, economia, istruzione, lavoro e salute, oggi non saperlo non è più un optional.

Dovete iniziare da questa domanda: gli umani già posseggono l’intelligenza, frutto di un improvviso e ancora misterioso salto genetico avvenuto fra 200 e 100 mila anni fa in un ramo di primati; allora perché oggi stiamo ossessivamente cercando di crearne un’altra, quella artificiale?

Esiste solo una risposta: perché quella artificiale dovrà essere molto più potente di quella umana. Infatti non avrebbe senso investire miliardi e lavorare decenni per riottenere delle capacità artificiali pari a quelle naturali dell’uomo. Ma qui ho appena usato un termine che è la chiave di tutta la comprensione della vera AI: “capacità”. Infatti l’attuale AI non ha assolutamente nulla di intelligente, cioè nulla di neppure lontanamente comparabile alle funzioni cognitive del cervello umano; essa ha unicamente delle capacità computazionali prodigiose che gli derivano da istruzioni sempre più sofisticate. Fra capacità artificiali e intelligenza naturale esiste un divario di dimensioni colossali. L’aver usato Intelligence nella locuzione Artificial Intelligence ha portato a un’incomprensione enorme in tutto il mondo, e infatti la locuzione più idonea sarebbe stata Capacità Artificiale, non intelligenza artificiale.

Da più parti, in tema di AI, giungono apocalittici avvisi e scenari che ipotizzano un mondo da incubo dove super macchine capaci di pensieri e sentimenti propri potrebbero schiavizzare la razza umana e dunque conquistare il potere. O peggio: impossessarsi delle atomiche ed estinguerci. Queste sono sciocchezze, che appunto spariscono quando si ha chiara la sopraccitata differenza fra capacità artificiali e intelligenza naturale. Quest’ultima, che appartiene unicamente a noi, è, e quasi certamente rimarrà, irraggiungibile dalle macchine, ed è bene subito chiarirvi il motivo. Purtroppo mi devo soffermare parecchio su questo punto perché se rimaniamo distratti dall’AI fantasy dei film, finiamo per non capire niente del colossale impatto che questa tecnologia davvero avrà sulla politica, l’economia, l’istruzione, il lavoro e la salute degli umani.

SCORDATEVI C-3PO E TERMINATOR.

Prima cosa sia chiara un’altra distinzione: non esiste solo la AI, ma anche la AGI, che è la Artificial General Intelligence. La prima si riferisce a macchine che sotto la totale istruzione e direzione dell’uomo svolgono compiti estremamente complessi, come: tradurre le lingue all’istante; trovare segni patologici invisibili ai medici negli esami clinici; predire i Mercati nelle variabili indecifrabili ai traders; riconoscere miliardi di volti e collegarli senza errore ai conti correnti o ai file di Polizia; interpretare e catalogare migliaia di miliardi di dati in frazioni di secondo per uso e consumo umano, ecc. Quindi si badi bene: stiamo parlando sempre di capacità eccezionali, e non d’intelligenza cognitiva tipica dell’umano. La seconda, l’AGI, è invece il sogno dei tecnologi: le stesse macchine, con le stesse capacità, ma dotate di totale autonomia sia nell’imparare per conto proprio che nel ‘pensare’ per conto proprio alle soluzioni. Cioè che non richiedano più nessuna istruzione e direzione dell’uomo. Di nuovo però, si badi bene: parliamo in questo caso di un passo oltre, ma sempre di tecnologie e nulla a che vedere con l’esatta riproduzione di un cervello umano. Quindi neppure l’AGI rappresenta davvero le futuristiche, anche se emozionanti, fantasie alla Star Wars, Blade Runner e filone successivo.

Che replicare esattamente un encefalo umano dentro un’AGI, cioè creare la cosiddetta Superintelligence, fosse un’impresa pressoché irraggiungibile fu la chiara intuizione del padre dei computers, Alan Turing, il genio matematico inglese scomparso nel 1954. Turing lasciò ai posteri una sfida in questo senso, contenuta nel celeberrimo Turing Test che includeva anche una versione aggiornata col nome di Imitaton Game: in questi test si sarebbe misurato se mai un computer avrebbe ingannato la mente umana mostrando intelligenza superiore (e qui si parla d’intelligenza complessiva, non di abilità agli scacchi o a Go). Fu un primo tentativo di far comprendere quanto lunga in realtà fosse la strada prima di poter davvero decretare che una macchina sa pensare come un uomo, ammesso che quella strada esista in assoluto. Alan Turing lasciò infatti una predizione pessimistica in questo senso, nelle seguenti lapidarie parole: “La questione se le macchine possono pensare è talmente insignificante da neppure meritare una discussione”. I fatti gli stanno dando pienamente ragione a 60 anni di distanza e dopo salti tecnologici giganteschi: la Superintelligence non solo non c’è, ma si allontana sempre di più.

Considerate le seguenti cose, solo quattro punti per far capire, perché davvero dobbiamo sterilizzare il campo dalle fantasie degli esaltati sulla AI, pena il perdere uno dei più importanti treni politici ed economici della Storia, che è la vera AI:

  1. A) Nella Image Recognition, una branca della AI, ancora oggi per ottenere da una macchina ciò che il nostro cervello fa in una frazione di secondo occorrono sforzi tech immensi. Immaginate un numero 9 scribacchiato male: l’occhio e cervello umani dopo pochi istanti, senza alcuno sforzo, sanno capire se si tratta davvero di un 9 o di una g, o di disegni infantili di un girino o di un palloncino attaccato al filo, ecc. Per far sì che un computer arrivi a questo misero risultato, il lavoro di software e di artificial neural networking che gli va insegnato è estenuante. Da qui immaginate cose come la contemplazione di un affresco, e la miriade di stimoli che un cervello umano ne riceve, che vengono capiti all’istante, e che sa poi riprodurre in ogni campo cognitivo in pochi secondi per, infine, produrre azioni di ogni sorta; e di nuovo immaginate cosa ci vorrà per attrezzare un computer ad avere quelle stesse capacità se un 9 scribacchiato male richiede oggi sforzi di decine di ricercatori per farglielo azzeccare.
  2. B) Si fa un gran parlare in AI degli Artificial Neural Networks, cioè imitazioni delle strutture neuronali del nostro cervello messe dentro i computers per renderli più ‘intelligenti’. Sono tecnicamente fondamentali, ma anche qui la realtà è disarmante. Il cervello umano ha 85 miliardi di neuroni interconnessi, e nessuno al mondo oggi sa davvero come funziona neppure un singolo neurone. Alla New York University il luminare delle neuroscienze Rodolfo Llinas ha tentato per anni di capire come agisce il mega neurone del calamaro gigante, cioè come fa ad esempio a fagli distinguere un capodoglio da una roccia, ma è ancora… in alto mare. Perciò quando nella fantasia popolare si parla di AI o di Artificial Neural Networks come se fossimo a un passo dal trovare cervelli umani artificiali perfettamente riprodotti che ci faranno psicoterapia in un ‘Apple consultorio’, o che svolgeranno indagini di polizia, si parla di stupidaggini.
  3. C) Un altro trofeo del nuovo mondo in AI sono i sistemi di navigazione che tutti usiamo in auto e quelli ancor più sofisticati in arrivo per il futuro Driverless di auto, camion, aerei, drones ecc. Cose strabilianti senza dubbio, ma se si parla di esse come fosse intelligenza si va sul ridicolo. Il cervello umano racchiude in pochi cm quadrati delle capacità computazionali simultanee nella gestione dello spazio-tempo e nella sua valutazione cognitiva che nessun computer neppure lontanamente oggi sa riprodurre. Le api hanno appena 800.000 neuroni in un cervello grande come la capocchia di uno spillo, ma posseggono sistemi di navigazione talmente sofisticati che, per riprodurli, a noi occorrono computer giganteschi con l’appoggio di enormi strutture sia terrestri che nello spazio. Anche questo vi dà il senso della distanza fra macchine ‘intelligenti’ e natura davvero intelligente.
  4. D) Hanno fatto molta impressione sul pubblico le notizie delle prodezze di AI come Deep Blue e AlphaGo, cioè dei set d’istruzioni ‘pensanti’ dentro una macchina che hanno sconfitto giocatori-geni umani. Da lì molti hanno immaginato che eravamo a un passo dalla AGI detta Superintelligence, ma assolutamente no. Ciò che non viene fatto capire al pubblico è l’infinita differenza che c’è fra un cervello che impara senza alcuna istruzione su come imparare (l’umano), e un cervello che invece prima di imparare deve essere fornito da un esterno delle istruzioni su come imparare (la AI). Per essere chiari: un infante di 2 anni apprende un codice immensamente complesso come quello del linguaggio e dei suoi contenuti di coscienza senza che nessuno gli infili nel cranio un software su come apprendere linguaggio e coscienza. Invece un’AI prima di imparare il linguaggio e i suoi contenuti dovrà sempre dipendere dall’intelligenza umana che gli sappia ficcare dentro istruzioni sempre più complesse su come E’ vero che si parla di macchine avanzatissime che oggi apprendono alcune cose da sé, tuttavia all’inizio della catena c’è d’obbligo la discrezionalità delle istruzioni umane su come apprendere, cosa che nella biologia umana non accade, noi nasciamo già completi. Ma soprattutto un altro punto.

Come faranno gli scienziati ad arrivare a riprodurre in una macchina i meandri dell’intelligenza se neppure ancora sanno minimamente come questi funzionino in un encefalo biologico? Davvero la Agi con Superintelligence sono ancora fantasie.

E quindi non è un caso che dopo 60 anni dal genio di Alan Turing arrivi proprio oggi una botta di mesto realismo sulla testa della cosiddetta AI Community. Si parla sempre più fra i top esperti di un ‘inverno’ che sta calando sulla AI. Quello che è oggi considerato il Pitagora della AI, Yann LeCun, era stato assunto da Facebook come Guru supremo della loro AI nella speranza di avvicinarsi alla Superintelligence, ma oggi LeCun si sta defilando da Zuckerberg, e sta più nell’ombra.

Tutto questo per dare ai lettori un quadro informato e realistico di cosa davvero s’intende oggi per Artificial Intelligence, quando tutti sparlano di AI come macchine che schiavizzeranno il mondo e di scenari futuri da Isaac Asimov. Non fatevi impressionare dal fatto che Silicon Valley di tanto in tanto riunisca i massimi cervelli in dibattiti sull’etica delle future macchine ‘intelligenti’. DeepMind, che è il centro d’eccellenza sull’AI del colosso Google-Alphabet a Londra, ha lanciato Ethics&Society come laboratorio permanente di studio sulla moralità e sui benefici umani di queste tecnologie. Ma tutto ciò non significa affatto che dietro l’angolo davvero c’è il Terminatorpronto a comparire a schermi unificati nel Pianeta per annunciare la fine dalla razza umana. La discussione sull’uso delle tecnologie e sul loro impatto sull’umanità è, come dire, un contorno che sempre viene servito col piatto principale, e questo fin dall’invenzione della dinamite. Il fatto che le supertech possano finire in networks di controllo politico e di repressione di massa, o addirittura essere usate nelle armi di sterminio della specie, è del tutto vero, ma come sempre sarà la mano dell’uomo a decretarlo, non una Superintelligence che un mattino si sveglia a pigia i bottoni (per i Nerds: tech singularity is a joke, checché ne dica Elon Musk e altri infatuati come Ray Kurzweil).

Spero che siate arrivati fin qua. Ora la parte cruciale invece, perché rimane assolutamente vero che la AI come strumento di gestione comandato dall’uomo nella vita moderna e in ogni campo conosciuto – quindi dalla politica alla Medicina, dalle comunicazioni all’industria, dai servizi alla finanza, dall’istruzione al mondo del lavoro – sia oggi la più grande rivoluzione nelle nostre vite dopo l’arrivo dei computer, ma molto più dirompente, per cui nessuno la deve ignorare, pena rimanere esclusi in una vita da analfabeti ottocenteschi.

Quindi per completare il quadro generale di cosa sia la realistica AI e di come appunto cambierà quasi tutto, vanno descritti i tre pilastri che la compongono e di cui già si sente parlare, ad esempio, nelle offerte lavorative, nella innovation aziendale, e nelle infrastrutture nazionali: MACHINE LEARNING, DEEP LEARNING e gli ARTIFICIAL NEURAL NETWORKS.

MACHINE LEARNING.

Nasce attorno ai primi anni ’80 e la grande innovazione che porta è di sostituire i codici di software scritti a mano dai programmatori con un altro tipo d’istruzioni per i computers affinché… imparino da soli. L’idea fu che se una macchina, invece di dipendere al 100% dal software umano per sapere come svolgere un compito, fosse riuscita a usare il suo enorme potere di calcolo per apprendere, migliorare il proprio giudizio e poi completare quel compito, ovviamente i risultati sarebbero stati mille volte maggiori. Quindi invece di mettere un tradizionale software nel computer (Machine), i tecnici gli permettono d’imparare (Learning) ficcandogli dentro enormi quantità di dati e di algoritmi che appunto gli permettono d’imparare da solo come svolgere quel compito. Cosa accade in pratica dentro al cervello della macchina? Accade che gli algoritmi, che sono in sé istruzioni, studiano la massa dei dati in arrivo, ne traggono insegnamenti, selezionano ciò che è più funzionale, e poi offrono all’uomo un compito finito o una decisione su come fare qualcosa o la previsione di qualcosa.

mighty-ai2Per dare un esempio si consideri l’applicazione oggi più famosa di Machine Learning, che è la computer vision che sarà applicata ai mezzi di trasporto senza autista (Driverless). Il computer usa Machine Learning per dare un senso a oggetti e forme che si trova davanti e per svolgere un compito. Come detto sopra, il suo ‘occhio’ riceve dai tecnici immense quantità di dati su quegli oggetti e forme, impara a distinguerli usando i suoi algoritmi, e di conseguenza svolgerà poi il compito di guidare un’auto in mezzo a essi riconoscendoli e interpretandoli. Non fu facile per i ricercatori all’inizio: prendete un pedone. Prima che Machine Learning sapesse riconoscerlo ed evitarlo, dovette innanzi tutto imparare il concetto di dove inizia la sua forma e dove finisce, ci volle un lavoro computazionale incredibile. Eh sì, sembra assurdo, perché per noi l’idea di dove inizia e dove finisce una figura è scontata, ma non per un computer, che deve imparare anche quello fra miliardi di altre banalissime cose. Ma la velocità dei processori oggi è tale per cui i progressi di Machine Learning sono stati stupefacenti, ed è già in uso in una miriade di applicazioni industriali, aziendali e tecnologiche, la più importante delle quali è nella Medicina diagnostica. Grazie a Machine Learning, un computer sa ‘vedere’ milioni d’immagini nelle lastre, sa razionalizzarle, sa imparare cosa è cosa, e poi usa questo suo sapere su una determinata lastra per trovare ciò che l’occhio del medico potrebbe non aver visto.

DEEP LEARNING & ARTIFICIAL NEURAL NETWORKS.

Sono i gemelli che sempre sentite nominare quando si parla di AI e di Machine Learning. Sono in pratica lo stesso concetto di Machine Learning ma ancor più sofisticato e molto più potente nel funzionamento. Partiamo dai secondi.

Come dice il nome, Artificial Neural Networks, essi sono la riproduzione (assolutamente rudimentale oggi) del sistema dei neuroni del cervello umano ma dentro un computer. In altre parole: non più i codici software, ma una simil-biologia umana per far funzionare le macchine ‘pensanti’. Anche qui l’idea ha circa 50 anni, ma solo di recente è decollata. I ricercatori fanno strati di neuroni artificiali – attenti: non sono micro cosine di plastica e rame, ma algoritmi – che si connettono fra di loro. Queste connessioni, sia chiaro, non sono neppure lontanamente ramificate e capaci come quelle biologiche, poiché sono costrette entro un ristretto numero di possibilità. Ora, per capire cosa succede in un Artificial Neural Network e a cosa serve, passiamo a un esempio diretto.

Il computer dovrà imparare a riconoscere all’istante un volto di un cliente e ciò che egli ha nel cestino delle compere, per abbinare sia il volto che le compere al suo conto corrente mentre se ne esce con la spesa da uno smart-shop, senza più passare per nessuna cassa né estrarre il portafoglio (gli smart-shop sono già realtà). Ecco come i tecnici di Machine Learning fanno sì che un Artificial Neural Networkimpari da solo a svolgere questo compito. Iniziamo dal riconoscimento del volto: l’immagine viene scomposta in blocchi che arrivano al primo strato di neuroni artificiali. Questi valutano emettendo un giudizio chiamato weighting (soppesare), poi il tutto passa al secondo strato che fa la stessa cosa, e così via fino alla fine, dove tutti i weighting messi assieme arrivano a una conclusione ‘pensata’. Cioè: la forma ovaleggiante dell’immagine (cranio-mascella); il fatto che ha due palle colorate parallele (occhi); che ha attorno qualcosa di colorato (capelli); ci sono altre cose bilaterali (narici, orecchie); si muove (muscoli facciali), ecc., tutto questo viene soppesato dai vari strati di Artificial Neural Networks e alla fine la macchina arriva a una conclusione: è un volto.

Dovete immaginare che questa ‘scuola’ viene ripetuta dal computer milioni di volte, e che esso è sottoposto a un bombardamento di milioni di dati tipici dei volti, fino ad arrivare a una velocità istantanea di riconoscimento di un volto. Un Artificial Neural Networkgià esperto in questo abbina poi quella faccia con precisione perché la trova all’istante fra tutti i volti precedentemente caricati, ad esempio, da una banca, e questo serve poi a completare il compito specifico che era appunto il riconoscimento per addebitare il conto corrente relativo. Vi basta ora replicare questa strepitosa capacità in mille altri campi operativi, industriali, sociali, infrastrutturali, per comprendere perché oggi Machine Learning e Artificial Neural Networks sono sulla bocca di tutti.

Se avete capito fin qui, e mi sono spellato il cervello per essere chiaro, allora è facile capire cosa significhi Deep Learning. Non è altro che l’amplificazione della tecnica sopra descritta negli Artificial Neural Networks su scala sempre maggiore e affidando ai computers algoritmi sempre più sofisticati. Fu l’idea dello scienziato Andrew Ng (Baidu), che comprese che per sveltire l’apprendimento delle macchine ‘intelligenti’ – ma soprattutto per permettere loro apprendimenti sempre più astratti, e quindi vicini a quelli del cervello umano – le si doveva dotare di Artificial Neural Networks giganti e le si doveva sottoporre a dosi colossali di dati. Fu proprio Andrew Ng che ingozzando un computer con 10 milioni di video permise al suo Artificial Neural Network di imparare per la prima volta a riconoscere un gatto. Replicare questo metodo per permettere alle macchine di imparare a ‘pensare’ sempre di più e quindi a svolgere compiti sempre più complessi, è di fatto il Deep Learning.

SARA’ DAPPERTUTTO. ADESSO LA CONOSCETE. GIOVANI, COSA FARE.

Ci sono due categorie d’italiani per cui quanto sopra è essenziale, ma in due modi radicalmente diversi: gli adulti e i giovani. Per gli adulti conoscere l’AI, e più in generale la travolgente rivoluzione globale delle nuove tecnologie chiamata Disruption, ha un valore politico imprescindibile. Per i giovani, cioè dai bambini ai ragazzi, si tratta di capire che chi rimane fuori almeno dalla comprensione di base dall’AI e dalla Disruption è oggi identico all’incolpevole italiano che negli anni ’50 non sapeva ancora leggere e scrivere, e mestamente da escluso sociale guardava le lezioni del Maestro Manzi a “Non è mai troppo tardi” alla RAI in bianco e nero, mentre tutti gli altri partecipavano al grande boom economico del dopoguerra con lavori, sicurezza sociale, e un futuro per i figli.

Per capire il valore politico dell’AI non ci vuole un genio. Queste tecnologie hanno un potere di analisi dei dati sconfinato. Oggi l’adesione a Internet di quasi tutti i cittadini, o anche solo il possesso di un cellulare, significa che coloro che gestiscono il digitale ci carpiscono lecitamente (quindi non Cambridge Analytica o la NSA) milioni di dati al giorno su: cosa facciamo o dove siamo, e quando; cosa diciamo o cosa leggiamo di politicamente rilevante; cosa compriamo, e quanto; lo scontento e il malumore sociale, di chi e dove; e moltissimo altro. Fino a pochissimo tempo fa quella mole cosmica di dati era usata dalle classi dirigenti, fa cui i politici, neppure all’1% perché non esisteva la tecnologia per analizzarli tutti e trarne conclusioni utili. Oggi invece l’AI di Machine Learning e del Data Mining ha spazzato via i sondaggisti come le calcolatrici spazzarono via il pallottoliere, e permette a classi dirigenti e politici un potere di predizione e quindi di manipolazione del consenso inimmaginabili. L’essenza stessa dei maggiori partiti esteri è cambiata: l’AI è il primo strumento di cui si sono dotati, e come sempre l’Italia li imiterà. Non capire oggi il nesso fra politica e AI è esattamente come chi negli anni ‘50 si fosse rifiutato di capire il nesso fra l’arrivo della Tv e la politica.

Nell’economia nazionale, che sono i nostri lavori, redditi, pensioni, alloggi, salute, l’arrivo dell’AI significa una cosa semplice: amplificare il potere di tutto. Questo perché qualsiasi sviluppo dirompente che oggi si applica nell’istruzione, nell’agricoltura, nella finanza, nella sanità, nei trasporti, nelle infrastrutture, nell’industria, nell’azienda, sarebbe rimasto uno scatolone vuoto senza una tecnologia che ne sapesse analizzare e capire la cosmica quantità di nuovi dati, per poi suggerire innovazioni. L’AI esiste proprio per questo, e cambierà tutto.

Per i vostri figli piccoli, e per i ragazzi, posso solo ripetere ciò che ho già scritto tante volte. L’AI e la Disruption delle nuove tecnologie sta, in queste ore, ridipingendo il mondo del lavoro come mai nella storia umana. Ne ho già trattato lungamente. Uno può scalciare, può illudersi, e negare la realtà, faccia pure, sarà solo un perdente, come il povero italiano analfabeta che vagava le strade del boom economico del dopoguerra. Seguite il mio consiglio: leggete i pochissimi autori come me che vi stanno raccontando ‘live’, giorno dopo giorno, cosa succede a Disruption & Work e quali capacità (gli Skills) è oggi prioritario acquisire nell’era della Disruption. Ma, genitori dei piccoli e ragazzi adolescenti, io mi spingo ancora oltre: leggeteci, e poi confrontatevi con gli insegnanti, e se li troverete scettici o addirittura impreparati su questi temi fate manifestazioni per pretendere che vi tutelino con gli aggiornamenti, in particolare, ripeto, su Disruption & Work. Perché quando uno dei Signori del mondo di oggi, Google-Alphabet, scrive sulla home la frase che conclude questo paragrafo, un giovane deve schizzare sulla sedia come la dinamite se davvero sogna un lavoro dignitoso, una vita da persona libera: “Il 65% degli studenti di oggi lavoreranno in lavori che neppure ancora esistono”.

Ora sapete tutti almeno le basi, solide e informate, su cosa sai l’Artificial Intelligence, e perché non conoscerla non è più un optional. Ora fate la vostra parte e divulgate questo articolo.

(le immagini sono dei rispettivi proprietari)