Innovazione, Intelligenza artificiale

Strategia italiana per l’intelligenza artificiale: una sintesi di ChatGPT 4o.

Ho chiesto a ChatGPT 4o di analizzare il documento relativo alla Strategia italiana per l’intelligenza artificiale 2024-2026 e produrre una sintesi circa le azioni previste. Gli ho inoltre chiesto di classificare le azioni in efficaci, programmatiche, irrealizzabili, costose, innovative, e quelle, che se attuate, comporteranno una limitazione all’uso dell’AI.

Ecco il risultato:

La “Strategia Italiana per l’Intelligenza Artificiale 2024-2026” presenta una serie di azioni programmate che si possono classificare come segue:

  1. Efficaci • Sviluppo di infrastrutture per l’IA: Viene promossa la costruzione di reti intelligenti per evitare la congestione dovuta al traffico dati e per garantire un’infrastruttura tecnologica adeguata. Azioni come la collaborazione tra settore pubblico e privato e investimenti in soluzioni di edge computing possono risultare efficaci nel migliorare la capacità tecnologica dell’Italia.
    • Percorsi di reskilling e upskilling: Vengono proposte iniziative mirate alla formazione e alla riqualificazione del personale nelle imprese e nella pubblica amministrazione, con l’obiettivo di colmare il divario tra competenze richieste e disponibili. Questa azione è cruciale per preparare il mercato del lavoro alla rivoluzione dell’IA.
  2. Programmatiche • Promozione della ricerca scientifica fondazionale e applicata: L’Italia punta a consolidare l’ecosistema della ricerca e promuovere la collaborazione internazionale. Viene indicato l’obiettivo di sviluppare soluzioni di IA in ambiti strategici e sociali, come la tutela ambientale e sanitaria.
    • Monitoraggio e coordinamento tramite la Fondazione per l’IA: Si propone la creazione di una Fondazione che coordini l’attuazione delle varie iniziative, gestisca il registro dei dataset e modelli di IA e monitori i progressi della strategia.
  3. Irrealizzabili • Rischio di non fare: Il documento sottolinea il rischio che un approccio timido o mal focalizzato porti alla mancanza di efficacia delle azioni. Questo aspetto evidenzia che alcune delle azioni proposte potrebbero rimanere irrealizzabili se non sostenute da un impegno serio e coerente a livello politico e amministrativo.
  4. Costose • Infrastrutture di rete per l’IA: Il miglioramento delle infrastrutture digitali e lo sviluppo di reti intelligenti richiedono un notevole impegno economico, specialmente in termini di aggiornamento delle infrastrutture esistenti e implementazione di tecnologie avanzate.
    • Fondi per sostenere la strategia: La creazione di un fondo per sostenere le azioni strategiche, alimentato anche da ricavi derivanti dalle stesse iniziative, richiederà un investimento iniziale considerevole.
  5. Innovative • Creazione di un registro nazionale di dataset e modelli di IA: Questa azione prevede la condivisione e il riuso di dati e modelli di IA attraverso un registro nazionale. L’obiettivo è standardizzare i processi e rendere accessibili i dataset per accelerare lo sviluppo di soluzioni italiane. L’adozione di tecnologie per la protezione della privacy (PET) è un’idea innovativa che potrebbe favorire la partecipazione e la fiducia nella condivisione dei dati.
    • Applicazioni di IA nella Pubblica Amministrazione: Le iniziative per automatizzare e migliorare l’efficienza delle procedure amministrative attraverso l’IA rappresentano un’azione innovativa, che potrebbe cambiare radicalmente l’esperienza dei cittadini nell’interazione con lo Stato.
  6. Limitazione dell’uso dell’IA • Rischio dell’iper-regolamentazione: Il documento evidenzia che l’IA potrebbe essere soggetta a eccessive regolamentazioni, specialmente con l’introduzione dell’AI Act europeo. La complessità delle normative potrebbe rallentare l’adozione dell’IA, limitando il potenziale innovativo, soprattutto per le piccole e medie imprese.

Queste azioni delineano una strategia ambiziosa che bilancia innovazione, necessità di infrastrutture e formazione con un’attenta regolamentazione per minimizzare i rischi sociali e culturali legati all’adozione dell’intelligenza artificiale.

Articolo realizzato con ChatGPT

Fonte: Qui

Intelligenza artificiale, Occupazione, Robotica

Robotica umanoide. Ancora passi in avanti. Mentre i futuri effetti sull’occupazione umana sono ancora al palo nel dibattito politico quotidiano.

1X Technologies ha recentemente presentato NEO Beta, un prototipo di robot umanoide bipedale progettato per l’uso domestico. NEO Beta rappresenta un passo avanti importante, combinando design bio-ispirati con un’attenzione particolare alla sicurezza, per operare in ambienti abitati. L’obiettivo di 1X è creare robot che possano svolgere un’ampia gamma di compiti, contribuendo all’automazione del lavoro fisico, riducendo il carico di lavoro umano e garantendo la sicurezza degli utenti. Inizialmente, una serie limitata sarà distribuita per la ricerca e sviluppo.

Analisi Tecnologica e Impatti

L’arrivo di NEO Beta rappresenta un notevole avanzamento nel campo della robotica umanoide, con tecnologie bio-ispirate che rendono questi robot più adattabili e sicuri per l’interazione con le persone. Questa evoluzione segna una transizione importante, da prototipi concettuali a prodotti commerciali su larga scala. L’introduzione di NEO nelle case promette di rivoluzionare il modo in cui concepiamo il lavoro fisico, rendendo la vita domestica più efficiente e automatizzata.

Implicazioni sull’Occupazione

L’automazione avanzata come quella offerta da NEO Beta porta con sé domande importanti riguardo all’impatto sull’occupazione. Se da un lato i robot possono prendere in carico compiti domestici e ripetitivi, liberando gli esseri umani da mansioni più faticose, dall’altro si potrebbe assistere a una diminuzione di posti di lavoro in settori tradizionali legati ai servizi. Tuttavia, questa nuova ondata tecnologica potrebbe anche creare nuove opportunità, specialmente nel campo della manutenzione e gestione della robotica.

In conclusione, l’introduzione di robot umanoidi su larga scala nelle abitazioni apre un futuro di collaborazione uomo-macchina, con potenziali vantaggi in termini di produttività e qualità della vita, se accompagnata da una corretta gestione dell’impatto occupazionale.

Articolo realizzato con il supporto di ChatGPT

Immagine: Dal sito di 1X technologies.

Fonte: 1X technologies https://www.1x.tech/discover/announcement-1x-unveils-neo-beta-a-humanoid-robot-for-the-home

Intelligenza artificiale, Sicurezza

Oklahoma City (USA). Gli agenti di polizia iniziano a utilizzare chatbot IA per redigere i rapporti sui crimini. Saranno validi in tribunale?

Una videocamera corporea ha catturato ogni parola e suono mentre il sergente di polizia Matt Gilmore e il suo cane K-9, Gunner, cercavano un gruppo di sospetti per quasi un’ora.

Normalmente, il sergente della polizia di Oklahoma City avrebbe preso il suo laptop e trascorso altri 30-45 minuti a scrivere un rapporto sulla ricerca. Ma questa volta ha utilizzato l’intelligenza artificiale per scrivere la prima bozza.

Traendo informazioni dai suoni e dalle comunicazioni radio captate dal microfono collegato alla videocamera corporea di Gilmore, lo strumento di IA ha prodotto un rapporto in otto secondi.

“Era un rapporto migliore di quanto avrei mai potuto scrivere io, ed era 100% accurato. Scorreva meglio”, ha detto Gilmore. Ha persino documentato un fatto che lui non ricordava di aver sentito: la menzione del colore dell’auto da cui i sospetti erano fuggiti, fatta da un altro agente.

Il dipartimento di polizia di Oklahoma City è uno dei pochi che sta sperimentando l’uso di chatbot IA per produrre le prime bozze dei rapporti sugli incidenti. Gli agenti di polizia che l’hanno provato sono entusiasti del tempo risparmiato grazie a questa tecnologia, mentre alcuni procuratori, osservatori della polizia e studiosi di diritto esprimono preoccupazioni su come potrebbe alterare un documento fondamentale nel sistema giudiziario penale, che gioca un ruolo chiave nel determinare chi viene perseguito o incarcerato.

Sviluppata con la stessa tecnologia di ChatGPT e venduta da Axon, nota soprattutto per aver sviluppato il Taser e come principale fornitore di videocamere corporee negli Stati Uniti, questa tecnologia potrebbe diventare, secondo Gilmore, un’altra “rivoluzione” per il lavoro di polizia.

“Gli agenti diventano poliziotti perché vogliono fare il lavoro di polizia, e passare metà della loro giornata a inserire dati è solo una parte tediosa del lavoro che odiano,” ha detto Rick Smith, fondatore e CEO di Axon, descrivendo il nuovo prodotto di IA — chiamato Draft One — come quello che ha ricevuto la “reazione più positiva” di qualsiasi altro prodotto introdotto dall’azienda.

“Ovviamente, ci sono delle preoccupazioni”, ha aggiunto Smith. In particolare, ha detto che i procuratori che perseguono un caso penale vogliono essere sicuri che siano gli agenti di polizia — e non esclusivamente un chatbot IA — a essere responsabili della stesura dei rapporti, poiché potrebbero dover testimoniare in tribunale su ciò che hanno visto.

“Non vogliono mai avere un agente sul banco dei testimoni che dica: ‘L’ha scritto l’IA, non io’”, ha detto Smith.

La tecnologia IA non è nuova per le agenzie di polizia, che hanno adottato strumenti algoritmici per leggere targhe, riconoscere volti di sospetti, rilevare suoni di spari e prevedere dove potrebbero verificarsi crimini. Molte di queste applicazioni hanno suscitato preoccupazioni sulla privacy e sui diritti civili, portando i legislatori a cercare di stabilire delle garanzie. Tuttavia, l’introduzione dei rapporti di polizia generati dall’IA è così recente che ci sono poche, se non nessuna, direttive che ne guidino l’uso.

Le preoccupazioni riguardo ai pregiudizi e alle discriminazioni razziali che potrebbero essere incorporati nella tecnologia IA sono solo parte di ciò che l’attivista comunitario di Oklahoma City, aurelius francisco, trova “profondamente inquietante” riguardo a questo nuovo strumento, che ha appreso tramite The Associated Press. francisco preferisce scrivere il suo nome in minuscolo come tattica per resistere al professionalismo.

“Il fatto che la tecnologia sia utilizzata dalla stessa azienda che fornisce i Taser al dipartimento è già abbastanza allarmante,” ha detto francisco, co-fondatore della Foundation for Liberating Minds a Oklahoma City.

Ha affermato che automatizzare quei rapporti “faciliterà la capacità della polizia di molestare, sorvegliare e infliggere violenza ai membri della comunità. Mentre facilita il lavoro dei poliziotti, rende più difficile la vita delle persone nere e marroni.”

Prima di provare lo strumento a Oklahoma City, i funzionari di polizia l’hanno mostrato ai procuratori locali, che hanno consigliato di usarlo con cautela nei casi penali di alta rilevanza. Per ora, viene utilizzato solo per rapporti su incidenti minori che non portano all’arresto di qualcuno.

“Quindi niente arresti, niente reati gravi, niente crimini violenti,” ha detto il capitano della polizia di Oklahoma City, Jason Bussert, che si occupa della tecnologia dell’informazione per il dipartimento di 1.170 agenti.

Non è lo stesso caso in un’altra città, Lafayette, Indiana, dove il capo della polizia Scott Galloway ha detto all’AP che tutti i suoi agenti possono utilizzare Draft One per qualsiasi tipo di caso ed è stato “incredibilmente popolare” da quando è iniziato il progetto pilota all’inizio di quest’anno.

Oppure a Fort Collins, Colorado, dove il sergente di polizia Robert Younger ha detto che gli agenti sono liberi di utilizzarlo su qualsiasi tipo di rapporto, anche se hanno scoperto che non funziona bene nelle pattuglie del distretto dei bar del centro città a causa di una “quantità schiacciante di rumore.”

Oltre all’uso dell’IA per analizzare e riassumere le registrazioni audio, Axon ha sperimentato la visione artificiale per riassumere ciò che viene “visto” nelle riprese video, prima di rendersi conto rapidamente che la tecnologia non era pronta.

“Date tutte le sensibilità legate alla polizia, alla razza e ad altre identità delle persone coinvolte, penso che ci sarà molto lavoro da fare prima di introdurla,” ha detto Smith, CEO di Axon, descrivendo alcune delle risposte testate come non “esplicitamente razziste” ma insensibili in altri modi.

Questi esperimenti hanno portato Axon a concentrarsi esclusivamente sull’audio nel prodotto presentato ad aprile durante la conferenza annuale dell’azienda per i funzionari di polizia.

La tecnologia si basa sullo stesso modello di intelligenza artificiale generativa che alimenta ChatGPT, sviluppato dalla OpenAI di San Francisco. OpenAI è un partner commerciale stretto di Microsoft, che è il fornitore di cloud computing di Axon.

“Usiamo la stessa tecnologia di base di ChatGPT, ma abbiamo accesso a più controlli e regolazioni rispetto a un normale utente di ChatGPT,” ha detto Noah Spitzer-Williams, che gestisce i prodotti di IA di Axon. Abbassare il “livello di creatività” aiuta il modello a concentrarsi sui fatti, in modo che “non esageri o allucini come farebbe se si usasse semplicemente ChatGPT da solo,” ha detto.

Axon non dice quanti dipartimenti di polizia stiano utilizzando la tecnologia. Non è l’unico fornitore, con startup come Policereports.ai e Truleo che offrono prodotti simili. Ma dato il rapporto stretto di Axon con i dipartimenti di polizia che acquistano i suoi Taser e le videocamere corporee, esperti e funzionari di polizia si aspettano che i rapporti generati dall’IA diventino più diffusi nei prossimi mesi e anni.

Prima che ciò accada, lo studioso di diritto Andrew Ferguson vorrebbe vedere una discussione pubblica più ampia sui benefici e i potenziali danni. Per esempio, i modelli linguistici di grandi dimensioni che alimentano i chatbot IA sono inclini a inventare informazioni false, un problema noto come “allucinazione” che potrebbe aggiungere false informazioni convincenti e difficili da notare in un rapporto di polizia.

“Sono preoccupato che l’automazione e la facilità della tecnologia possano portare gli agenti di polizia a essere meno attenti nella scrittura,” ha detto Ferguson, professore di diritto all’American University, che sta lavorando a quello che si prevede sarà il primo articolo di revisione legale su questa tecnologia emergente.

Ferguson ha detto che un rapporto di polizia è importante per determinare se il sospetto di un agente “giustifica la perdita della libertà di una persona.” A volte è l’unica testimonianza che un giudice vede, specialmente per i reati minori.

Anche i rapporti di polizia redatti dagli esseri umani hanno dei difetti, ha detto Ferguson, ma è una questione aperta su quale sia più affidabile.

Fonte: https://apnews.com/article/ai-writes-police-reports-axon-body-cameras-chatgpt-a24d1502b53faae4be0dac069243f418#

Articolo prodotto con il supporto di ChatGPT