Intelligenza artificiale (AI), cos’è, come funziona, le applicazioni

Artificial intelligence: storia, i vari tipi, le applicazioni. Cos’è il machine learning e quali applicazioni trova. Il boom dell’AI generativa. Il quadro di regolamentazione dell’AI in Italia e in Europa.

Cos’è l’intelligenza artificiale? Potremmo definire l’intelligenza artificiale come l’abilità di un sistema tecnologico di risolvere problemi o svolgere compiti e attività tipici della mente e dell’abilità umane. Guardando al settore informatico, potremmo identificare l’AI – artificial intelligence come la disciplina che si occupa di realizzare macchine (hardware e software) in grado di “agire” autonomamente (risolvere problemi, compiere azioni, ecc.).

Cos’è l’intelligenza artificiale (AI), definizione

L’intelligenza artificiale è una disciplina dell’informatica che si occupa di creare macchine in grado di imitare le capacità dell’intelligenza umana attraverso lo sviluppo di algoritmi che consentono di mostrare attività intelligente.

Il fermento attuale attorno a questa disciplina si spiega con la maturità tecnologica raggiunta sia nel calcolo computazionale (oggi ci sono sistemi hardware molto potenti, di ridotte dimensioni e con bassi consumi energetici), sia nella capacità di analisi in real-time ed in tempi brevi di enormi quantità di dati e di qualsiasi forma (Analytics).

Nella sua accezione puramente informatica, l’intelligenza artificiale potrebbe essere classificata come la disciplina che racchiude le teorie e le tecniche pratiche per lo sviluppo di algoritmi che consentano alle macchine (in particolare ai ‘calcolatori’) di mostrare attività intelligente, per lo meno in specifici domini e ambiti applicativi.

Già da questo primo tentativo di definizione è evidente che bisognerebbe attingere ad una classificazione formale delle funzioni sintetiche/astratte di ragionamento, meta-ragionamento e apprendimento dell’uomo per poter costruire su di essi dei modelli computazionali in grado di concretizzare tali forme di ragionamento e apprendimento (compito arduo dato che ancora oggi non si conosce a fondo il reale funzionamento del cervello umano).

Non solo, quando si parla di capacità di ragionamento e apprendimento automatico sulla base dell’osservazione spesso si incappa nell’alveo del Cognitive Computing che va però inteso come l’insieme della piattaforme tecnologiche basate sulle discipline scientifiche dell’intelligenza artificiale (tra cui Machine LearningDeep Learning) e il Signal Processing (la capacità di elaborare i segnali).

La storia dell’intelligenza artificiale: dalle reti neurali degli anni ’50 a oggi

L’interesse della comunità scientifica per l’intelligenza artificiale ha inizio da molto lontano: il primo vero progetto di artificial intelligence (ormai nota con l’acronimo AI) risale al 1943 quando i due ricercatori Warren McCulloch e Walter Pitt proposero al mondo scientifico il primo neurone artificiale cui seguì poi nel 1949 il libro di Donald Olding Hebb, psicologo canadese, grazie al quale vennero analizzati in dettaglio i collegamenti tra i neuroni artificiali ed i modelli complessi del cervello umano.

Il termine artificial intelligence in realtà parte “ufficialmente” dal matematico statunitense John McCarthy (nel 1956) e con esso il “lancio” dei primi linguaggi di programmazione (Lisp nel 1958 e Prolog nel 1973) specifici per l’AI. Da lì in poi la storia dell’intelligenza artificiale è stata abbastanza altalenante caratterizzata da avanzate significative dal punto di vista dei modelli matematici (sempre più sofisticati modellati per “imitare” alcune funzionalità cerebrali come il riconoscimento di pattern) ma con alti e bassi dal punto di vista della ricerca sull’hardware e sulle reti neurali.

L’invenzione del “percettrone”

Guardando un po’ alla storia passata, è alla fine degli anni ’50 che risale il primo modello di rete neurale: si trattava del cosiddetto “percettrone”, proposto nel 1958 da Frank Rosenblatt (noto psicologo e computer scientist americano), una rete con uno strato di ingresso e uno di uscita e una regola di apprendimento intermedia basata sull’algoritmo ‘error back-propagation’ (minimizzazione degli errori); la funzione matematica, in sostanza, in base alla valutazione sui dati effettivi in uscita – rispetto a un dato ingresso – altera i pesi delle connessioni (sinapsi) provocando una differenza tra l’uscita effettiva e quella desiderata.

Alcuni esperti del settore fanno risalire proprio al percettrone di Rosenblatt la nascita della cibernetica e dell’intelligenza artificiale [Artificial Intelligence – AI: il termine in realtà fu coniato nel 1956 dal matematico statunitense John McCarthy, ed è del 1950 il primo assunto di Alan Turing nel quale spiega come un computer possa comportarsi come un essere umano – ndr], anche se negli anni immediatamente successivi i due matematici Marvin Minsky e Seymour Papert dimostrarono i limiti del modello di rete neurale di Rosenblatt: il percettrone era in grado di riconoscere, dopo opportuno “addestramento” solo funzioni linearmente separabili (attraverso il training set – l’algoritmo di apprendimento – nello spazio vettoriale degli input, si riescono a separare quelli che richiedono un output positivo da quelli che richiedono un output negativo); inoltre, le capacità computazionali di un singolo percettrone erano limitate e le prestazioni fortemente dipendenti sia dalla scelta degli input sia dalla scelta degli algoritmi attraverso i quali ‘modificare’ le sinapsi e quindi gli output.

I due matematici Minsky e Papert intuirono che costruire una rete a più livelli di percettroni avrebbe potuto risolvere problemi più complessi ma in quegli anni la crescente complessità computazionale richiesta dall’addestramento delle reti mediante gli algoritmi non aveva ancora trovato una risposta sul piano infrastrutturale (non esistevano sistemi hardware in grado di ‘reggere’ tali operazioni).

La svolta tecnologica degli anni Ottanta e Novanta

La prima svolta importante dal punto di vista tecnologico arriva tra la fine degli anni ’70 e il decennio degli anni ’80 con lo sviluppo delle Gpu che hanno ridotto notevolmente i tempi di addestramento delle reti, abbassandoli di 10/20 volte.

Negli anni ’90 si assiste a un ulteriore progresso con l’ingresso sul mercato “allargato” (arrivando cioè al grande pubblico) dei processori grafici, le Gpu – graphics processing unit (chip di elaborazione dati molto più veloci delle Cpu, provenienti dal mondo del gaming ed in grado di supportare processi complessi molto più rapidamente, per altro operando a frequenze più basse e consumando meno energia rispetto alle “vecchie” Cpu).

L’ondata più recente è arrivata nell’ultimo decennio con lo sviluppo dei cosiddetti chip neuromorfici, ossia microchip che integrano elaborazione dati e storage in un unico micro componente (grazie all’accelerazione che ha avuto anche la ricerca nel campo delle nanotecnologie) per emulare le funzioni sensoriali e cognitive del cervello umano (ambito quest’ultimo dove si stanno concentrando anche molte startup).

Tipi di intelligenza artificiale

Già da questo rapidissimo “viaggio storico” si intuisce che dare una definizione esatta di intelligenza artificiale è un compito arduo ma, analizzandone le evoluzioni, siamo in grado di tracciarne i contorni e quindi di fare alcune importanti classificazioni.

Intelligenza artificiale debole e forte: cosa sono e in cosa si distinguono

Prendendo come base di partenza il funzionamento del cervello uomo (pur sapendo che ancora oggi non se ne comprende ancora a fondo l’esatto meccanismo), una intelligenza artificiale dovrebbe saper compiere in alcune azioni/funzioni tipiche dell’uomo:

  • agire umanamente (cioè in modo indistinto rispetto a un essere umano);
  • pensare umanamente (risolvendo un problema con funzioni cognitive);
  • pensare razionalmente (sfruttando cioè la logica come fa un essere umano);
  • agire razionalmente (avviando un processo per ottenere il miglior risultato atteso in base alle informazioni a disposizione, che è ciò che un essere umano, spesso anche inconsciamente, fa d’abitudine).

Queste considerazioni sono di assoluta importanza perché permettono di classificare l’AI in due grandi “filoni” di indagine/ricerca/sviluppo in cui per altro la comunità scientifica si è trovata concorde, quello dell’AI debole e dell’AI forte:

AI debole (weak AI)

Identifica sistemi tecnologici in grado di simulare alcune funzionalità cognitive dell’uomo senza però raggiungere le reali capacità intellettuali tipiche dell’uomo (parliamo di programmi matematici di problem-solving con cui si sviluppano funzionalità per la risoluzione dei problemi o per consentire alle macchine di prendere decisioni);

AI forte (strong AI)

In questo caso si parla di “sistemi sapienti” (alcuni scienziati si spingono a dire addirittura “coscienti di sé”) che possono quindi sviluppare una propria intelligenza senza emulare processi di pensiero o capacità cognitive simili all’uomo ma sviluppandone una propria in modo autonomo.

Machine learning e Deep learning, cosa sono

La classificazione AI debole e AI forte sta alla base della distinzione tra Machine learning e Deep learning, due ambiti di studio che rientrano nella più ampia disciplina dell’intelligenza artificiale che meritano un po’ di chiarezza, dato che ne sentiremo parlare sempre più spesso nei prossimi anni.

Dopo le opportune chiarificazioni, possiamo ora spingerci a definire l’intelligenza artificiale come la capacità delle macchine di svolgere compiti e azioni tipici dell’intelligenza umana (pianificazione, comprensione del linguaggio, riconoscimento di immagini e suoni, risoluzione di problemi, riconoscimento di pattern, ecc.), distinguibile in AI debole e AI forte.

Ciò che caratterizza l’intelligenza artificiale da un punto di vista tecnologico e metodologico è il metodo/modello di apprendimento con cui l’intelligenza diventa abile in un compito o azione. Questi modelli di apprendimento sono ciò che distinguono Machine learning e Deep learning.

Come funziona l’intelligenza artificiale

Ciò che abbiamo visto finora è il funzionamento tecnologico dell’intelligenza artificiale (IA). Dal punto di vista delle abilità intellettuali, il funzionamento di una AI si sostanzia principalmente attraverso quattro differenti livelli funzionali:

  • comprensione: attraverso la simulazione di capacità cognitive di correlazione dati ed eventi l’AI (artificial intelligence) è in grado di riconoscere testi, immagini, tabelle, video, voce ed estrapolarne informazioni;
  • ragionamento: mediante la logica i sistemi riescono a collegare le molteplici informazioni raccolte (attraverso precisi algoritmi matematici e in modo automatizzato);
  • apprendimento: in questo caso parliamo di sistemi con funzionalità specifiche per l’analisi degli input di dati e per la loro “corretta” restituzione in output (è il classico esempio dei sistemi di Machine Learning che con tecniche di apprendimento automatico portano le AI a imparare e a svolgere varie funzioni);
  • interazione (Human Machine Interaction): in questo caso ci si riferisce alle modalità di funzionamento dell’AI in relazione alla sua interazione con l’uomo. È qui che stanno fortemente avanzando i sistemi di NLP – Natural Language Processing, tecnologie che consentono all’uomo di interagire con le macchine (e viceversa) sfruttando il linguaggio naturale.

Esempi di intelligenza artificiale

Le Over The Top come FacebookGoogleAmazonApple e Microsoft stanno battagliando non solo per portare al proprio interno startup innovative nel campo dell’AI ma anche per avviare ed alimentare progetti di ricerca di cui già oggi vediamo alcuni frutti (come il riconoscimento delle immagini, dei volti, le applicazioni vocali, le traduzioni linguistiche, ecc.).

Oggi la maturità tecnologica ha fatto sì che l’intelligenza artificiale uscisse dall’alveo della ricerca per entrare di fatto nella vita quotidiana. Se come consumatori ne abbiamo importanti “assaggi” soprattutto grazie a Google e Facebook, nel mondo del business la maturità (e la disponibilità) delle soluzioni tecnologiche ha portato la potenzialità dell’AI in molti segmenti.

Questi quelli più in fermento in questo momento:

Vendite

L’intelligenza artificiale applicata alle vendite ha già dimostrato importanti risultati, in particolare grazie all’utilizzo di sistemi esperti [applicazioni che rientrano nella branca dell’intelligenza artificiale perché riproducono le prestazioni di una persona esperta di un determinato dominio di conoscenza o campo di attività – ndr].

Le soluzioni che al loro interno integrano sistemi esperti permettono agli utenti (anche non esperti) di risolvere problemi particolarmente complessi per i quali servirebbe necessariamente l’intervento di un essere umano esperto dello specifico settore, attività o dominio di conoscenza ove si presenta il problema.

In parole semplici, sono sistemi che permettono alle persone di trovare una soluzione ad un problema anche senza richiedere l’intervento di un esperto.

Dal punto di vista tecnologico, i sistemi esperti consentono di mettere in atto, in modo automatico, delle procedure di inferenza (ossia di logica: con un processo induttivo o deduttivo si giunge ad una conclusione a seguito dell’analisi di una serie di fatti o circostanze).

In particolare i cosiddetti sistemi esperti basati su regole sfruttano i principi molto noti nell’informatica IF-THEN dove If è la condizione e Then l’azione (se si verifica una determinata condizione, allora avviene una certa azione).

Il perché i sistemi esperti rientrano nella branca dell’intelligenza artificiale anziché nell’alveo dei normali programmi software sta nel fatto che dati una serie di fatti, i sistemi esperti, grazie alle regole di cui sono composti, riescono a dedurre nuovi fatti.

Questi sistemi risultano particolarmente performanti e adatti ai configuratori commerciali (soluzioni utilizzate dalle Vendite in business model dove la proposta risulta particolarmente complessa per la natura stessa dei prodotti commercializzati, per le combinazioni possibili delle soluzioni, per le variabili che incidono sul risultato finale e, quindi, sulla realizzazione stessa del prodotto ed il suo prezzo).

In generale, un configuratore di prodotto deve assolvere il compito di semplificazione nella scelta di un bene da acquistare; processo non sempre immediato quando le variabili in gioco sono numerose (dimensionamento, numero elevato di componenti, utilizzo di materiali particolari, combinazione tra materie prime e materiali vari con conseguenti impatti sulle proprietà fisiche, meccaniche o chimiche, ecc.).

Quando a dover essere configurati sono prodotti che vanno calati in progetti complessi (pensiamo agli impianti manifatturieri oppure a sistemi e macchinari che devono operare in particolari condizioni climatiche o ambienti industriali “critici”), i configuratori di prodotto devono essere “esperti ed intelligenti” al punto da mettere gli utenti in condizioni di cercare, individuare, valutare e richiedere in autonomia quello che serve, senza ricorrere all’esperto tecnico.

È proprio qui che i sistemi esperti – come quelli sviluppati da Myti – esprimono al meglio il loro potenziale.

DECLARO, per esempio, è un “rule engine” (motore di regole) che permette al configuratore di prodotto di proporre all’utente non esperto le domande giuste, alle cui risposte seguono altre domande corrette.

L’accumularsi di esperienze (tra domande e risposte) non solo accelera e rende più efficace la configurazione della soluzione adatta alle proprie esigenze, ma diventa anche un sistema di knowledge base aziendale che si arricchisce in continuazione.

Nella soluzione messa a punto da Myti il “motore” di domande e risposte si presenta come comune interfaccia web. Le regole If-Than sono costruite a monte dall’esperto di dominio ma il sistema è poi in grado di fare delle domande a un utente non esperto e in base alle risposte – accedendo alla conoscenza dell’esperto che ha definito le regole – fare altre domande che aiutano l’utente (per esempio il venditore) alla scelta e poi alla configurazione di un prodotto complesso o una articolata proposta commerciale.

Marketing

Assistenti vocali/virtuali (chatbot, Siri di Apple, Cortana di Microsoft, Alexa di Amazon) che sfruttano l’intelligenza artificiale sia per il riconoscimento del linguaggio naturale sia per l’apprendimento e l’analisi delle abitudini e dei comportamenti degli utenti; analisi in real-time di grandi moli di dati per la comprensione del “sentiment” e delle esigenze delle persone per migliorare customer care, user experience, servizi di assistenza e supporto ma anche per creare e perfezionare sofisticati meccanismi di ingaggio con attività che si spingono fino alla previsione dei comportamenti di acquisto da cui derivare strategie di comunicazione e/o proposta di servizi.

L’AI nel Marketing sta mostrando da qualche anni tutta la sua massima potenza e l’area di impiego maggiore è sicuramente quella della gestione della relazione con gli utenti.

Artificial Intelligence Marketing (AIM), algoritmi per persuadere le persone

Da diversi anni è nata una vera e propria disciplina, l’Artificial Intelligence Marketing (AIM), una branca del Marketing che sfrutta le più moderne tecnologie che rientrano nell’ambito dell’intelligenza artificiale, come Machine Learning e Nlp – Natural Language Processing, integrate a tecniche matematiche/statistiche (come quelle delle reti bayesiane) e di Marketing comportamentale (behavioral targeting).

Si tratta, in concreto, dell’utilizzo degli algoritmi di intelligenza artificiale e Machine learning con l’obiettivo di persuadere le persone a compiere un’azione, acquistare un prodotto o accedere ad un servizio (in altre parole, rispondere ad una “call to action”)

Aggregazione e analisi dei dati (anche quelli destrutturati e basati su linguaggio naturale) in un processo continuo di apprendimento e miglioramento per identificare di volta in volta le azioni, le strategie e le tecniche di comunicazione e vendita probabilisticamente più efficaci (quelle che hanno il potenziale più elevato di efficacia/successo per singoli target di utenti). È questo, in sostanza, quello che fa l’AIM

Sanità

L’AI ha avuto il pregio di migliorare molti sistemi tecnologici già in uso da persone con disabilità (per esempio i sistemi vocali sono migliorati al punto da permettere una relazione/comunicazione del tutto naturale anche a chi non è in grado di parlare) ma è sul fronte della diagnosi e cura di tumori e malattie rare che si potranno vedere le nuove capacità dell’AI.

Già oggi sono disponibili sul mercato sistemi cognitivi in grado di attingere, analizzare e apprendere da un bacino infinito di dati (pubblicazioni scientifiche, ricerca, cartelle cliniche, dati sui farmaci, ecc.) ad una velocità inimmaginabile per l’uomo, accelerando processi di diagnosi spesso molto critici per le malattie rare o suggerendo percorsi di cura ottimali in caso di tumori o malattie particolari.

Non solo, gli assistenti virtuali basati su AI iniziando a vedersi con maggiore frequenza nelle sale operatorie, a supporto del personale di accoglienza o di chi offre servizi di primo soccorso.

Cybersecurity

La prevenzione delle frodi è una delle applicazioni più mature dove l’intelligenza artificiale si concretizza con quelli che tecnicamente vengono chiamati “advanced analytics”, analisi molto sofisticate che correlano dati, eventi, comportamenti ed abitudini per capire in anticipo eventuali attività fraudolente (come la clonazione di una carta di credito o l’esecuzione di una transazione non autorizzata); questi sistemi possono in realtà trovare applicazione anche all’interno di altri contesti aziendali, per esempio per la mitigazione dei rischi, la protezione delle informazioni e dei dati, la lotta al cybercrime.

Supply chain

L’ottimizzazione e la gestione della catena di approvvigionamento e di distribuzione richiede ormai analisi sofisticate e, in questo caso, l’AI è il sistema efficace che permette di connettere e monitorare tutta la filiera e tutti gli attori coinvolti; un caso molto significativo di applicazione dell’intelligenza artificiale al settore del Supply chain management è relativo alla gestione degli ordini (in questo caso le tecnologie che sfruttano l’intelligenza artificiale non solo mirano alla semplificazione dei processi ma anche alla totale integrazione di essi, dagli acquisti fino all’inventario, dal magazzino alle vendite fino ad arrivare addirittura all’integrazione con il marketing per la gestione preventiva delle forniture in funzione delle attività promozionali o della campagne di comunicazione).

Sicurezza pubblica

La capacità di analizzare grandissime quantità di dati in tempo reale e di “dedurre” attraverso correlazioni di eventi, abitudini, comportamenti, attitudini, sistemi e dati di geo-localizzazione e monitoraggio degli spostamenti di cose e persone offre un potenziale enorme per il miglioramento dell’efficienza e dell’efficacia della sicurezza pubblica.

Per esempio, per la sicurezza e la prevenzione dei crimini in aeroporti, stazioni ferroviarie e città metropolitane oppure per la prevenzione e la gestione della crisi in casi di calamità naturali come terremoti e tsunami.

GPT-3, l’AI che scrive testi

Nel corso del 2020, l’azienda OpenAI, ha presentato il sistema GPT-3, un potente “strumento intelligente” per la produzione di testi. Basato su tecniche di pre-training senza supervisione nello sviluppo di sistemi Natural Language Processing. GPT-3 è un “generatore di linguaggio” ed è in grado di scrivere articoli e saggi in totale autonomia.

GPT-3 è stato preceduto da GPT-2, che era già in grado di scrivere testi in una gamma di stili diversi a seconda della frase inserita come input. Per capire la differenza fra i due sistemi basti pensare che GPT-3 ha 175 miliardi di “parametri”, cioè i valori che la rete neurale utilizzata nel modello ottimizza durante l’addestramento), mentre GPT-2 ne ha “appena” 1,5 miliardi.

Novembre 2022: arriva la rivoluzione di ChatGPT

ChatGPT è un chatbot, un nuovo modello linguistico di grandi dimensioni, ma può anche essere utilizzato per eseguire il debug di codice. Lo ha sviluppato ancora una volta OpenAI, l’azienda che ha già prodotto AlphaFold e GPT-3.

OpenAI è sostenuta da Microsoft. Il formato di dialogo del modello consente a ChatGPT di rispondere a domande di follow-up, ammettere i propri errori, sfidare premesse errate e rifiutare richieste inappropriate.

ChatGPT (Chat Generative Pretrained Transformer) è un modello di pari livello di InstructGPT, rilasciato a gennaio 2022 e progettato per fornire una risposta dettagliata a un’istruzione in un prompt.

A ottobre 2023 OpenAI ha aggiornato ChatGPT

Ora è in grado di riassumere e analizzare i documenti caricati.

Gli abbonati a ChatGPT Plus e a ChatGPT for Enterprise possono inserire PDF, file di dati o “qualsiasi altro documento” per l’analisi. Grazie alle nuove capacità di gestione dei documenti si riduce il divario con il chatbot rivale Claude.

GPT-4V: come è fatto il modello di AI che sta dietro la multimodalità di ChatGPT

GPT-4V debutta a ottobre 2023, con una “capacità senza precedenti di elaborare input multimodali interlacciati in modo arbitrario”. Può contare oggetti, analizzare tabelle e testi, eseguire l’apprendimento nel contesto ed è condizionato dal codice su input visivi. Accessibile tramite ChatGPT sul desktop o sulla versione dell’app per iOS per gli abbonati Plus o Enterprise.

DALL-E, dalle parole alle immagini

Ancora l’azienda OpenAI ha rilasciato nella seconda metà del 2020 un nuovo modello di intelligenza artificiale: DALL-E. Il sistema è capace di produrre immagini da descrizioni testuali esprimibili in linguaggio naturale, sulla base di un input di testo o testo + immagine, ottenendo in uscita una immagine artificiale. Il nome trae origine dal pittore Salvador Dalì e dal robot cinematografico WALL-E ed è una variante del modello GPT-3.

LaMDA di Google e Wav2vec-U di Facebook

Ai sistemi GPT di OpenAI hanno fatto seguito i modelli di linguaggio naturale LaMDA di Google e Wav2vec-U di Facebook. LaMDA (acronimo di “Language Model for Dialogue Applications”), è basato (come BERT e GPT-3) su tecnologia Transformer e nasce dall’intento di Google di comprendere meglio le intenzioni degli utenti quando fanno una ricerca sul web.

Wav2vec-U è invece un metodo per creare sistemi di riconoscimento del parlato senza il bisogno di avere trascrizioni sulle quali addestrare il modello.

Deep face: “questa persona non esiste”

ThisPersonDoesNotExist.com è un sito che, utilizzando le reti neurali, generare volti falsi, ossia del tutto inventati. Creato da Philip Wang, autore del software di Uber, il sito utilizza un algoritmo StyleGAN sviluppato dalla NVIDIA Corporation, una rete neurale di tipo GAN (Generative Adversarial Network).

Deep Nostalgia, far rivivere il passato

Sulla scia di deep face, ai primi del 2021 è apparso un nuovo sistema basato su AI chiamato “Deep Nostalgia”, opera dell’azienda My Heritage. Si tratta di un software che “anima” foto di persone, facendole come “rivivere”. Deep Nostalgia utilizza una tecnica di computer vision chiamata Face Alignment, basata su deep neural networks.

Copilot, il software che scrive software

Gli sviluppatori di software di GitHub (Microsoft) hanno sviluppato Copilot, un software che aiuta gli sviluppatori a gestire e archiviare i codici, ossia un programma che utilizza l’intelligenza artificiale per assistere gli stessi sviluppatori. Ad esempio, si digita una query di comando e Copilot indovina l’intento del programmatore, scrivendo il resto.

Shopping assistance robot

Sta prendendo sempre più piede l’utilizzo dei robot nel settore delle vendite. Tra le loro funzioni: assistenza del cliente alla cassa, rispondere alle domande degli acquirenti circa l’ubicazione degli articoli e assisterli nella scelta. Inoltre, pulire i pavimenti e consegnare i prodotti a domicilio.

Intelligenza artificiale e Agenda Digitale in Italia

L’intelligenza artificiale è da tempo sui tavoli di lavoro dell’AgID ed è uno dei temi ampiamente dibattuti e studiati nell’ambito dell’Agenda Digitale Italiana per comprendere come la diffusione di nuovi strumenti e tecnologie di IA possa incidere nella costruzione di un nuovo rapporto tra Stato e cittadini e analizzare le conseguenti implicazioni sociali relative alla creazione di ulteriori possibilità di semplificazione, informazione e interazione.

Proprio seguendo questo “filone” è stata creata in Italia una Task Force, all’interno di AgID, i cui componenti hanno il compito di:

– studiare e analizzare le principali applicazioni relative alla creazione di nuovi servizi al cittadino, definendo le strategie di gestione delle opportunità per la Pubblica Amministrazione;

– mappare a livello italiano i principali centri – universitari e non – che operano nel settore dell’intelligenza artificiale con riferimento all’applicazione operativa nei servizi al cittadino;

– mappare il lavoro già avviato da alcune amministrazioni centrali e locali proponendo azioni da intraprendere per l’elaborazione di policy strategiche;

– evidenziare e studiare le implicazioni sociali legate all’introduzione delle tecnologie di intelligenza artificiale nei servizi pubblici.

Lo stato dell’arte delle normative sull’intelligenza artificiale

Italia

Nell’ottobre 2020 il governo italiano ha pubblicato la bozza di Strategia nazionale per l’Intelligenza Artificiale, basata sulle proposte avanzate a luglio da un gruppo di esperti. Il punto principale della Strategia è la formazione. L’ecosistema italiano dell’AI si basa su:

  • ricerca e trasferimento tecnologico;
  • produzione;
  • adozione.

L’Italia, inoltre, fa parte della Global Partnership on AI (GPAI), iniziativa internazionale che lo scopo di favorire lo sviluppo responsabile dell’intelligenza artificiale per garantire il rispetto dei diritti umani, dell’inclusione e della diversità.

Europa

Il 21 aprile 2021 la Commissione Europea ha presentato una bozza di Regolamento sull’intelligenza artificialeregole che saranno applicate direttamente e nello stesso modo in tutti gli Stati membri e che seguono un approccio basato sul rischiomaggiore il rischio, maggiori le regole. Per le aziende che non rispetteranno queste regole saranno previste multe fino al 6% del fatturato.

Nel marzo 2022 la Commissione per il mercato interno e la protezione dei consumatori del Parlamento Europeo, oltre che della Commissione per le libertà civili, la giustizia e gli affari interni, ha pubblicato una relazione congiunta contenente delle raccomandazioni inerenti alla proposta di Regolamento sull’Intelligenza Artificiale.

Lavoro e intelligenza artificiale: presente e futuro

Quando si parla di intelligenza artificiale non si può non toccare aspetti etici e sociali come quelli legati al lavoro e all’occupazione dato che i timori nella comunità globale crescono.

Timori giustificati se si pensa che la metà delle attività lavorative di oggi potrebbe essere automatizzata entro il 2055.

Qualsiasi tipo di lavoro è soggetto a una automazione parziale ed è partendo da questa considerazione che nel report A Future That Works: Automation, Employment and Productivity, realizzato da McKinsey Global Institute – MGI (un report di 148 pagine, disponibile sul sito del World Economic Forum di Davos, dove è stato ufficialmente presentato nello scorso gennaio), si stima che circa la metà dell’attuale forza lavoro possa essere impattata dall’automazione grazie alle tecnologie già note e in uso oggi.

In realtà a mettere un freno ai timori che da mesi spopolano via web e social sulla responsabilità dell’intelligenza artificiale nel “distruggere” posti di lavoro arrivano diversi studi. Di seguito segnaliamo quelli più significativi:

  • secondo lo studio di Capgemini intitolato “Turning AI into concrete value: the successful implementers’ toolkit” l’83% delle imprese intervistate conferma la creazione di nuove posizioni all’interno dell’azienda, inoltre, i tre quarti delle società intervistate hanno registrato un aumento delle vendite del 10% proprio in seguito all’implementazione dell’intelligenza artificiale;
  • un recente report di The Boston Consulting Group e MIT Sloan Management Review dimostra che la riduzione della forza lavoro è temuta solo da meno della metà dei manager (47%), convinti invece delle potenzialità (l’85% degli interpellati pensa che permetterà alle aziende di guadagnare e mantenere un vantaggio competitivo).
  • il report pubblicato a settembre 2023 dal World Economic Forum, in collaborazione con Accenture, intitolato “Jobs of Tomorrow: Large Language Models and Job” si concentra specificamente sugli LLMs e sulle attività che possono svolgere, offrendo un approccio strutturato per comprendere l’impatto diretto degli LLMs su lavori specifici.
  • Secondo il Future of Jobs Report 2023 pubblicato nel 2023 dal World Economic Forum, si prevede che il 23% dei lavori a livello globale subirà cambiamenti nei prossimi cinque anni. Un elemento chiave di questa trasformazione è l’emergere dell’intelligenza artificiale generativa, in particolare i Large Language Models. Le professioni che mostrano una maggiore probabilità di essere migliorate o integrate attraverso l’uso degli LLMs sono quelle che necessitano di un elevato pensiero critico e competenze nella risoluzione di problemi complessi, in particolar modo nei settori STEM (Scienza, Tecnologia, Ingegneria e Matematica). Le professioni con la più alta probabilità di automazione attraverso gli LLMs sono quelle caratterizzate da procedure routinarie e ripetitivecon una bassa necessità di comunicazione interpersonale: “Credit Authorizers”, “Checkers” e “Clerks” (81% delle attività automatizzate); “Management analysts” (70%), “Telemarketers” (68%), “Statistical assistants” (61%) e “Tellers” (60%). Molte figure impiegate in compiti d’ufficio, specialmente quelle legate alla gestione e registrazione delle informazioni, sono particolarmente esposte: segretarie legali e assistenti amministrativi (54%).

I rischi dell’intelligenza artificiale

Gli economisti si interrogano da tempo su quali strumenti attivare per impedire che l’evoluzione della società verso un’economia a sempre minore intensità di lavoro – la cui evoluzione è oggi accelerata dall’intelligenza artificiale – non si traduca in un impoverimento della popolazione, situazione che richiederebbe una “redistribuire” della ricchezza considerando che la maggior parte di questa verrà prodotta dalle macchine.

Alle tematiche sociali, si affiancano questioni etiche sullo sviluppo e l’evoluzione dell’intelligenza artificiale e delle nuove tecnologie.

Ci si interroga da tempo sul “potere degli algoritmi” e dei big data, domandandosi se questi segneranno la superiorità del cervello delle macchine su quello dell’uomo.

I timori (alimentati in rete da noti personaggi di spicco come Stephen Hawking ed Elon Musk) possono apparire eccessivi ma sottovalutare gli impatti dell’intelligenza artificiale potrebbe rappresentare il rischio numero uno.

A mettere in guardia dai rischi dell’intelligenza artificiale è stato, primo fra altri personaggi di spicco, il noto Stephen Hawking: «non siamo in grado di prevedere cosa riusciremo a fare quando le nostre menti saranno amplificate dall’intelligenza artificiale – ha detto il fisico durante l’ultimo Web Summit di Lisbona -.

Forse, con strumenti nuovi, riusciremo anche a rimediare a tutti i danni che stiamo provocando alla natura, e magari saremo anche in grado di trovare soluzioni definitive a povertà e malattie. Ma… è anche possibile che con la distruzione di milioni di posti di lavoro venga distrutta la nostra economia e la nostra società».

«L’intelligenza artificiale potrebbe essere il peggior evento della storia della nostra civiltà – è la visione drammatica dell’astrofisico -. Porta con sé pericoli, come potenti armi automatiche, nucleari o biologiche, addirittura abilita nuovi modi per permettere a pochi individui ed organizzazioni di opprimere e controllare moltitudini di uomini (e cose).

Dobbiamo prepararci a gestirla per evitare che questi potenziali rischi prendano forma e diventino realtà».

Sorprende anche che l’ultimo monito sia venuto proprio da un imprenditore di successo come Elon Musk. “L’intelligenza artificiale è il più grande rischio cui la nostra civilizzazione si trova a far fronte”, ha avvertito.

In particolare ha evidenziato i rischi di una guerra scatenata dai computer o una catastrofe occupazionale dovuta a decisioni basate soltanto sulle elaborazioni dell’intelligenza artificiale, unico vero pilastro dominante dell’economia del futuro capace di riservare alle macchine migliaia, forse milioni, di lavori oggi ancora gestiti agli uomini.

Intelligenza artificiale decentralizzata: cos’è e perché può essere la risposta ai problemi etici

La comunità scientifica internazionale sta lavorando da tempo alla cosiddetta superintelligenza, una intelligenza artificiale generale [la ricerca in questo campo ha come obiettivo la creazione di una AI – artificial intelligence capace di replicare completamente l’intelligenza umana; fa riferimento alla branca della ricerca dell’intelligenza artificiale forte secondo la quale è possibile per le macchine diventare sapienti o coscienti di sé, senza necessariamente mostrare processi di pensiero simili a quelli umani – ndr].

Tuttavia i rischi sono elevatissimi, soprattutto se a portare avanti la ricerca sono poche aziende in grado di dedicare ingenti risorse (economiche e di competenze) ai progetti più innovativi.

Decentralizzare l’intelligenza artificiale e fare in modo che possa essere progettata, sviluppata e controllata da una grande rete internazionale attraverso la programmazione open source è per molti ricercatori e scienziati l’approccio più sicuro per creare non solo la superintelligenza ma democratizzare l’accesso alle intelligenze artificiali, riducendo i rischi di monopolio e quindi risolvendo problemi etici e di sicurezza.

Oggi, una delle preoccupazioni maggiori in tema di intelligenza artificiale riguarda proprio l’utilizzo dei dati e la fiducia con la quale le AI sfruttano dati ed informazioni per giungere a determinate decisioni e/o compiere azioni specifiche.

La mente umana, specie quando si tratta di Deep Learning (per cui vi rimandiamo alla lettura del servizio “Cos’è il Machine Learning, come funziona e quali sono le sue applicazioni” per avere un quadro di maggior dettaglio), non è in grado di interpretare i passaggi compiuti da una intelligenza artificiale attraverso una rete neurale profonda e deve quindi “fidarsi” del risultato raggiunto da una AI senza capire e sapere come è giunta a tale conclusione.

In questo scenario, la blockchain sembra essere la risposta più rassicurante: l’uso della tecnologia blockchain consente registrazioni immutabili di tutti i dati, di tutte le variabili e di tutti i processi utilizzati dalle intelligenze artificiali per arrivare alle loro conclusioni/decisioni. Ed è esattamente ciò che serve controllare in modo semplice l’intero processo decisionale dell’AI.

Libri sull’intelligenza artificiale

“L’intelligenza artificiale non esiste”

Volume di Fabio Ferrari, edito da Il Sole 24 Ore. Con interventi di Stefano Venier, Alfonso Dolce, Alberto Calcagno, Monica Poggio, Alessandra Perrazzelli, Sabina Leonelli, Alberto Mantovani, Barbara Carfagna, Gianna Martinengo, Paolo Benanti, Luciano Floridi

“Etica dell’intelligenza artificiale – Sviluppi, opportunità, sfide”

Il volume di Luciano Floridi analizza i principali temi, filosofici ed etici, che ruotano attorno allo sviluppo e all’implementazione dell’intelligenza artificiale. Originariamente scritto in inglese, l’edizione italiana è a cura di Massimo Durante, per Raffaello Cortina Editore. Il libro è edito per la collana “Scienza e idee” da Giulio Giorello con la consulenza scientifica di Telmo Pievani  e Corrado Sinigaglia.

“Uno, nessuno, ChatGPT”

Il fenomeno dell’anno spiegato semplice. Un volume di Fiorenzo Pilla, Giulio Cupini, Massimo De Santo, Michele Di Maio, Rossella Dolce – editore Ledizioni.

2023-11-23T10:34:53+00:0023 Novembre 2023|In primo piano|

Condividi questo contenuto!

Torna in cima