È per noi un elemento di orgoglio leggere non solo che la legge sull'IA è stata recentemente approvata e sta per essere finalizzata dal Consiglio (https://www.consilium.europa.eu/it/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/), ma anche che include la creazione di un Ufficio IA.

Come elemento della politica DKTS per l'innovazione, ricordiamo un contributo proposto nel 2021 al Parlamento europeo da Gianna Martinengo come membro dell'INAB: International Advisory Board for AI: https://www.europarl.europa.eu/stoa/en/about/international-advisory-board

I sistemi di IA (e tutti i sistemi basati su computer) NON sono macchine, ma protesi umane individuali e collettive (di apprendimento). Le macchine tradizionalmente sostituiscono/migliorano/integrano l'energia umana in processi ad alta intensità energetica. La nozione classica di macchina riguarda artefatti che eseguono compiti precisi, hanno obiettivi chiari e fissi, piani e comportamenti definiti. Le loro capacità di apprendimento sono molto limitate o assenti.

I sistemi di IA (e in generale basati su computer) sostituiscono/migliorano/integrano il potere di elaborazione delle informazioni umane (e quindi anche l'energia), individualmente e collettivamente, compreso l'apprendimento dall'esperienza. Sono meta-macchine, in particolare le recenti applicazioni di Deep Learning. Essi sono molto simili ai farmaci che sostituiscono/migliorano/integrano, principalmente a livello cellulare, i processi di guarigione umana, una miscela di informazione ed energia, che imparano anche dall'esperienza.

I benefici ed i pericoli dell'IA, così come di altri sistemi basati su computer, non devono essere attribuiti alla loro anatomia (la struttura dei sistemi) o alla loro fisiologia (le funzioni che ci si augura essi riescano a realizzare), ma piuttosto agli effetti che hanno o possono avere sugli esseri umani che interagiscono, cioè gli utenti dei servizi del sistema.

Qualsiasi tentativo di regolamentare questi sistemi sarà probabilmente inutile, se non impossibile a causa della loro complessità, a meno che non si basi sugli effetti sugli utenti, non sulla struttura o sulle funzionalità. Dovrebbero quindi essere trattati legalmente come farmaci individuali e collettivi, non come macchine. La cura per la valutazione dovrebbe essere delegata ad un'agenzia/autorità tecnica (come nel caso dell'EMA) a livello europeo, basata su "prove cliniche", ovvero su sandbox regolamentari ed esperienze basate su evidenze. Queste evidenze possono anche dipendere – caso per caso – dalle popolazioni di soggetti/utenti rispetto a cui sono state valutate.

Una volta che i prodotti o servizi proposti sul mercato dai produttori sono approvati, non dovrebbero essere imposti ulteriori oneri agli utenti.

La nozione di "rischio" nei sistemi di IA è molto simile alla stessa nozione nei farmaci: non è mai un concetto "una tantum", ma dinamico, da sottoporre continuamente a valutazione empirica da parte di comitati di esperti, non da dichiarare staticamente dagli interessati sulla base di un complesso insieme di regole.

La regolamentazione dell'IA e del software deve essere delegata a un'Authority europea. La regolamentazione dei sistemi di IA dovrebbe includere qualsiasi altro software commerciale basato sull'interazione, come ad esempio i sistemi di raccomandazione, che siano basati su IA o meno. L'acquisizione di dati dagli utenti è anche una questione completamente dipendente dal contesto di utilizzo, non solo dalla struttura o dalla funzione del sistema. La regolamentazione dovrebbe essere valida anche per le applicazioni militari perché l'etica non esclude iniziative militari. Molte regole specifiche proposte, come ad esempio: "Per i sistemi di IA ad alto rischio le misure devono essere tali da garantire che, inoltre, nessuna azione o decisione sia presa dall'utente sulla base dell'identificazione risultante dal sistema a meno che ciò non sia stato verificato e confermato da almeno due persone naturali", dovrebbero essere eventualmente imposte caso per caso dall'Autorità, non richieste in astratto, senza la valutazione del contesto. La maggior parte, se non tutto, del lavoro enorme e prezioso svolto per questa iniziativa normativa potrebbe essere riutilizzato quando dovesse diventare una linea guida per un'Agenzia europea. Gli sviluppatori di applicazioni che sottoporranno i loro nuovi prodotti e servizi a questa approvazione centralizzata dovrebbero essere fortemente incoraggiati da incentivi e i loro certificati di conformità garantirebbero priorità in tutti i possibili contesti di utilizzo all'interno dell'Unione.

Contributo di Gianna Martinengo all'AI Act in qualità di membro di STOA International Advisory Board, 24/06/2021

Gianna Martinengo

Gianna Martinengo
CEO DKTS
Membro dell’International Advisory Board di STOA
Membro del Board Innovazione Tecnologica – Trasformazione Digitale, Comune di Milano
Coordinatrice del Comitato Scientifico, MUSA Scarl
Membro del Comitato Scientifico, UNISALUTE
Fondatrice e Presidente di Women&Tech® ETS

(per maggiori dettagli sul CV, vedi: https://www.didaelkts.it/gianna-martinengo)