AI_regole_Reply

AI, perché l’Ue deve coinvolgere le aziende

L’intelligenza Artificiale (AI) sta rapidamente trasformando il settore industriale manifatturiero. Le aziende del settore stanno investendo nell’AI per migliorare l’efficienza, la produttività, la qualità di prodotto-processo e introdurre nuovi prodotti e servizi. Il regolamento quadro dell’Unione europea sull’AI (AI Act) ha un impatto importante sul Manifatturiero e stabilisce un quadro normativo per la tecnologia che tiene conto dei diversi livelli di rischio associati a essa. Questo classifica i sistemi di AI in tre categorie in base al livello di rischio che presentano: alto, moderato e basso .

I sistemi di AI ad alto rischio presentano un rischio significativo per la sicurezza pubblica o la salute dei lavoratori. Questi sistemi sono soggetti a una serie di requisiti aggiuntivi, tra cui la valutazione d’impatto sui diritti fondamentali, l’obbligo di nominare un responsabile dell’AI e la possibilità di un divieto dell’uso del sistema da parte delle autorità pubbliche. Nel contesto industriale manifatturiero, i sistemi di AI ad alto rischio includono: quelli utilizzati per automatizzare attività pericolose, come la manutenzione predittiva di macchinari analizzando dati di efficienza di impianto o la movimentazione di merci; quelli utilizzati per prendere decisioni che possono avere un impatto sulla salute o la sicurezza dei lavoratori, come la prevenzione di incidenti sul lavoro, l’assegnazione di compiti od il monitoraggio di comportamenti pericolosi.

I sistemi di AI a rischio moderato comportano un rischio potenziale per la sicurezza pubblica o la salute dei lavoratori. Questi sistemi sono soggetti a una serie di requisiti, tra cui la trasparenza e la responsabilità. Nel contesto industriale manifatturiero, i sistemi di AI a rischio moderato includono: quelli utilizzati per analizzare dati di produzione, come i dati di qualità o i dati di consumo energetico; quelli utilizzati per la personalizzazione dei prodotti o i servizi, come la raccomandazione di prodotti o la personalizzazione di campagne di marketing. Questi sistemi dovrebbero essere trasparenti in modo che gli operatori possano comprendere come funzionano e siano responsabilizzati, affinché siano ritenuti responsabili delle loro azioni.

I sistemi di AI a basso rischio non presentano un rischio significativo per la sicurezza pubblica o la salute dei lavoratori. Questi sistemi non sono soggetti a requisiti aggiuntivi. Nel contesto industriale manifatturiero, i sistemi di AI a basso rischio includono: quelli utilizzati per automatizzare attività ripetitive o noiose come, per esempio, l’imballaggio di un prodotto; quelli utilizzati per migliorare l’efficienza dei processi produttivi, come la pianificazione della produzione o la gestione delle scorte.

Serve il coinvolgimento delle aziende nelle scelte

In conclusione, il regolamento Ue richiede che i sistemi di AI ad alto rischio siano progettati e implementati in modo sicuro e che quelli a rischio moderato siano trasparenti e responsabili. Il compito della Commissione europea è ora quello di lavorare alla definizione delle metriche e specifiche per misurare la trasparenza, la responsabilità e la sicurezza dei sistemi di AI in modo oggettivo e uniforme. È importante notare che il regolamento europeo è concepito per essere un quadro normativo flessibile che può essere adattato alle esigenze specifiche delle diverse industrie

La competizione con Paesi nei quali l’AI non è regolamentata è un aspetto che andrà tenuto in considerazione nel momento stesso in cui verranno definite le regole di applicazione della norma. Lo stesso discorso vale per l’ostacolo all’innovazione che alcuni sostengono derivi dall’impiego del regolamento. È importante che le aziende manifatturiere siano consapevoli dei requisiti posti dall’Ue nell’AI Act e che prendano le misure necessarie per conformarsi al regolamento. L’augurio per il prossimo futuro è che le aziende possano collaborare con le autorità di regolamentazione per sviluppare soluzioni che consentano di conciliare l’innovazione con la sicurezza e la responsabilità dell’AI.

Intelligenza artificiale, AI Act Ue, regole AI


Massimiliano Oddi

Massimiliano Oddi

È Partner di Hermes Reply, azienda del gruppo Reply specializzata in servizi di Digital transformation in ambito industriale manifatturiero. Ha maturato importanti esperienze in Italia e all’estero sia nella consulenza manageriale sia in ambito dirigenziale in grandi multinazionali industriali. Nel corso degli anni ha anche disegnato e diretto programmi di trasformazione digitale per grandi gruppi industriali italiani ed esteri. Laureato in Ingegneria Elettrotecnica, certificato Finance per non Finance e Lean Six Sigma Master Black Belt, vanta executive master in Strategia e Gestione della Sostenibilità Aziendale, strategie di mitigazione rischio Cybersecurity presso l’Università di Harvard e Digital Business Strategy presso il Massachusetts Institute of Technology.

AI_chatgpt

L’Intelligenza Artificiale è la leva per performare (e imparare) meglio?

/
Non tutte le applicazioni di Intelligenza Artificiale (AI) comportano gli ...
Regolamentare l’AI senza inibire l’innovazione

Regolamentare l’AI senza inibire l’innovazione

/
L’Intelligenza Artificiale (AI) sta crescendo velocemente e già oggi molte ...
Sostenere l’innovazione, non ostacolarla

Sostenere l’innovazione, non ostacolarla

/
Con la crescente diffusione dei sistemi di Intelligenza Artificiale (AI) ...

Via Cagliero, 23 - 20125 Milano
TEL: 02 91 43 44 00 - FAX: 02 91 43 44 24
EMAIL: redazione.pdm@este.it - P.I. 00729910158

© ESTE Srl - Via Cagliero, 23 - 20125 Milano