Regolamentare l’AI senza inibire l’innovazione

L’Intelligenza Artificiale (AI) sta crescendo velocemente e già oggi molte attività pregiate, ma ripetitive e spesso poco soddisfacenti, possono essere svolte automaticamente, con gli esperti umani che possono limitarsi a un ruolo di controllo e verifica. Balzo tecnologico fondamentale per le aziende, perché permette di spostare le risorse umane di livello su task più premianti, rivedendo i processi e aumentando i risultati aziendali e la soddisfazione interna.

Certamente, questa evoluzione potrebbe anche essere un problema nel breve, non tanto a livello di singola azienda, ma di società: secondo diversi studi, infatti, centinaia di milioni di posti di lavoro rischiano di sparire, per essere sostituiti sì da quantità ancora più elevate di nuove capacità professionali, ma dopo un transitorio non indolore e con difficoltà di adattamento e conversione. Oltre ai possibili effetti sociali, non vanno trascurati i possibili impatti etici, soprattutto riguardanti il copyright, la privacy e possibili discriminazioni dovute a dati di training contenenti forti pregiudizi.

L’Europa in prima linea con l’AI Act

In questo contesto ovviamente non solo regolamentare l’utilizzo dell’AI è utile, ma è assolutamente doveroso. L’Unione europea, prima di altri, si sta attivando con l’AI Act, il regolamento per lo sviluppo e l’utilizzo dell’AI. Già preliminarmente approvato nel dicembre 2023, ci si attende che entri in vigore tra circa due anni. Il fatto che l’approccio risk-based del testo orienti più all’utilizzo che allo sviluppo potrebbe renderla non del tutto inutile, ma due anni, in questo campo, sono come 100 in altri contesti.

I benchmark mostrano che l’uomo medio è spesso già oggi superato dalle AI su compiti intelligenti, anche se gli esperti hanno ancora un notevole vantaggio in quasi tutti i campi, soprattutto per problemi legati al raggiungimento del cosiddetto superalignment, ovvero la capacità, attualmente mancante, da parte delle AI, di fornire informazioni puntuali fondate su conoscenze reali e non inventate.

OpenAI, l’azienda che ha creato ChatGpt, si è data come traguardo il 2027 per risolvere tale problema e altri simili (e, da indiscrezioni, potrebbe arrivarci già nel 2024-25). Ogni sei mesi cambia tutto in questo ambito, ogni tre esce qualche novità importante, ogni giorno chi lavora nel campo legge di nuovi importanti risultati scientifici. Il ritmo è mai visto: rapidissimo pure per chi ha assistito alla nascita del World wide web.

L’equilibrio precario tra regolamentazione e vantaggio competitivo

Se l’Ue, nell’abbracciare la necessità di regolamentazione di questa tecnologia, va nella direzione giusta, contemporaneamente tira il freno a mano: posizioni troppo conservative e blocchi di tecnologie, nella pratica, non ci faranno arrivare primi e certamente non ci faranno recuperare lo svantaggio tecnologico in cui ci troviamo rispetto a Stati Uniti e Cina. Le grandi aziende Usa che si occupano di AI stanno già autoregolamentandosi, almeno sugli aspetti legati alla trasparenza sui dati di training e sulle modalità per evidenziare i contenuti generati dalle AI, in modo agile e rapido, mentre continuano a evolvere (e non perché lo chiede una legge, ma il mercato).

Le posizioni molto conservative dell’Europa stanno rallentando o inibendo l’utilizzo di modelli più avanzati di AI a chi lavora in Europa e l’ultimo esempio notevole di inizio 2024 è Google Gemini Ultra, che sarà a breve disponibile in quasi tutte le nazioni del mondo, escluse Ue e Gran Bretagna. Siccome (a meno di workaround utilizzabili solo per qualche prova, ma inibiti a un business serio) questo accade non in un singolo caso, ma per quasi tutti quelli importanti, una attesa anche solo di tre mesi rispetto al resto del mondo potrebbe tradursi in uno svantaggio competitivo che costerà recuperare. Quando tra due anni sarà tutto diverso, la legge indirizzerà problemi vecchi, ma la rigidità programmata in un momento in cui servirebbe maggiore flessibilità per comprendere le evoluzioni, avrà inibito ulteriormente i già scarsi finanziamenti europei su attività che, per ottenere risultati competitivi, richiederebbero importanti spinte legislative.

Intelligenza artificiale, AI Act, AI Act Ue, regole AI, Algaware


Alessandro Depase

Alessandro Depase

CEO di AGG Soluzioni Avanzate, ha preso in mano il primo libro di Intelligenza Artificiale (AI) nel 1984, si è laureato con una tesi in AI nel 1994 e l’ha sempre mantenuta come hobby, facendone il suo ambito di lavoro principale dal 2016. Dal 1994 ha lavorato su tecnologie sempre innovative, tra i primissimi sul Web, poi mobile e IoT, creando e gestendo aree aziendali anche in grandi System Integrator internazionali e attraversando diverse industry (Health Care, Banking&Insurance, Logistics, E&U e altro ancora). Ancora programma, è l’architetto e principale programmatore della Piattaforma AlGaware, piattaforma di Natural Language Processing (NLP), che utilizza un approccio neurosimbolico (ovvero, che utilizza insieme i più recenti Large Language Model (LLM) per avere più flessibilità e tecnologie di NLP simboliche per avere più controllo)

AI_chatgpt

L’Intelligenza Artificiale è la leva per performare (e imparare) meglio?

/
Non tutte le applicazioni di Intelligenza Artificiale (AI) comportano gli ...
Sostenere l’innovazione, non ostacolarla

Sostenere l’innovazione, non ostacolarla

/
Con la crescente diffusione dei sistemi di Intelligenza Artificiale (AI) ...
Innovazione e diritti per un futuro dell’AI sicuro ed etico

Innovazione e diritti per un futuro dell’AI sicuro ed etico

/
È ormai noto a tutti: l’Unione Europea ha proposto nel ...

Via Cagliero, 23 - 20125 Milano
TEL: 02 91 43 44 00 - FAX: 02 91 43 44 24
EMAIL: redazione.pdm@este.it - P.I. 00729910158

© ESTE Srl - Via Cagliero, 23 - 20125 Milano