AI

Per difendersi dall’AI basta non essere tecnolesi

“Sei dei casi presentati sembrano essere decisioni giudiziarie fasulle con citazioni fasulle e citazioni interne fasulle”, ha detto il giudice che ha supervisionato il caso. Ho voluto citare questo episodio di cronaca, che ha coinvolto due avvocati di uno studio legale avvezzo all’utilizzo dell’App di Intelligenza Artificiale generativa più popolare del momento: ChatGpt.

Premetto che ho fatto della tecnologia il mio business dei miei 30 anni di impresa e che l’AI mi affascina da occuparmene sia per l’innovazione che porta con sé sia per i cambiamenti che porterà. Credo, però, che il vero problema – e da risolvere – non è tanto se l’AI sia capace di pensare, quanto se gli esseri umani continueranno a farlo.

Il rischio di perdere la plasticità mentale

Partiamo dal contesto e torniamo al caso citato in apertura. Un avvocato è scelto per curare e difendere gli interessi di una persona, o di un’organizzazione: già qui c’è un incarico non solo professionale, ma anche di fiducia (se mi dai fiducia, vuol dire che ti fidi e ti affidi alla mia professionalità, alla mia esperienza). A questo punto l’etica deontologica fa sì che bisogna metterci, oltre l’impegno, anche la parte cognitiva delle competenze, cioè serve trovare una soluzione, non un’informazione generica. Ultimo, ma non meno importante, i professionisti sono pagati proprio per questo. Di conseguenza, nella selezione dei materiali a sostegno di una tesi o di una argomentazione, bisognerebbe essere sempre attenti, per rispettare in primis il cliente, ma anche i principi etici della professione.

Se proprio si è in difficoltà, senza usare le scorciatoie, si può sempre chiedere aiuto, ma se ci si affida troppo alla tecnologia, si perde la plasticità mentale e la flessibilità di pensiero. Basti pensare a chi si affida esclusivamente ai navigatori delle automobili: abbiamo perso il senso dell’orientamento, possiamo usarlo in momenti di difficoltà, ma se ci affidiamo totalmente agli strumenti digitali… ci perdiamo anche la natura!

Pensiamo a 30 anni prima dell’avvento dei primi telefoni mobili: ci ricordavamo quasi tutti i numeri telefonici delle nostre persone care e dei ‘contatti’ di business; ora, forse, ricordiamo quello dei figli e del partner di vita. Tutto ciò è la conseguenza del fatto che più ci affidiamo alla tecnologia per essere efficienti, meno siamo capaci di affrontare l’imprevisto. E perdiamo questa abilità. Ma coltivandola e sviluppandola, possiamo creare il futuro che vogliamo governando meglio la tecnologia e l’innovazione.

È temerario usare l’AI generativa come se fosse un magico assistente virtuale personale che conosce le memorie e il pensiero cognitivo degli esseri umani. Proprio come qualsiasi forma di strumento online, è necessario utilizzare l’AI generativa con sensibilità e un po’ di consapevolezza di ciò che funziona e ciò che non funziona. La tecnologia deve essere al servizio dell’umanità, non sostituirla. Farsi governare smettendo di mettere in pratica le nostre buone abitudini non può che continuare a generare scontri ideologici tra chi ha fame di futuro e chi, invece – per i motivi sopra esposti – continua a diffidare del futuro. Correre verso l’AI generativa per far fare alle tecnologie il duro lavoro è un percorso pieno di curve e scivoloni che possono avere conseguenze gravi.

ChatGpt ci mette in guardia… sull’uso dell’AI

Incuriosito dalla vicenda dell’avvocato e dell’uso dell’AI, ho chiesto direttamente a ChatGpt cosa ne pensi di quanto accaduto e ho formulato questa domanda: “Un legale di New York si è affidato all’AI a ChatGpt ed è stato scoperto, non è etico!”. Questa è stata la risposta di ChatGpt: “Mi dispiace sapere che un avvocato americano si sia affidato a ChatGpt e abbia commesso un errore. Come modello di Intelligenza Artificiale, posso fornire informazioni e suggerimenti generali, ma non posso sostituire un consulente legale professionale né garantire l’accuratezza di qualsiasi informazione fornita. È importante ricordare che fare affidamento esclusivamente su un modello AI per consigli legali può comportare limitazioni e rischi. Se un avvocato ha commesso un errore utilizzando ChatGPT, è fondamentale consultare un altro professionista legale per affrontare e correggere la situazione. Gli avvocati hanno la responsabilità etica di fornire una rappresentanza competente ai propri clienti e, se si è verificato un errore, potrebbe essere necessario adottare le opportune misure correttive.
In definitiva, è importante ricordare che gli strumenti AI come ChatGPT sono solo strumenti e devono essere utilizzati con cautela e in combinazione con l’esperienza umana.

Ecco che anche l’AI un po’ si avvicinata al mio pensiero. Continuiamo dunque a farlo anche noi, senza trovare scorciatoie; affidiamoci sempre all’innovazione, ma validiamola, sempre secondo il nostro pensiero, anche imperfetto. Anche l’AI, in questo caso, riconosce i propri limiti – o quanto meno suggerisce come non superarli – facendo funzionare così quell’altra intelligenza, quella umana.

tecnologie, Intelligenza artificiale, chatgpt, AI generativa


Fausto Turco

Fausto Turco

Fondatore e Presidente dell’Accademia dei Commercialisti e CEO di Si-Net e MyDigit.

Yliway

Nasce Yliway, agorà digitale per il lavoro

/
Per favorire l'incontro tra aziende e candidati, così come tra ...
Futuro HR

Le direzioni HR sono pronte al futuro?

/
Qual è il livello di innovazione delle direzioni HR? I ...
employee_choice

Liberi di scegliere (la tecnologia)

/
È iniziato il countdown per la presentazione dei nuovi prodotti ...

Via Cagliero, 23 - 20125 Milano
TEL: 02 91 43 44 00 - FAX: 02 91 43 44 24
EMAIL: redazione.pdm@este.it - P.I. 00729910158

© ESTE Srl - Via Cagliero, 23 - 20125 Milano