Una delle questioni più delicate poste dall’intelligenza artificiale, vista la sua crescente adozione in applicazioni e contesti differenti, riguarda la responsabilità in merito a decisioni che, di fatto, vengono prese dagli algoritmi, specie in ambiti sensibili come sanità e sicurezza pubblica. Inoltre, la possibilità di accedere a una notevole quantità di informazioni implica problematiche in punto di tutela della privacy e protezione dei dati personali, la cui sicurezza deve essere sempre garantita. La sicurezza riguarda anche i sistemi stessi dell’intelligenza artificiale, che possono essere soggetti ad attacchi informatici e manipolazione, e, dunque, devono essere dotati di sistemi di difesa efficaci.
Altro tema fondamentale concerne l’impatto sull’occupazione: se, da un lato, l’evoluzione tecnologica può portare a una maggiore efficienza e produttività, dall’altro non può negars il rischio di una crescente disuguaglianza economica e di perdita di posti di lavoro. Il controllo delle emozioni da parte di sistemi AI, poi, può portare alla manipolazione comportamentale di bambini, anziani o altri consumatori, sfruttandone le vulnerabilità cognitive e inducendoli a scelte commerciali indesiderate. Allo stesso tempo, questi sistemi automatizzati sono spesso opachi e pertanto difficili da contestare.
Tutti motivi sufficienti per affermare che questa tecnologia debba essere utilizzata in modo responsabile per creare valore aggiunto per l’intera collettività, in un giusto equilibrio tra benefici e svantaggi. Un obiettivo raggiungibile solo attraverso un dialogo aperto e costante tra istituzioni, organizzazioni, imprese e sviluppatori. Essere digitali non vuol dire soltanto adottare tecnologie di ultima generazione, ma richiede una strategia integrata tra conoscenza del processo, etica e sicurezza. Si tratta, com’è chiaro, di una sfida globale e avrebbe poco senso affrontarla all’interno degli stretti confini nazionali. Ecco perché sia l’Unione europea sia gli Stati uniti si stanno muovendo – in parallelo, ma con approcci diversi – nella direzione di una regolamentazione delle applicazioni AI “ad alto rischio”. Il quadro proposto dalla Commissione si basa su diversi livelli di rischio: alcuni sistemi sono considerati a rischio intollerabile e sono, pertanto, proibiti. Si tratta delle pratiche online di manipolazione cognitiva che causano danni fisici o psicologici o sfruttano la vulnerabilità dovuta all’età o alla disabilità. Sono anche vietati i sistemi di valutazione sociale dei cittadini che possono produrre effetti dannosi sproporzionati o fuori contesto, nonché i sistemi di identificazione facciale usati indiscriminatamente dalle forze dell’ordine in luoghi aperti.
Altri sistemi AI sono considerati ad alto rischio, incluso il riconoscimento facciale, o l’AI usata in infrastrutture critiche, in contesti di educazione, valutazione dei lavoratori, emergenza, assistenza sociale, valutazione del credito, o l’AI usata da parte delle forze dell’ordine, della polizia di frontiera e dei tribunali. La vera opportunità di stabilire regole più sostanziali e adatte al contesto nazionale di riferimento è nelle mani degli ordinamenti interni. Questa sfida non è soltanto necessaria, ma anche urgente. A breve potremmo avere a che fare con applicazioni che prendono decisioni di vita o di morte sull’assegnazione delle cure mediche, che guidano l’attività della polizia e influenzano l’accesso al credito. I
l vero progresso tecnologico sostenibile dipende dal rispetto dei diritti fondamentali, dalla garanzia della sicurezza e dal divieto di pratiche AI particolarmente rischiose per gli individui. Urge una regolamentazione nazionale che si faccia carico di disciplinare l’AI nei diversi ambiti di intervento per poter cogliere le occasioni offerte da un panorama straordinario per l’interazione uomo-macchina e prevenire i pericoli insiti nei coni d’ombra in cui si annidano forme diffuse di irresponsabilità.
Nello stesso tempo, non si può restare insensibili all’opportunità di transizione tecnologica dello strumento, comprendendone la portata innovativa. Riuscirne a tradurre gli effetti positivi, in modo affidabile, equivarrebbe a trasformare un’occupazione a un livello diverso, con la necessaria implicazione di una elevazione delle competenze, al pari di quella alla quale si assisteva durante la rivoluzione industriale, con le innegabili differenze: in quella sede l’umanità assisteva a una riconversione delle attività più umili e ripetitive in funzioni svolte dalle macchine. Oggi il cambiamento riguarderebbe attività comunque ripetitive, ma nel segmento del terziario; posto che, invece, a oggi, la carenza di mano d’opera è avvertita nelle mansioni meramente manuali (camerieri, infermieri, operai edili), dove, insomma, l’impatto della AI, avrebbe effetto nullo o poco rilevante
Stop war.
Meritocrazia Italia
Il Presidente Walter Mauriello