Per lo sviluppo sostenibile dell’intelligenza artificiale serve la fiducia degli utenti, il rispetto della privacy, e il coraggio delle autorità

Lo sviluppo sostenibile della governance dei dati si sta rivelando sempre più un presupposto fondamentale per il successo della transizione digitale, e specialmente con le potenzialità dell’intelligenza artificiale è necessario che essa sia al servizio dell’uomo, e non viceversa.

Di ciò, non devono esserne convinti solo i regolatori e gli addetti ai lavori, ma occorre che si instauri un clima di fiducia generale da parte della comunità, e gli utenti devono poter percepire i vantaggi e l’affidabilità di cui possono godere avvalendosi di soluzioni di intelligenza artificiale.

Se l’utente che si trova a interagire con un robot lo percepisse solo come un ostacolo, o addirittura come qualcosa a cui egli si deve adeguare o sottomettere, l’inevitabile conseguenza sarebbe che cercherebbe di aggirarlo e di trovare soluzioni alternative.

Una recente indagine, commissionata da Nielsen sull’opinione degli italiani sull’Intelligenza Artificiale, ha evidenziato che allo stato attuale i cittadini entusiasti dell’intelligenza artificiale sono solo il 10,9%, mentre il 47,4% degli italiani intervistati esprimono fiducia “con riserva”, affermando di credere che l’IA sia una tecnologia senz’altro utile, ma di avere in essa una fiducia soltanto “moderata”, ritenendo necessario che questa debba essere controllata e regolamentata.

L’Unione Europea è consapevole di questa necessità, e uno degli scopi del nuovo Regolamento sull’intelligenza artificiale (Artificial Intelligence Act) è proprio quello di rafforzare la fiducia dei cittadini, i quali devono essere messi in condizione di poter credere che grazie all’intelligenza artificiale potranno realmente fruire di un’assistenza sanitaria migliore, di trasporti più sicuri, servizi più efficienti, ed altri vantaggi, ma devono avere anche la certezza che tali innovazioni tecnologiche non vadano a discapito dei loro diritti fondamentali, compreso quelli riguardanti la privacy, e senza che nessuno rischi di rimanere escluso.

A tal proposito, i risultati di uno studio condotto da Federprivacy non sono però rassicuranti, perché esaminando un campione di 400 siti web di lingua italiana di vari settori di organizzazioni pubbliche e private, è stato riscontrato che il 98,7% dei siti non tende affatto la mano a coloro che hanno svantaggi sotto il profilo linguistico, culturale, e neanche alle persone con disabilità sensoriali.

Solamente nell’1,3% dei siti esaminati, gli utenti che devono fare i conti con una qualche forma di disagio, come ad esempio possono essere un rifugiato di guerra, una persona con un basso livello di istruzione, o un ipovedente, vengono agevolati trovando gli elementi informativi sul trattamento dei loro dati personali accessibili sotto forma di video, audio, icone ed altre modalità alternative diverse dalla consueta forma scritta in lingua italiana.

Le aziende italiane fanno quindi bene a cercare di cogliere le opportunità dell’intelligenza artificiale, ma devono ponderare bene i loro investimenti:

secondo un recente rapporto della società di ricerche Gartner, almeno il 30% dei progetti di intelligenza artificiale generativa verrà infatti abbandonato entro la fine del 2025. Le cause principali di questi fallimenti includono la scarsa qualità dei dati, controlli dei rischi inadeguati, costi crescenti e un valore aziendale poco chiaro.

Per evitare che la corsa all’oro dell’AI non risulti una delusione e un bagno di sangue per le imprese, è quindi necessario che i progetti non si concentrino solo sugli aspetti tecnologici, ma tengano conto anche di tutti gli altri fattori connessi, compreso il rispetto dei diritti sulla privacy degli interessati, affinché i loro investimenti abbiano un approccio sostenibile e possano guadagnare la necessaria fiducia degli utenti.

Per realizzare uno sviluppo sostenibile dell’intelligenza artificiale, nei prossimi anni un ruolo cruciale sarà giocato anche dalle autorità per la protezione dei dati, in particolare perché le sanzioni amministrative previste dal GDPR non si sono rivelate effettivamente “dissuasive” come era il proposito dell’art.83 del Regolamento europeo sulla privacy.

Nonostante siano state irrogate numerose multe di importi enormi nei confronti di colossi tecnologici ed altre multinazionali che avevano violato la privacy dei cittadini, nella maggior parte dei casi le aziende sanzionate non hanno manifestato un’inversione di tendenza adottando maggiore rispetto per i diritti fondamentali dell’individuo, ma senza farsi troppi scrupoli hanno semplicemente pagato ed escogitato nuovi stratagemmi per massimizzare lo sfruttamento dei dati personali nei loro business miliardardi, continuando a farsi beffe degli utenti e delle stesse autorità.

Ne sono un esempio la multa record di 746 milioni di euro comminata ad Amazon senza che gli utenti abbiano successivamente notato significativi cambiamenti nel rispetto della loro privacy, ma anche Clearview AI, che in Europa è stata sanzionata per 20 milioni di euro dal Garante italiano, per altri 20 milioni dall’autorità greca, nonché per altri 30,5 milioni da quella olandese, ma al momento non sono noti ripensamenti sull’approccio del rispetto della privacy dei cittadini europei da parte della società di intelligenza artificiale statunitense.

Più efficace e realmente dissuasive sembrano invece essersi rivelate azioni coraggiose (anche se talvolta impopolari) come quella del Garante italiano che lo scorso anno bloccò i trattamenti effettuati da OpenAI, la società americana che ha sviluppato e gestisce ChatGPT, e in effetti l’imposizione di misure severe che comportino divieti dei trattamenti illeciti come previsto dall’art. 58 par.1 lett.f) del GDPR, come pure l’introduzione di norme penali che aprano le porte del carcere per coloro che deliberatamente compiono ripetutamente gravi violazioni della normativa, potrebbero rappresentare un tassello importante per lo sviluppo sostenibile della nuova civiltà digitale.

Nicola Bernardi, presidente di Federprivacy