ChatGPT in Italia: il divieto del Garante della privacy e le ultime rassicurazioni di OpenAI

  • Home
  • Blog
  • ChatGPT in Italia: il divieto del Garante della privacy e le ultime rassicurazioni di OpenAI
chatgpt

Il Garante italiano per la protezione dei dati personali ha bloccato il noto software di intelligenza artificiale ChatGPT nel nostro Paese. La potente chatbot sviluppata da OpenAI è finito nel mirino dell’autorità italiana per la protezione dei dati, rischiando una multa del valore di 20 milioni di euro. Secondo le dichiarazioni del Garante, il divieto ha effetto immediato e rimarrà in vigore “fino a quando non si adeguerà alla normativa sulla privacy”. Quali sono i motivi? Nell’articolo le risposte del Garante e di OpenAI.

Cos’è ChatGPT?

Acronimo di Generative Pretrained Transformer, ChatGPT è un software basato sul deep learning per l’elaborazione del linguaggio naturale (o Natural Language Processing). Questo utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane. Il Natural Language Processing (NLP) è una branca del settore IA che studia metodi di programmazione informatica atti ad analizzare le lingue naturali.

La tecnologia NLP consente alla Chat GPT di comprendere i modelli e le sfumature del linguaggio umano (vengono addestrati su una grande quantità di dati, 500 GB tratti da libri, articoli, contenuti Web, conversazioni umane, ecc.), con la possibilità di imparare dalle conversazioni con gli utenti. In questo modo, il software è in grado di adattarsi ai diversi stili di conversazione e di offrire risposte sempre più personalizzate.

A cosa serve?

ChatGPT consente ai singoli utenti di scrivere articoli, e-mail e poesie, creare post social, correggere errori matematici, servizi elementari ma molto utili che diventano più complessi e tendenziosi se si considerano le applicazioni da parte di aziende e PA. Nel servizio clienti, per esempio, la ChatGPT può essere utilizzata per gestire domande comuni, fornendo risposte rapide e accurate, riducendo il carico di lavoro degli operatori.

Inoltre, soprattutto nel caso delle PA, può essere utilizzata per migliorare gli assistenti personali virtuali diffusi tra numerose amministrazioni comunali, così da renderli più naturali nell’interazione e efficienti, servendo gli utenti con una vasta gamma di attività, tra cui pianificazione, formulazione di raccomandazioni e la fornitura di informazioni precise, dettagliate ed esposte con burocratica gentilezza. Il software è anche in grado di tradurre simultaneamente i testi da una lingua all’altra, abilitando una comunicazione più fluida tra persone che parlano lingue diverse, servizio particolarmente utile per aziende e PA che si interfacciano con un’utenza internazionale.

I motivi del diniego italiano

Nonostante le rosee prospettive offerte dal software di intelligenza artificiale ad aziende, PA e utenti privati, tuttavia, secondo l’autorità italiana, ChatGPT non è conforme al GDPR, ovvero il regolamento europeo sulla protezione dei dati personali. L’Italia è la prima autorità amministrativa al mondo a bloccare l’uso di ChatGPT sulla base delle norme sulla privacy. La decisione farebbe seguito all’incidente sui dati subito da OpenAI a marzo, quando la start-up americana è stata costretta a mettere offline la chatbot di ChatGPT per la risoluzione di un bug. Durante queste operazioni di manutenzione, alcuni utenti attivi avrebbero identificato nome, indirizzo e-mail, indirizzo di fatturazione, data di scadenza e le ultime quattro cifre della carta di credito degli abbonati a ChatGPT Plus. Tuttavia, i numeri completi delle carte di credito non sono stati esposti.

Un altro motivo riguarda l’inesattezza delle informazioni fornite da ChatGPT, che non sempre corrispondono alla realtà dei fatti. L’autorità italiana dichiara, inoltre, che il servizio si rivolge a utenti di età superiore ai 13 anni, ma la società non chiede mai conferma della loro data di nascita, esponendo i minori a risposte non adatte al loro grado di autoconsapevolezza, nonché a elevati rischi in termini di privacy. Sono state anche rilevate la mancanza di una informativa agli utenti, e soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali.

Il Garante ha aperto un’istruttoria sulla raccolta illecita dei dati degli utenti italiani e ha disposto, con effetto immediato, la limitazione provvisoria del loro trattamento da parte di OpenAI, fino a quando la normativa sulla privacy non verrà rispettata. OpenAI dovrà comunicare entro 20 giorni le misure adottate per ottemperare alla sua richiesta, pena una multa fino a 20 milioni di euro o fino al 4% del fatturato mondiale annuo. Resta da vedere se gli altri Paesi dell’UE, anch’essi tenuti ad applicare il GDPR, prenderanno la stessa decisione.

La risposta di ChatGPT

In un primo momento, al blocco italiano ChatGPT ha risposto proponendo alternative accattivanti ma contrarie alle decisioni del Garante, proponendo di accedere ai suoi servizi utilizzando una VPN. Soprattutto, ChatGPT sottolinea che i cittadini italiani possono “fare pressione sulle autorità” per ottenere la rimozione del blocco.

Tuttavia, secondo una notizia ANSA, nelle ultime ore si è svolto l’incontro, in video conferenza, tra Garante Privacy e OpenAI. L’azienda americana, ancora convinta di rispettare le norme in tema di protezione dei dati personali, si è dimostrata aperta alla collaborazione, con l’obiettivo di inviare al Garante delle proposte concrete entro la giornata di oggi.

Inoltre, la società americana ha pubblicato una lettera dal titolo Our approach to AI safety sul suo blog. Dichiarandosi consapevole che gli strumenti di intelligenza artificiale “comportano rischi reali”, promette di lavorare sodo per garantire “la sicurezza sia integrata nel nostro sistema a tutti i livelli”. Nella lettera sono presenti maggiori dettagli sulle modalità di protezione della privacy degli utenti, anche minori, e di riduzione delle risposte errate della chatbot.

Questa momentanea battuta d’arresto per l’Italia non pare aver rallentato il lavoro dell’azienda. Il software continua comunque a essere sviluppato e a diffondersi, in attesa del temutissimo aggiornamento numero 5. Denunciato alla Federal Trade Commission americana, è considerato un rischio per la privacy e la sicurezza pubblica. Con questo aggiornamento la chatbot potrebbe diventare indistinguibile da un essere umano. In questo modo potrebbe aggiungere l’Agi (artificial general intelligence), cioè la capacità di un programma di pensare e agire esattamente come una persona.

 

Leggi gli ultimi articoli del nostro Blog qui.