Il Garante per la protezione dei dati personali ha bloccato ChatGPT, il software di intelligenza artificiale relazionale che simula le conversazioni umane, fino a quando non rispetterà la disciplina sulla privacy.
OpenAI, la società statunitense che gestisce la piattaforma, ha subito una limitazione provvisoria del trattamento dei dati degli utenti italiani.
Il Garante ha anche aperto un’istruttoria sulla questione. La decisione è stata presa in seguito alla perdita di dati (data breach) avvenuta lo scorso 20 marzo.
La perdita riguardava le conversazioni degli utenti e le informazioni di pagamento degli abbonati al servizio a pagamento.
Il Garante privacy ha contestato la mancanza di una informativa per gli utenti.
Inoltre, ha rilevato l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali per l’addestramento degli algoritmi sottesi al funzionamento della piattaforma.
Secondo il Garante, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando un trattamento di dati personali inesatto.
Nonostante i termini pubblicati da OpenAI indichino che il servizio sia destinato ai maggiori di 13 anni, l’assenza di qualsiasi filtro per la verifica dell’età degli utenti espone i minori a risposte non adeguate al loro grado di sviluppo e autoconsapevolezza.
OpenAI, ha venti giorni di tempo per comunicare le misure adottate in attuazione di quanto richiesto dal Garante. In caso contrario, potrebbe essere sanzionata con una multa fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.