ChatGpt bloccata dal Garante della Privacy: sarebbero state violate diverse norme con mancanze di informative e di filtri
Il Garante per la protezione dei dati personali ha fermato ChatGPT per il mancato rispetto della privacy. Ha limitato provvisoriamente, ma con effetto immediato, l’uso della chat sviluppata dalla società americana OpenAI. Questa è un’organizzazione no profit che porta avanti ricerche sull’intelligenza artificiale.
In una nota l’Autorità ha fatto sapere che è stata aperta un’istruttoria nei confronti della società creata da Sam Altman e ora sotto la guida di Satya Nadella.
ChatGpt bloccata: cos’è e come funziona
ChatGPT è uno tra i software di intelligenza artificiale più noti. È in grado di simulare ed elaborare le conversazioni umane. Acronimo di Generative Pretrained Transformer, è uno strumento di elaborazione del linguaggio naturale (il Natural Language Processing) che usa algoritmi avanzati di apprendimento automatico: genera risposte simili a quelle umane inserite in un discorso.
Uno strumento del genere, dove e quando serve? È utili a migliorare l’interazione con le macchine in tantissime applicazioni, dal servizio clienti alla traduzione linguistica, dunque potrebbe esserci una grande diffusione nel mondo del lavoro, portando una maggiore velocità e cambiando in questo modo tante professioni. È possibile usarlo anche nella scrittura creativa.
Ultimamente ha fatto molto parlare di sé poiché il 20 marzo aveva subito una perdita di dati riguardanti le conversazioni degli utenti. In essere erano contenute informazioni relative al pagamento al servizio da parte degli abbonati.
I punti deboli
Il Garante privacy con il provvedimento ha sottolineato che manca un’informativa della privacy e in modo particolare l’assenza di una base giuridica volta a giustificare la raccolta e la conservazione dei dati personali. Insomma, il modo di agire è illegale.
Un’accusa che se dovesse essere dimostrata sarebbe un assist a chi getta da sempre sospetti sull’intelligenza artificiale e sulla App in generale, paventando un grosso rischio per la privacy.
Non c’è controllo sull’età
I problemi rilevati sono anche altri. Il servizio è rivolto a chi ha almeno 13 anni ma l’Autorità ha evidenziato che non c’è alcun filtro che possa verificare la reale età degli utenti. OpenAI ora è chiamata comunicare entro venti giorni le misure intraprese su quanto richiesto dal Garante. Se non lo farà incorrerà in una pena che può raggiungere anche i 20 milioni di euro o fino al 4% del fatturato globale annuo.