Home divertimento ChatGPT è stato preso di mira in Italia con una misura di protezione dei dati degli utenti

ChatGPT è stato preso di mira in Italia con una misura di protezione dei dati degli utenti

0
ChatGPT è stato preso di mira in Italia con una misura di protezione dei dati degli utenti
(File) Questa foto di file, scattata il 23 gennaio 2023 a Tolosa, nel sud-ovest della Francia, mostra schermate che mostrano i loghi OpenAI e ChatGPT.  - Il 31 marzo 2023 l'autorità di vigilanza sulla privacy italiana ha dichiarato di aver bandito il controverso bot ChatGPT, affermando che l'app AI non rispetta i dati degli utenti e non può verificare l'età degli utenti.  (Foto di Lionel Bonaventura/AFP)
Lionel Bonaventura/AFP (File) Questa foto di file, scattata il 23 gennaio 2023 a Tolosa, nel sud-ovest della Francia, mostra schermate che mostrano i loghi OpenAI e ChatGPT. – Il 31 marzo 2023 l’autorità di vigilanza sulla privacy italiana ha dichiarato di aver bandito il controverso bot ChatGPT, affermando che l’app AI non rispetta i dati degli utenti e non può verificare l’età degli utenti. (Foto di Lionel Bonaventura/AFP)

Lionel Bonaventura/AFP

OpenAI dovrebbe sospendere ChatGPT in Italia dal 1 aprile, secondo il Corriere della Serra. Avrà una ventina di giorni per conformarsi alla normativa.

Intelligenza Artificiale – Roma dice no a ChatGPT. Venerdì 31 marzo le autorità italiane hanno annunciato il divieto ” con effetto immediato “ OpenAI e il suo chatbot per l’elaborazione “Dati utenti italiani” per preoccupazioni circa la loro incolumità. Secondo fonti interne alla CNIL italiana at Corriere della Seral’azienda dovrà Rendi inaccessibile la piattaforma Per gli utenti italiani possibilmente dal 1° aprile. In caso contrario, OpenAI rischia severe sanzioni.

Qual è il motivo di questa decisione senza precedenti in Europa? Secondo un comunicato del Garante per la Protezione dei Dati Personali, ChatGPT non rispetta la normativa europea sul trattamento delle informazioni private e non dispone di un sistema per la verifica dell’età degli utenti minorenni. Cosa ha spinto la richiesta “Limitazione temporanea del trattamento dei dati degli utenti italiani nei confronti di OpenAI”con effetto immediato.

L’autorità conferma già che ChatGPT “ha subito una perdita di dati il ​​20 marzo relativa alle chat degli utenti e alle informazioni di pagamento per gli abbonati a pagamento”. Anche lei lo incolpa “L’assenza di un memorandum informativo per gli utenti, i cui dati sono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione collettiva dei dati personali, con l’obiettivo di far sì che gli algoritmi gestiscano la piattaforma”.

GDPR, AI nemico n. 1?

Inoltre, mentre il bot è destinato a persone di età superiore ai 13 anni, “L’autorità conferma che l’assenza di qualsiasi filtro per verificare l’età degli utenti espone i minori a risposte del tutto inadeguate al loro livello di sviluppo”..

Quindi richiede l’autorizzazione da OpenAI “Relazione sulle misure adottate entro 20 giorni” Per porre rimedio a questa situazione, “Sotto pena fino a 20 milioni di euro o fino al 4% del fatturato annuo mondiale”il limite previsto dal Regolamento Europeo sui Dati Personali (GDPR).

La stessa organizzazione aveva bandito l’app Replika all’inizio di febbraio, che offre chat utilizzando un avatar personalizzato. Alcuni utenti si sono lamentati di aver ricevuto messaggi e immagini molto audaci, vicini alle molestie sessuali.

Questi casi dimostrano che il GDPR, che ha già comportato miliardi di dollari di multe per i giganti della tecnologia, può anche diventare un nemico dei nuovi sistemi di intelligenza artificiale che generano contenuti. L’Unione Europea sta anche preparando un disegno di legge per regolamentare l’intelligenza artificiale, che potrebbe essere completato alla fine del 2023 o all’inizio del 2024, per essere implementato qualche anno dopo.

I giganti della tecnologia avvertono dei pericoli dell’intelligenza artificiale

Perché l’intelligenza artificiale alimenta preoccupazioni molto più profonde del mero sfruttamento dei dati personali. L’agenzia di polizia europea Europol ha avvertito lunedì che i criminali sono pronti a sfruttare l’intelligenza artificiale come il chatbot ChatGPT per commettere frodi e altri crimini informatici.

Dal phishing alla disinformazione o al malware, secondo un rapporto di Europol, è probabile che le capacità in continua evoluzione dei chatbot vengano sfruttate da malintenzionati. Può anche essere utilizzato per imbrogliare negli esami e ChatGPT è stato bandito poco dopo il suo lancio in molte scuole o università in tutto il mondo. Anche le grandi aziende hanno consigliato ai propri dipendenti di non utilizzare l’app per paura di far trapelare dati sensibili.

Infine, mercoledì il miliardario Elon Musk, co-fondatore di OpenAI di cui ha poi lasciato il consiglio, e centinaia di esperti globali hanno firmato un appello per una pausa di sei mesi nella ricerca sull’IA. Questo prende di mira un software più potente di GPT-4, l’ultima versione del software su cui si basa ChatGPT, lanciato a metà marzo, citando “Grandi pericoli per l’umanità”.

Vedi anche su Huffpost :

LEAVE A REPLY

Please enter your comment!
Please enter your name here