Intelligenza Artificiale in Italia, stop a ChatGPT: “I dati delle persone sono a rischio”
Finanziato da Bill Gates, il software dell'azienda americana OpenAI non offre un'informativa agli utenti e non ha neppure un filtro età a tutela dei bambini
Da ora ‘fino a nuovo ordine’ stop in Italia alla possibilità per chi naviga su Internet di dialogare con l’Intelligenza Artificiale di ChatGPT. Si tratta del più noto tra i software di intelligenza artificiale relazionale, in grado di simulare ed elaborare le conversazioni umane.
Finché il meccanismo di ChatGPT non rispetterà le normative sulla riservatezza (privacy) il Garante per la protezione dei dati personali non sbloccherà il divieto di adoperarla. Il Garante ha infatti disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI.
Quest’ultima è la società statunitense che ha sviluppato e gestisce la piattaforma di Intelligenza Artificiale. La startup gode del favore del fondatore di Microsoft, Bill Gates, e Microsoft stessa ne finanzia lo sviluppo. L’Autorità per la Privacy ha contestualmente aperto un’istruttoria. Nel provvedimento, il Garante rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI.
Ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Come peraltro testimoniato dalle verifiche effettuate, le informazioni che ChatGPT fornisce quando comunica da bot con le persone non sempre corrispondono al dato reale. Il che finisce col determinare un trattamento di dati personali inesatto.
Intelligenza Artificiale, dati perduti
Meno di due settimana fa, lo scorso 20 marzo, il software di Intelligenza Artificiale ha subito una perdita di dati (in gergo data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio.
Nel provvedimento – informa una nota – il Garante della Privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali. ChatGPT è un chatbot AI che sviluppatori statunitensi hanno programmato per rispondere alle domande degli utenti nell’ambito di una conversazione, utilizzando un linguaggio naturale simile a quello umano.
Il problema del minorenni
Un altro aspetto che il Garante della Privacy ha messo in rilievo è che – malgrado OpenAI riservi ufficialmente il servizio di ChatGPT ai maggiori di 13 anni (come fanno in genere i social media) – manca in realtà qualsivoglia filtro per la verifica dell’età degli utenti. Il che, asserisce l’Autorità italiana, espone bambini e ragzzi a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza. OpenAI non ha una sede nell’Unione europea ma ha designato un rappresentante nello Spazio economico europeo.
A seguito del provvedimento dell’Autorità per la Privacy, l’azienda statunitense deve adesso comunicare le misure intraprese. Ovvero entro 20 giorni deve ufficialmente dire cosa farà per dare attuazione a quanto richiesto dal Garante italiano. Altrimenti si vedrà comminare una sanzione pecuniaria che potrebbe raggiungere la cifra di 20 milioni di euro, oppure, in alternativa, potrebbe arrivare a totalizzare fino al 4% del fatturato globale annuo dell’impresa. Si tratta di cifre ragguardevoli che andrebbero a sommarsi al danno reputazionale per ChatGPT e quindi per OpenAI, soprattutto se si considera che Bill Gates ha definito l’Intelligenza Artificiale un progresso tecnologico di portata storica in grado di cambiare profondamente la vita delle persone.