Commento di Jake Moore, Global Security Advisor di ESET
Come riportato da The Guardian, OpenAI ha annunciato l’introduzione di sistemi più rigorosi di verifica dell’età per ChatGPT, in seguito a una causa intentata dalla famiglia di un ragazzo di 16 anni morto per suicidio dopo numerose interazioni con il chatbot.
L’amministratore delegato Sam Altman ha dichiarato che l’azienda darà priorità alla protezione dei minori rispetto ai loro diritti di privacy, utilizzando tecnologie di stima dell’età e, in alcuni casi, la richiesta di un documento d’identità.
Per gli utenti sotto i 18 anni, ChatGPT fornirà risposte differenti: non mostrerà contenuti a sfondo sessuale, eviterà discussioni legate all’autolesionismo e potrà avvisare genitori o autorità in situazioni di pericolo imminente.
“È fondamentale che vengano introdotte misure di protezione per i giovani che utilizzano i chatbot, ma allo stesso tempo è altrettanto importante che i sistemi di rilevamento dell’età siano sviluppati con attenzione a privacy e sicurezza.
L’impiego sempre più diffuso del riconoscimento facciale per stimare l’età richiede un equilibrio delicato: se da un lato può ridurre l’esposizione a contenuti dannosi, dall’altro solleva preoccupazioni legate a possibili usi impropri. Nelle mani sbagliate, questi sistemi potrebbero diventare strumenti di sorveglianza o perfino di estorsione.
È moralmente giusto che ChatGPT interagisca in modo diverso con un minore, ma molto dipenderà da come OpenAI deciderà di implementare la funzione di verifica dell’età degli utenti”.
Le informazioni di contesto fornite in questa comunicazione sono di dominio pubblico e vengono condivise a scopo informativo. ESET non si assume alcuna responsabilità per l’accuratezza, la completezza o l’affidabilità di tali informazioni, che restano di esclusiva responsabilità delle fonti originali.









