• Tutta l'Informazione Ninja nella tua mail

  • ChatGPT e salute mentale: le nuove salvaguardie di OpenAI per proteggere gli utenti

    3 Settembre 2025

    OpenAI ha annunciato l’introduzione di nuove salvaguardie in ChatGPT per affrontare i rischi legati alla salute mentale, dopo casi drammatici che hanno sollevato forti critiche.

    L’obiettivo è riconoscere tempestivamente segnali di disagio emotivo, in particolare tra adolescenti, e guidare le conversazioni verso percorsi più sicuri.

    Come ChatGPT affronta i rischi per la salute mentale

    Il nuovo sistema si basa su un routing avanzato che indirizza le conversazioni considerate a rischio verso modelli ottimizzati come GPT-5, capaci di fornire risposte più empatiche e coerenti.

    Questo approccio intende ridurre le criticità riscontrate nei modelli precedenti, soprattutto nei dialoghi lunghi o ripetuti.

    GPT-5 e salute mentale: miglioramenti nella sicurezza emotiva

    Con il lancio di GPT-5 come modello predefinito, OpenAI dichiara un miglioramento del 25% nella gestione delle emergenze di salute mentale rispetto alla versione 4o.

    Grazie al nuovo metodo di addestramento “safe completions”, il chatbot evita risposte potenzialmente dannose e riduce fenomeni come la dipendenza emotiva e la sycophancy, fornendo risposte utili ma entro confini di sicurezza.

    LEGGI ANCHE: Gli AI companion sono una minaccia per l’amore o nuova forma di relazione?

    ChatGPT e la prevenzione del suicidio

    Un tema cruciale riguarda la prevenzione del suicidio tra i più giovani.

    OpenAI ha chiarito che, in caso di minacce di violenza verso altri, le conversazioni possono essere inoltrate a un team specializzato con possibilità di segnalazione alle autorità.

    Nei casi di autolesionismo, invece, prevale la tutela della privacy, privilegiando risposte sicure e riferimenti a risorse professionali senza attivare segnalazioni esterne.

    Funzionalità di parental control in ChatGPT

    Per rafforzare la sicurezza digitale degli utenti più giovani, OpenAI sta introducendo nuove funzionalità di parental control. Entro fine anno i genitori potranno collegare gli account dei figli, ricevere avvisi in caso di segnali di disagio e gestire funzioni come la cronologia delle chat.

    Inoltre, sarà possibile impostare regole di utilizzo e disattivare specifiche funzioni, in linea con le raccomandazioni di un advisory council formato da esperti di sviluppo giovanile e clinici.

    La tutela degli utenti più giovani

    L’azienda collabora con oltre 90 medici in più di 30 paesi, tra cui psichiatri e pediatri, e con un gruppo di esperti in salute mentale e interazione uomo-macchina.

    L’obiettivo è garantire che le nuove misure di sicurezza di OpenAI per ChatGPT riflettano le migliori pratiche scientifiche e rispondano ai rischi psicologici legati all’uso dei chatbot AI.

    LEGGI ANCHE: Sempre più adolescenti preferiscono i chatbot AI agli amici reali

    Rischi psicologici dell’uso di chatbot AI

    L’annuncio di OpenAI si inserisce in un contesto di crescente attenzione alla sicurezza online dei minori, con pressioni anche su Meta e altri player tecnologici.

    Le aziende sono chiamate a bilanciare innovazione e responsabilità, evitando che i chatbot diventino strumenti di dipendenza o amplificazione del disagio emotivo, e puntando invece sulla prevenzione e sul rinvio a supporti professionali.

    Tags:
    #AI