La nuova personalità di ChatGPT non piace
ChatGPT - Borsainside.com

Negli ultimi anni, l’utilizzo degli strumenti di intelligenza artificiale è cresciuto in modo esponenziale, trasformando chatbot come ChatGPT in veri e propri assistenti personali. Alcuni utenti li usano per organizzare il lavoro, altri per trovare risposte rapide o suggerimenti creativi. Tuttavia, sta emergendo un fenomeno più delicato: molti iniziano a trattare l’AI come un terapeuta, confidando emozioni, traumi e problemi relazionali nella speranza di ricevere comprensione e supporto.

Il richiamo di Sam Altman: attenzione ai dati personali e alla mancanza di riservatezza

Durante un’intervista nel podcast “This Past Weekend” con Theo Von, il CEO di OpenAI, Sam Altman, ha lanciato un chiaro avvertimento: non bisogna affidare a ChatGPT le proprie esperienze personali più profonde. Altman ha spiegato che, sebbene l’AI stia migliorando nell’empatia e nella comprensione del linguaggio umano, non esiste alcuna forma di protezione legale o riservatezza simile a quella garantita da psicologi, avvocati o medici.

Nessun privilegio legale come nella terapia professionale

Nel mondo reale, quando una persona si rivolge a uno psicoterapeuta, a un medico o a un legale, le informazioni condivise sono tutelate da leggi sulla privacy e dalla confidenzialità professionale. In caso di procedimenti giudiziari, tali figure sono tenute al segreto professionale. Con l’AI, invece, queste tutele non esistono: se un tribunale richiedesse l’accesso ai dati di un utente, OpenAI non potrebbe legalmente opporsi alla divulgazione delle conversazioni avvenute.

Altman ha sottolineato:

“Le persone parlano delle cose più personali della loro vita con ChatGPT. Giovani, soprattutto, lo usano come terapeuta o come coach di vita. Ma al momento, se ti confidi con un terapeuta o con un avvocato, hai delle protezioni legali. Con ChatGPT no, e dobbiamo ancora capire come regolare tutto questo.”

Serve una regolamentazione chiara prima che l’AI possa sostituire la terapia

Secondo Altman, la tecnologia si sta evolvendo troppo velocemente rispetto al quadro normativo che dovrebbe regolarla. Idealmente, i sistemi di AI che gestiscono dati sensibili dovrebbero godere di garanzie legali equivalenti a quelle delle figure professionali umane. Ma oggi, la legge non prevede alcuna tutela specifica per ciò che viene condiviso con un’intelligenza artificiale. Questo vuoto normativo potrebbe avere ripercussioni gravi, specialmente in contesti legali o giudiziari.

ChatGPT può aiutare, ma non sostituisce un professionista

L’AI può essere un supporto utile per gestire lo stress quotidiano, trovare ispirazione o ottenere consigli pratici, ma non è pensata per sostituire il ruolo di uno psicologo. La mancanza di empatia reale, il rischio di interpretazioni errate e soprattutto l’assenza di privacy garantita rendono rischioso confidarsi su temi delicati. Finché non verranno stabilite leggi precise a tutela dell’utente, è bene usare questi strumenti con cautela e consapevolezza.

In un mondo sempre più connesso e dipendente dalla tecnologia, il messaggio di Sam Altman è un invito alla prudenza: non affidare la tua salute mentale a un algoritmo, soprattutto se in gioco c’è la tua privacy.

Questo contenuto non deve essere considerato un consiglio di investimento. Non offriamo alcun tipo di consulenza finanziaria. L’articolo ha uno scopo soltanto informativo e alcuni contenuti sono Comunicati Stampa scritti direttamente dai nostri Clienti.
I lettori sono tenuti pertanto a effettuare le proprie ricerche per verificare l’aggiornamento dei dati. Questo sito NON è responsabile, direttamente o indirettamente, per qualsivoglia danno o perdita, reale o presunta, causata dall'utilizzo di qualunque contenuto o servizio menzionato sul sito https://www.borsainside.com.

🌟 Prova il conto demo di iFOREX Europe
  • Ricevi 5.000 $ per fare trading ora
  • Oltre 750 CFD disponibili – Leva fino a 30: 1
  • Fai trading 7 giorni su 7
Scopri di più su iFOREX.it