
Un nuovo scandalo legato alla privacy degli utenti dei chatbot AI sta scuotendo il settore tecnologico. Secondo recenti indagini online, oltre 100.000 conversazioni generate su ChatGPT sono apparse tra i risultati di ricerche su Google, rivelando pubblicamente contenuti che avrebbero dovuto restare privati. La situazione è resa ancora più grave dal fatto che, anche dopo i primi tentativi di rimozione, molti di questi contenuti restano accessibili tramite la Wayback Machine, l’archivio digitale gestito da Archive.org.
Le conversazioni AI diventano pubbliche: cosa è successo?
Tutto è iniziato con alcune segnalazioni su forum e social: digitando correttamente determinati comandi di ricerca su Google, era possibile accedere a chat condivise da utenti tramite link pubblici di ChatGPT. Questi link, pur appartenendo a una funzione legittima di condivisione, sono stati indicizzati dai motori di ricerca senza alcun filtro. In alcuni casi, le conversazioni contenevano dati sensibili, domande personali o contenuti problematici, sollevando immediatamente preoccupazioni sulla sicurezza e la gestione della privacy da parte di OpenAI.
La questione Wayback Machine: la memoria di internet non dimentica
Il problema non si ferma a Google. Come segnalato dal sito Digital Digging, molte delle conversazioni ormai rimosse o de-indicizzate restano comunque archiviate e accessibili sulla Wayback Machine, la piattaforma che salva versioni cronologiche di ogni pagina web pubblica.
Il direttore del progetto, Mark Graham, ha confermato che OpenAI non ha mai richiesto formalmente la rimozione delle URL del tipo “chatgpt.com/share”. Questo significa che, nonostante gli sforzi per cancellare i link da Google, chi conosce gli strumenti giusti può recuperare e leggere le vecchie conversazioni archiviate, molte delle quali non erano destinate a un pubblico esterno.
“Se OpenAI, in quanto detentrice dei diritti del dominio chatgpt.com, ci chiedesse di escludere questi URL, probabilmente onoreremmo la richiesta. Ma finora non è mai avvenuto.”
— Mark Graham, Wayback Machine
Non solo OpenAI: anche Grok 4 coinvolto
Il caso non riguarda solo OpenAI. Anche Grok 4, il chatbot sviluppato da xAI (azienda di Elon Musk), ha mostrato segni di esposizione pubblica tramite Google. Questo suggerisce che le vulnerabilità nella gestione delle conversazioni AI non sono isolate, ma rappresentano un problema diffuso tra diversi modelli AI consumer.
Cosa significa tutto questo per gli utenti?
Questa situazione rappresenta un duro colpo alla fiducia degli utenti nei confronti dei servizi AI. Sebbene le chat pubblicate tramite condivisione siano tecnicamente visibili, la mancata protezione dalla scansione automatica dei motori di ricerca ha portato a una diffusione involontaria di contenuti privati.
Inoltre, alcune conversazioni potrebbero potenzialmente essere utilizzate come prova in ambito legale, aprendo scenari complessi in termini di responsabilità, diritti d’autore e tutela dei dati personali.
Questo contenuto non deve essere considerato un consiglio di investimento.
Non offriamo alcun tipo di consulenza finanziaria. L’articolo ha uno scopo soltanto informativo e alcuni contenuti sono Comunicati Stampa
scritti direttamente dai nostri Clienti.
I lettori sono tenuti pertanto a effettuare le proprie ricerche per verificare l’aggiornamento dei dati.
Questo sito NON è responsabile, direttamente o indirettamente, per qualsivoglia danno o perdita, reale o presunta,
causata dall'utilizzo di qualunque contenuto o servizio menzionato sul sito https://www.borsainside.com.
- Ricevi 5.000 $ per fare trading ora
- Oltre 750 CFD disponibili – Leva fino a 30: 1
- Fai trading 7 giorni su 7
