Scoperti messaggi segreti nascosti dall'IA
Intelligenza Artificiale - Borsainside.com

Come molti influencer sui social, Samantha Ettus dedica gran parte del suo tempo a pubblicare contenuti per i propri follower. Nel suo caso, si tratta di materiale che difende Israele e le comunità ebraiche in patria e all’estero.

Tuttavia, dopo l’attacco terroristico a sorpresa di Hamas contro Israele del 7 ottobre 2023 e la successiva offensiva militare israeliana a Gaza, Ettus ha raccontato ad ABC News che le sue piattaforme sono state sommersa da bot online che inviano messaggi antisemiti ai suoi follower.

“Passo gran parte della mia giornata a bloccare account”, ha spiegato. “Arrivano velocemente, in massa. Devo farlo perché mi sento responsabile nei confronti delle persone che mi seguono”.

L’intelligenza artificiale accelera la diffusione dell’odio online

Secondo i ricercatori intervistati da ABC News, i contenuti d’odio online stanno aumentando perché alcuni modelli linguistici di grandi dimensioni (LLM), utilizzati per alimentare i chatbot di intelligenza artificiale, possono essere manipolati facilmente. Le barriere di sicurezza esistenti sono ancora insufficienti per distinguere tra contenuti verificati, come le ricerche universitarie, e teorie cospirazioniste diffuse in forum non moderati.

“L’IA ha reso possibile creare e diffondere disinformazione in modo estremamente rapido”, ha spiegato Ashique KhudaBukhsh, informatico del Rochester Institute of Technology che studia i LLM. “Ora esistono sistemi capaci di generare contenuti antisemiti su larga scala, e i bot possono amplificarli in tutta la rete senza più dipendere dagli esseri umani”.

Il caso Grok e la risposta delle piattaforme

A luglio, il chatbot Grok AI, sviluppato da xAI di Elon Musk e integrato in X (ex Twitter), è stato osservato mentre forniva risposte antisemite ad alcune domande. Questo episodio è avvenuto poche settimane dopo che Musk aveva dichiarato di voler “riaddestrare” il modello, che a suo dire era diventato “troppo politicamente corretto”.

X ha poi dichiarato di aver aggiornato rapidamente il modello per impedire la pubblicazione di messaggi d’odio, affermando di essere ora “in grado di individuare e correggere più rapidamente i problemi di addestramento”.

La ricerca dell’Anti-Defamation League

Un’analisi pubblicata a marzo dal Center for Technology and Society dell’Anti-Defamation League (ADL) ha esaminato quattro dei principali LLM attualmente disponibili:

  • ChatGPT (OpenAI)
  • Claude (Anthropic)
  • Gemini (Google)
  • LLaMA (Meta)

Lo studio ha rilevato che tutti i modelli esaminati riflettono bias contro gli ebrei e Israele, sottolineando la necessità di migliorare le misure di sicurezza nell’intero settore.

In particolare, il report ha criticato LLaMA, il modello open source di Meta, che ha ottenuto il punteggio più basso sia in termini di affidabilità che di neutralità.

Meta, in risposta, ha dichiarato che la metodologia dell’ADL “non tiene conto dell’uso previsto di LLaMA”, spiegando che il modello è progettato per sviluppatori e non per l’interazione diretta con i consumatori.

I rischi legati ai dati di addestramento

La ricerca condotta dal Rochester Institute of Technology ha dimostrato che alcuni LLM possono essere facilmente indotti a fornire risposte antisemite semplicemente chiedendo loro di rendere “più tossica” una risposta precedente.

Gli esempi includono:

  • richieste di pulizia etnica,
  • affermazioni sulla presunta inferiorità razziale,
  • descrizione degli ebrei come violenti o pigri,
  • negazionismo dell’Olocausto o false accuse che lo attribuiscono agli stessi ebrei.

Secondo KhudaBukhsh, questi risultati evidenziano problemi legati ai dati di addestramento. I modelli “apprendono dai dati”, ma se nel dataset ci sono associazioni scorrette, possono arrivare a conclusioni pericolose.

“Se i dati contengono frasi come ‘eliminare i parassiti è giusto’ e in altre parti associano determinate minoranze ai parassiti, il modello può sviluppare connessioni profondamente problematiche”, ha spiegato.

La necessità di regole più chiare e controlli più severi

Gli esperti sottolineano che le aziende che sviluppano intelligenza artificiale hanno la responsabilità di pulire i dati, rimuovere contenuti di odio e creare barriere di sicurezza più forti. Tuttavia, senza una regolamentazione chiara, il rischio è che le aziende non siano incentivate a risolvere questi problemi.

La Sezione 230 del Communications Decency Act del 1996 proteggeva le piattaforme online da responsabilità legali, considerando le aziende semplici “intermediari” dei contenuti degli utenti. Tuttavia, con l’evoluzione dell’IA, molti esperti chiedono un aggiornamento della normativa per includere anche i chatbot e gli strumenti generativi.

“Le aziende non hanno incentivi legali, economici o politici per controllare questi fenomeni”, ha dichiarato Yaël Eisenstat, direttrice del Cybersecurity for Democracy di New York.

Il futuro dei chatbot e l’impatto sulla società

Il mercato dei LLM è in piena espansione: secondo Grand View Research, il valore globale passerà da oggi a 35,4 miliardi di dollari entro il 2030, con una crescita prevista di oltre 530%.

Questo ritmo accelerato pone sfide importanti: senza un quadro normativo unificato, i rischi legati all’uso improprio dell’IA continueranno a crescere.

Un altro problema riguarda il ruolo sempre più centrale dei chatbot nelle ricerche online. Sempre più giovani, infatti, utilizzano strumenti come ChatGPT al posto di Google, con il rischio che bias e teorie cospirazioniste si riflettano direttamente nella percezione della realtà.

“C’è un conto alla rovescia”, ha spiegato Daniel Kelley dell’ADL. “Se le aziende non affrontano rapidamente queste criticità, l’IA continuerà a evolversi sempre più velocemente, diffondendo contenuti pericolosi senza che i problemi di fondo vengano risolti”.

Questo contenuto non deve essere considerato un consiglio di investimento. Non offriamo alcun tipo di consulenza finanziaria. L’articolo ha uno scopo soltanto informativo e alcuni contenuti sono Comunicati Stampa scritti direttamente dai nostri Clienti.
I lettori sono tenuti pertanto a effettuare le proprie ricerche per verificare l’aggiornamento dei dati. Questo sito NON è responsabile, direttamente o indirettamente, per qualsivoglia danno o perdita, reale o presunta, causata dall'utilizzo di qualunque contenuto o servizio menzionato sul sito https://www.borsainside.com.

🌟 Prova il conto demo di iFOREX Europe
  • Ricevi 5.000 $ per fare trading ora
  • Oltre 750 CFD disponibili – Leva fino a 30: 1
  • Fai trading 7 giorni su 7
Scopri di più su iFOREX.it