Grok e l'insistenza sul "genocidio bianco in Sudafrica": una modifica non autorizzata all'origine della vicenda

Grok e l'insistenza sul "genocidio bianco in Sudafrica": una modifica non autorizzata all'origine della vicenda

Grok, il chatbot di xAI integrato in X, ha incluso con insistenza pareri non richiesti "genocidio bianco". xAI ha attribuito l’episodio a una modifica non autorizzata e introdotto controlli più rigorosi

di pubblicata il , alle 16:01 nel canale Web
 

Si tratterebbe di un'anomalia ciò che ha indotto Grok, il chatbot di xAI integrato in X, a includere citazioni sul presunto "genocidio bianco" in Sudafrica in maniera del tutto non attinente in risposte ad argomenti di varia natura. Anomalia che, più nello specifico, sarebbe una "modifica non autorizzata" che avrebbe spinto X ad introdurre controlli più rigorosi e adottare misure per migliorare la trasparenza.

Nei giorni scorsi Grok si è mostrato particolarmente pedante nel ricordare, a molti utenti gli chiedevano qualcosa, alcuni dettagli e vicende riguardanti un presunto "genocidio bianco" in Sudafrica, rispecchiando di fatto alcune posizioni espresse da Elon Musk, proprietario di X e originario del Sudafrica, che ha più volte denunciato le leggi sulla proprietà ritenendole "apertamente razziste" e persecutorie nei confronti degli agricoltori bianchi del suo paese natale.

L'insistenza di Grok a ricordare a tutti il "genocidio bianco" ha portato anche Sam Altman ad ironizzare sulla vicenda, con un post su X in cui ha imitato il chatbot concorrente.

Qualche utente ha chiesto a Grok per quale motivo esprimesse opinioni non richieste sull'argomento, e in un caso il chatbot ha indicato che era stato addestrato appositamente da xAI per trattare l'argomento in un certo modo.

X ha diffuso un comunicato sul proprio social network affermando che il system prompt di Grok è stato alterato per "fornire una risposta specifica su un tema politico". L'azienda sottolinea che la modifica rappresenta una violazione delle politiche interne e dei valori fondamentali di xAI, portando di conseguenza ad un'indagine e alla messa in atto di alcune misure.

Tra i provvedimenti previsti figurano la pubblicazione dei system prompt di Grok su GitHub, la creazione di un team di monitoraggio 24/7 per intercettare tempestivamente anomalie e l’introduzione di controlli e procedure aggiuntive affinché i dipendenti xAI non possano modificare i prompt senza supervisione.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
alien32116 Maggio 2025, 16:14 #1
Be magari genocidio non è, per ora, ma la situazione in Sud Africa non è delle migliori...
zbear16 Maggio 2025, 20:05 #2
Considerando quello che i BOERI hanno fatto in sudafrica, direi che stanno SOLO avendo in restituzione le loro malefatte ... e non è certo genocidio, come vorrebbero far credere quelli come musk.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^