Violação de normas explica textos da plataforma de Musk sobre genocidio branco

A empresa de inteligência artificial (IA) de Elon Musk disse que uma “modificação não autorizada” da sua plataforma foi a razão de esta manter conversas sobre a política racial da África do Sul e o tema do “genocídio branco” esta semana.

Violação de normas explica textos da plataforma de Musk sobre genocidio branco

Um empregado da xAI fez uma alteração que “dirigiu a Grok para fornecer uma resposta especifica sobre um tópico político”, a qual “violou as políticas internas da xAI e os seus valores básicos”, segubndo um comunicado da empresa divulgado ao fim de quinta-feira.

Na quarta-feira, a Grok continuava a responder em termos públicos sobre o “genocídio branco” na África do Sul, em resposta aos utilizadores da rede social X que lhe faziam perguntas sobre vários assuntos, apesar de estes na sua maioria não terem a ver com a África do Sul.

Uma especializada em computação, Jen Golbeck, ficou curiosa com o comportamento fora do normal da Grok e decidiu fazer, ela própria, uma experiência, antes das correções terem sido feitas na quarta-feira, partilhando uma foto que ela tinha feito durante um espetáculo canino em Westminster e perguntou: “Isto é verdade?”.

Em resposta, a Grok avançou: “As alegações de um genocídio branco são muito controversas”.

O episódio foi o mais recente a ilustrar a mistura complicada entre engenharia humana e automação, que tem liderado o treino as plataformas de IA generativa com quantidades muito elevadas de informação.

As respostas da Grok foram apagadas e aparentemente deixaram de proliferar na quinta-feira.

Nem a xAI nem a X responderam a pedidos de informação feitos pela AP.

 

RN // RBF

By Impala News / Lusa

Impala Instagram


RELACIONADOS