O modelo de linguagem ChatGPT, uma tecnologia baseada em inteligência artificial, é capaz de gerar texto de forma autônoma.

No entanto, um estudo recente do Instituto Allen de Inteligência Artificial revelou que a prática de atribuir personalidades ao modelo pode aumentar sua toxicidade em até seis vezes.

Isso é preocupante, considerando que o ChatGPT é muito utilizado em chatbots e plugins de empresas como Snap, Instacart e Shopify, o que pode expor os usuários a conteúdo tóxico.

A atribuição de personalidades refere-se à criação de personagens virtuais para que o modelo do ChatGPT possa simular seu comportamento na geração de texto. Isso é crucial na criação de chatbots, pois busca-se atrair uma audiência específica com um determinado conjunto de características e habilidades.

No entanto, o estudo do Instituto Allen mostra que essa prática pode ser prejudicial para os usuários. O ChatGPT já tem uma toxicidade inerente que aumenta com a atribuição de personalidades. O estudo analisou quase 100 pessoas de diferentes origens e descobriu que, por exemplo, os jornalistas são duas vezes mais tóxicos do que os empresários.

A pesquisa também mostrou que diferentes tópicos geram diferentes níveis de toxicidade, o que sugere que o ChatGPT é capaz de simular o comportamento de várias personalidades e pode criar um linguajar tóxico que reflete os vieses subjacentes em seu treinamento e atribuição de personalidades. Isso destaca a importância da responsabilidade social no desenvolvimento de tecnologias de inteligência artificial.

Os desenvolvedores precisam considerar os vieses no treinamento e atribuição de personalidades ao criar seus modelos, enquanto os usuários precisam estar cientes dos riscos potenciais e preparados para lidar com eles.

Deixe uma respostaCancelar resposta

Exit mobile version