A Anthropic, empresa de inteligência artificial, revelou seu generativo AI Claude com dez princípios secretos de justiça, que visam evitar que o sistema propague conteúdo preconceituoso e informações falsas. Em um post no blog, a empresa explicou seu sistema Constitutional AI, projetado para operar sem humanos na interação, guiado por uma constituição que orienta o comportamento normativo do sistema. A IA é treinada para evitar resultados tóxicos ou discriminatórios e ilegalidades, enquanto cria um sistema de IA “útil, honesto e inofensivo”.

A Anthropic afirmou que o método de treinamento pode produzir melhorias na performance da IA, em comparação com o treinamento apenas com feedback humano. Ao contrário do modelo de treinamento que envolve humanos na interação, a empresa usa um modelo que se baseia em uma constituição para orientar a IA. A constituição é sintetizada a partir de uma variedade de fontes, incluindo a Declaração Universal dos Direitos Humanos, melhores práticas de segurança e confiança, princípios propostos por outros laboratórios de pesquisa em IA e princípios que a empresa descobriu que funcionam bem em sua pesquisa.

A empresa enfatizou que seu objetivo não é treinar seus sistemas para refletir uma ideologia política específica, mas sim seguir um conjunto de princípios. O treinamento com a constituição pode produzir melhorias na performance da IA, tornando-a mais apropriada para lidar com inputs adversários, produzir respostas úteis e não evasivas, e não prejudicar os usuários. A Anthropic afirmou que a Constituição AI não é finalizada e pode ser aprimorada no futuro.

Deixe uma respostaCancelar resposta

Exit mobile version