Um desafio público pode impedir temporariamente a implementação do ChatGPT e sistemas de IA semelhantes. A organização sem fins lucrativos Center for AI and Digital Policy (CAIDP) apresentou uma denúncia à Federal Trade Commission (FTC) alegando que a OpenAI está violando o FTC Act através de seus lançamentos de modelos de IA de linguagem ampla, como o GPT-4.

O modelo é “enviesado, enganoso” e ameaça tanto a privacidade quanto a segurança pública, alega a CAIDP. Além disso, supostamente não atende às diretrizes da Comissão que pedem que a IA seja transparente, justa e fácil de explicar.

O Centro quer que a FTC investigue a OpenAI e suspenda futuros lançamentos de modelos de linguagem ampla até que atendam às diretrizes da agência. Os pesquisadores querem que a OpenAI exija avaliações independentes de produtos e serviços do GPT antes de lançá-los. A CAIDP também espera que a FTC crie um sistema de relato de incidentes e padrões formais para geradores de IA.

Ainda não houve comentários da OpenAI. A FTC se recusou a comentar. O presidente da CAIDP, Marc Rotenberg, foi um dos que assinaram uma carta aberta exigindo que a OpenAI e outros pesquisadores de IA interrompam o trabalho por seis meses para permitir discussões éticas. O fundador da OpenAI, Elon Musk, também assinou a carta.

Críticos do ChatGPT, Google Bard e modelos semelhantes alertaram sobre a produção problemática, incluindo declarações imprecisas, discurso de ódio e enviesamento. Os usuários também não podem repetir os resultados, diz a CAIDP. O Centro destaca que a própria OpenAI alerta que a IA pode “reforçar” ideias verdadeiras ou falsas. Embora atualizações como o GPT-4 sejam mais confiáveis, há uma preocupação de que as pessoas possam confiar na IA sem verificar seu conteúdo.

Não há garantia de que a FTC irá agir sobre a denúncia. Se definir requisitos, no entanto, a medida afetaria o desenvolvimento em toda a indústria de IA. As empresas teriam que esperar por avaliações e poderiam enfrentar mais repercussões se seus modelos não atenderem aos padrões da Comissão. Embora isso possa melhorar a responsabilização, poderia desacelerar o ritmo atualmente acelerado do desenvolvimento de IA.

Deixe uma respostaCancelar resposta

Exit mobile version