A OpenAI negou recentemente os rumores de que está desenvolvendo seu próximo modelo de linguagem natural, o GPT-5. O CEO da empresa, Sam Altman, confirmou que não estão treinando atualmente o GPT-5, em meio a preocupações crescentes sobre a segurança da inteligência artificial (IA) e seu potencial para mudar a vida como a conhecemos.
Um grupo de especialistas em IA emitiu uma carta aberta pedindo às empresas que parem de desenvolver sistemas mais potentes que o GPT-4 até que as preocupações de segurança sejam abordadas. Embora alguns na indústria apoiem a ideia, outros criticam a falta de compreensão técnica envolvida no desenvolvimento da IA.
O CEO da OpenAI, Sam Altman, concorda com esta crítica e afirma que a carta “carece de grande parte da sutileza técnica sobre onde precisamos dar uma pausa”. Ele enfatizou que a empresa ainda está trabalhando para melhorar as capacidades do GPT-4 e que muitas questões de segurança precisam ser resolvidas antes de seguir em frente com o GPT-5.
Essa notícia destaca a dificuldade em medir e rastrear o progresso da IA. Os números de versão frequentemente são usados como medida de progresso, mas isso pode ser enganoso. A ideia de que as atualizações numeradas refletem melhorias definidas e lineares na capacidade é uma ilusão que tem sido alimentada no mundo da tecnologia de consumo por anos.
Embora a notícia de que a OpenAI não está desenvolvendo o GPT-5 atualmente possa parecer um alívio para aqueles preocupados com a segurança da IA, há ainda muito trabalho a ser feito nesta área. É importante abordar as preocupações de segurança da IA de maneira eficaz para garantir que a tecnologia seja usada de forma responsável e segura. Especialistas destacam a importância de uma governança eficaz da IA, incluindo transparência, responsabilização e ética. Além disso, são necessárias regulamentações sólidas para garantir que os sistemas de IA sejam seguros e responsáveis.