“É um monte de besteira”: Geoffrey Hinton critica técnica central usada por gigantes da IA


Considerado um dos pais da inteligência artificial moderna, Geoffrey Hinton voltou a criticar duramente os rumos do desenvolvimento da tecnologia. Para ele, o uso da técnica conhecida como RLHF — Reforço por Feedback Humano — é uma solução superficial para problemas estruturais graves nos modelos atuais de IA, como os desenvolvidos pela OpenAI e outras big techs. Hinton alerta que confiar nesse tipo de ajuste cosmético é como “tapar buracos em uma represa prestes a romper”, e propõe medidas mais restritivas diante dos riscos crescentes da inteligência artificial avançada.


Ganhador do Prêmio Nobel em 2024 e pioneiro da aprendizagem profunda, Geoffrey Hinton voltou a chamar atenção para os riscos da inteligência artificial, criticando fortemente o método RLHF (Reinforcement Learning from Human Feedback). Para ele, essa técnica — adotada por empresas como a OpenAI — não resolve os problemas fundamentais da IA, apenas “pinta a carroça velha” ao ajustar o comportamento superficial dos modelos.

O RLHF funciona com base em intervenções humanas: usuários escolhem as melhores respostas geradas pela IA, e essas preferências orientam ajustes futuros. A intenção é alinhar os modelos com valores humanos e evitar conteúdos tóxicos. No entanto, Hinton considera o método ineficaz para lidar com os riscos reais. Ele argumenta que essas técnicas não alteram as intenções internas do sistema nem oferecem garantias sobre como a IA pode agir em situações inéditas.

Leia Também:  Robô Atlas vira cinegrafista em set de filmagens

Segundo ele, confiar que um sistema permanece seguro apenas por se comportar bem é “uma aposta imprudente”. Hinton acredita que os modelos estão perto de ultrapassar as capacidades humanas em áreas cognitivas, o que ele vê como um risco existencial. Embora reconheça os benefícios da IA em áreas como medicina e educação, defende a desaceleração do desenvolvimento de IAs avançadas e o controle sobre a divulgação de seus “pesos” — parâmetros internos que podem ser explorados de forma maliciosa.

Hinton, que em 2018 ainda via a inteligência artificial geral (AGI) como um futuro distante, agora alerta que ela pode estar mais próxima do que se pensava — e que os riscos não podem mais ser ignorados.

Compartilhar: