Tecnologia

OpenAI: CEO Admite Incompreensão do Funcionamento da IA

Sam Altman, CEO da OpenAI, empresa líder em inteligência artificial (IA), admitiu publicamente não compreender como seus modelos de linguagem de grande porte (LLMs) funcionam em seus aspectos mais profundos. A declaração foi feita durante o evento AI for Good Global Summit, em Genebra, levantando preocupações sobre a segurança e o futuro da tecnologia.

Questionado sobre o funcionamento interno dos LLMs, Altman afirmou que a empresa ainda não solucionou a questão da interpretabilidade. Isso significa que, apesar dos avanços tecnológicos, a OpenAI não consegue rastrear completamente o processo decisório por trás das respostas geradas pela IA, muitas vezes imprecisas ou bizarras.

A falta de transparência sobre o funcionamento da IA é um problema comum no setor. Pesquisadores têm dificuldade em explicar o “pensamento” por trás das respostas dos chatbots e em rastrear a origem das informações utilizadas para formular as respostas. A OpenAI, inclusive, mantém em sigilo os dados utilizados para treinar seus modelos.

Um relatório recente encomendado pelo governo do Reino Unido revelou que o conhecimento científico sobre o funcionamento da IA é limitado. Empresas como a Anthropic estão buscando novas formas de desvendar a “caixa preta” da IA, mapeando os neurônios artificiais de seus algoritmos, mas admitem que o trabalho está apenas começando e que os custos para uma compreensão completa são proibitivos.

A questão da interpretabilidade da IA é crucial para garantir a segurança da tecnologia e evitar o risco de uma inteligência artificial geral descontrolada, que alguns especialistas consideram uma ameaça existencial para a humanidade. O próprio Altman dissolveu recentemente a equipe responsável por controlar IAs superinteligentes, assumindo pessoalmente a liderança de um novo comitê de segurança.

Leia Também!  A Inteligência Artificial e o Futuro da Fotografia Profissional: Evolução, Não Extinção

No entanto, os comentários de Altman levantam dúvidas sobre a capacidade da OpenAI de garantir a segurança de seus produtos, já que a empresa não compreende completamente como eles funcionam. A falta de transparência e a busca por lucro podem ser fatores que impedem um avanço mais rápido na pesquisa sobre interpretabilidade.

A comunidade científica e o público em geral precisam exigir maior transparência das empresas de IA e pressionar por investimentos em pesquisas que visem desvendar o funcionamento interno desses sistemas. A segurança e o futuro da humanidade podem depender disso.

Compartilhar: