Sam Altman, CEO da OpenAI, empresa líder em inteligência artificial (IA), admitiu publicamente não compreender como seus modelos de linguagem de grande porte (LLMs) funcionam em seus aspectos mais profundos. A declaração foi feita durante o evento AI for Good Global Summit, em Genebra, levantando preocupações sobre a segurança e o futuro da tecnologia.
Questionado sobre o funcionamento interno dos LLMs, Altman afirmou que a empresa ainda não solucionou a questão da interpretabilidade. Isso significa que, apesar dos avanços tecnológicos, a OpenAI não consegue rastrear completamente o processo decisório por trás das respostas geradas pela IA, muitas vezes imprecisas ou bizarras.
A falta de transparência sobre o funcionamento da IA é um problema comum no setor. Pesquisadores têm dificuldade em explicar o “pensamento” por trás das respostas dos chatbots e em rastrear a origem das informações utilizadas para formular as respostas. A OpenAI, inclusive, mantém em sigilo os dados utilizados para treinar seus modelos.
Um relatório recente encomendado pelo governo do Reino Unido revelou que o conhecimento científico sobre o funcionamento da IA é limitado. Empresas como a Anthropic estão buscando novas formas de desvendar a “caixa preta” da IA, mapeando os neurônios artificiais de seus algoritmos, mas admitem que o trabalho está apenas começando e que os custos para uma compreensão completa são proibitivos.
A questão da interpretabilidade da IA é crucial para garantir a segurança da tecnologia e evitar o risco de uma inteligência artificial geral descontrolada, que alguns especialistas consideram uma ameaça existencial para a humanidade. O próprio Altman dissolveu recentemente a equipe responsável por controlar IAs superinteligentes, assumindo pessoalmente a liderança de um novo comitê de segurança.
No entanto, os comentários de Altman levantam dúvidas sobre a capacidade da OpenAI de garantir a segurança de seus produtos, já que a empresa não compreende completamente como eles funcionam. A falta de transparência e a busca por lucro podem ser fatores que impedem um avanço mais rápido na pesquisa sobre interpretabilidade.
A comunidade científica e o público em geral precisam exigir maior transparência das empresas de IA e pressionar por investimentos em pesquisas que visem desvendar o funcionamento interno desses sistemas. A segurança e o futuro da humanidade podem depender disso.