O avanço das inteligências artificiais generativas tem levantado debates sobre seu verdadeiro impacto no progresso científico. Em uma declaração recente, Thomas Wolf, cofundador da Hugging Face — uma das principais empresas de desenvolvimento em IA — expressou ceticismo quanto ao papel desses modelos na geração de descobertas científicas inovadoras.
Para Wolf, modelos de linguagem como os LLMs (Large Language Models) não são, como alguns esperam, “um novo Einstein no data center”. Em vez disso, ele os compara a uma geração de “puxa-sacos” digitais: capazes de gerar respostas coerentes e plausíveis, mas sem a criatividade necessária para questionar o status quo ou formular perguntas realmente originais — algo essencial para a ciência avançar.
Segundo o executivo, o problema não está na falta de dados ou de conhecimento por parte das IAs, mas sim na sua limitação intrínseca em desafiar os próprios limites do saber. Em outras palavras, essas ferramentas são excelentes em reproduzir o que já foi dito, mas ainda estão longe de pensar “fora da caixa”.
A crítica foi publicada pelo portal Yahoo News e reacende uma discussão importante: até que ponto podemos confiar na IA como protagonista no desenvolvimento científico, e não apenas como ferramenta de apoio?
Enquanto o uso de modelos de linguagem continua a crescer em áreas como educação, saúde e tecnologia, especialistas como Wolf alertam que o pensamento criativo e a capacidade de questionamento — pilares da ciência — ainda pertencem, pelo menos por enquanto, ao domínio humano.