A OpenAI busca frear as alucinações do ChatGPT. Um estudo revela que, mesmo com dados de treinamento ideais, erros são inevitáveis devido à geração palavra por palavra. A solução proposta? Responder apenas com mais de 75% de confiança.
Essa abordagem reduziria significativamente as alucinações, mas à custa da experiência do usuário. O sistema poderia retornar “não sei” em cerca de 30% das interações, o que afetaria a usabilidade. É um dilema: precisão versus fluidez. A OpenAI precisa balancear a confiabilidade com a utilidade do seu chatbot.


