05:13
Según informó The Decoder el 12 de octubre, los investigadores de Meta AI han propuesto un método basado en avisos, la cadena de verificación (CoVe), que puede reducir significativamente los problemas de alucinación en chatbots como ChatGPT. Con CoVe, el chatbot primero responde a las indicaciones y luego genera preguntas basadas en esos resultados para validar las declaraciones. Estas "preguntas de validación" se ejecutan como nuevas sugerencias independientes de la primera entrada para evitar que se tomen mensajes de error de la primera salida. Finalmente, el modelo de lenguaje valida la primera entrada en función de los hechos recopilados individualmente. Todas las pruebas se realizaron con Llama 65 B. La investigación del equipo de investigación mostró que había significativamente menos errores contenidos en las respuestas a las preguntas individuales, lo que permitió a CoVe mejorar significativamente el resultado final de la indicación. Para problemas basados en listas, CoVe puede duplicar con creces la tasa de precisión, lo que reduce en gran medida la tasa de error. Para escenarios de preguntas y respuestas más complejos, este método aún puede mejorar la tasa de precisión en un 23 %. Sin embargo, para contenido más largo, el equipo aún debe verificar si hay inconsistencias en las respuestas de validación.
- 2

