El modelo de IA ‘Reflection 70B’ podría ser la respuesta a las molestas alucinaciones LLM

También hay nuevos chatbots de inteligencia artificial que ingresan a un espacio que ya es altamente competitivo. Pero este chatbot parece ser capaz de hacer lo que la mayoría de la gente no puede: aprender de sus errores.

En una publicación del 5 de septiembre en X, Matt Shumer, director ejecutivo de HyperWrite AI, anunció el desarrollo del ‘Reflection 70B’ y afirmó que es «El modelo de código abierto líder en el mundo»

Añadió que la nueva IA fue entrenada usando «Reflection-Tuning» es una técnica desarrollada para ayudar a los LLM a corregir sus errores.

Llama-3.1 70B de Reflection puede «igualar» modelos líderes de código abierto como Claude 3.5 Sonnet de Anthropic y GPT-4o de OpenAI en varios puntos de referencia, afirma. Llama 3.1 es el lanzamiento de IA de código abierto de Meta en julio.

Dijo que los modelos de IA actuales son propensos a sufrir alucinaciones, pero Reflection-Tuning Ayuda a esos modelos a reconocer errores y corregirlos antes de decidir una respuesta.

“El LLM de hoy es propenso a sufrir alucinaciones. e incapaz de reconocer cuándo ocurrió tal evento”.

La alucinación por IA es un fenómeno en el que un chatbot creativo de IA percibe un patrón u objeto que no existe o no es perceptible para un observador humano. causando resultados incorrectos

Ejemplo de personalización de reflejos. Fuente: Matt Shumer.

El ajuste de reflexión es una técnica utilizada para mejorar los modelos de IA haciendo que esos modelos analicen y aprendan de sus propios resultados.

Las respuestas de la IA se pueden retroalimentar a la IA, donde se le puede pedir que evalúe sus propias respuestas. Especificando fortalezas, debilidades y áreas que necesitan mejorar, etc.

Este proceso se repite muchas veces para que la IA pueda mejorar continuamente sus capacidades. El objetivo es concienciar a la IA de los resultados. y ser capaz de criticar y mejorar mejor su propio desempeño

Schumer también añadió que «Con la estimulación adecuada Esto es un gran desafío para muchos casos de uso”, junto con un enlace de demostración para el nuevo modelo.

Relacionado: Informe revela que Amazon planea renovar Alexa con el modelo de IA de Claude de Anthropic

OpenAI, respaldado por Microsoft, publica un artículo de investigación de 2023 con ideas sobre cómo ayudar a prevenir las alucinaciones inducidas por la IA

Una idea es «Preparación de procesos», que implica entrenar un modelo de IA para recompensarse a sí mismo para cada persona Utilice el razonamiento en los pasos correctos cuando obtenga la respuesta. En cambio, sólo se recompensan las conclusiones finales correctas.

Karl Cobbe, investigador de OpenAI, dijo a CNBC en ese momento que «Detectar y mitigar errores lógicos o alucinaciones de modelos es un paso importante en la construcción de una AGI (inteligencia general artificial) consistente».

revista: AI Eye revela un plan para crear un «infierno» para los drones con IA en Taiwán Estudiantes de derecho (LLM) demasiado estúpidos para destruir a la humanidad