Meta planta cara a OpenAI y Google con LIMA, su nuevo modelo de IA
Meta pretende demostrar que es posible obtener resultados de calidad con un modelo que ha sido ampliamente entrenado con anterioridad.
Meta ha presentado LIMA, un modelo de lenguaje grande con el que demuestran que se pueden obtener respuestas de alta calidad a partir de un conjunto pequeño de indicaciones con un modelo previamente entrenado.
LIMA (Less Is More for Alignment) se basa en LLaMa, un modelo con 65.000 millones de parámetros que la compañía tecnológica facilitó con fines investigadores en el primer trimestre del año.
Meta explica que los grandes modelos de lenguaje habitualmente se entrenan en dos fases: una formación previa no supervisada de texto sin procesar, para que aprenda representaciones generales, y otra a gran escala de aprendizaje mediante ajuste y refuerzo, con la que se busca que la IA se alinee mejor con las tareas finales y las preferencias del usuario.
Los resultados que obtuvieron muestran que LIMA produce respuestas "iguales o preferibles" en el 43 por ciento, el 46 por ciento y 58 por ciento de los casos, respectivamente.
Con LIMA, Meta pretende demostrar que es posible obtener resultados de calidad a partir de unas pocas indicaciones con un modelo que ha sido ampliamente entrenado con anterioridad. Y para ello, ha utilizado mil ejemplos de instrucciones reales cuidadosamente curadas, 750 procedentes de foros como Stack Exchange y wikiHow y otras 250 redactados por los propios investigadores.
Para analizar su rendimiento, lo han comparado con GPT-4 de OpenAI, Claude de Anthropic y Bard de Google con un test controlado de 300 indicaciones. Los resultados que obtuvieron muestran que LIMA produce respuestas "iguales o preferibles" en el 43 por ciento, el 46 por ciento y 58 por ciento de los casos, respectivamente.
Como recogen en el estudio publicado en arxiv.org, en una escala absoluta, las respuestas de LIMA "revelan que el 88 por ciento cumple con los requisitos inmediatos, y el 50 por ciento se considera excelente", apuntan los investigadores.
Artículos relacionados
Urgen en RD marco legal ante expansión de inteligencia artificial
Expertos alertan riesgos democráticos y piden regulación urgente y responsable La acelerada expansión de la Inteligencia Artificial (IA) ha transformado la manera en que se…
La seguridad no es prioridad para agentes de inteligencia artificial
La divulgación de seguridad básica está peligrosamente retrasada frente al ritmo frenético de los lanzamientos comerciales En un giro preocupante para la industria tecnológica, una…
Ciberataques en la era IA: ofensivas más rápidas y silenciosas
La IA multiplica por cuatro la velocidad de los ciberataques y sitúa la identidad en el centro de las brechas La inteligencia artificial ya no…