El modelo chino de Inteligencia Artificial DeepSeek-R1 aprende más y mejor cuando recibe ‘recompensas’ por resolver problemas, pero esos estímulos requieren de la intervención humana.
El modelo chino de Inteligencia Artificial aprende más cuando recibe 'recompensa'
Los expertos analizaron sus potencialidades y sus limitaciones.
El enfoque puede resultar costoso y limitar además su capacidad de crecimiento.
Aprendizaje del modelo chino de Inteligencia Artificial
La noticia fue comprobada por un equipo de investigadores y tecnólogos, entre los que figuran responsables de la empresa china que lanzó este modelo abierto de IA.
Los expertos analizaron sus potencialidades y sus limitaciones; hoy publicaron los resultados de su trabajo en la revista Nature.
Enseñar a los modelos de IA a razonar de la misma manera que los humanos es un desafío.
Los investigadores han corroborado que los modelos de lenguaje a gran escala (LLM) están demostrando ciertas capacidades de razonamiento, aunque ese entrenamiento requiere importantes recursos computacionales.
Características del sistema
El modelo DeepSeek-R1 incluye una etapa de entrenamiento adicional bajo supervisión humana para mejorar el proceso de razonamiento.
Y emplea un sistema de aprendizaje "por refuerzo" en lugar de ejemplos humanos para desarrollar los pasos de razonamiento, lo que según los investigadores y responsables de la empresa reduce los costos y la complejidad del entrenamiento.
Constataron algunas de las limitaciones de la versión actual de ese modelo de Inteligencia Artificial, entre ellas que combina dos idiomas, el chino y el inglés, o que solo está optimizado para esos idiomas.
Citan también, como una limitación, que hay algunas tareas en las que su modelo no ha mostrado mejoras importantes, como la ingeniería de software, y han incidido en que la investigación futura se debe centrar en mejorar esos procesos de ‘recompensa’ para garantizar la fiabilidad de los razonamientos y de las tareas que realiza esta IA.
Los investigadores han demostrado que el modelo obtiene buenos resultados en pruebas de matemáticas, biología, física o química, en concursos de programación, y han concluido que entrenar a la IA a razonar con menos intervención humana es posible, lo que abre la puerta a conseguir modelos capaces de crecer, más potentes y más baratos, aunque todavía quedan muchos retos por resolver.