viernes 17 de abril de 2026
  • Temas del Día

Alcanzaste el límite de 40 notas leídas

Para continuar, suscribite a Somos Pymes. Si ya sos un usuario suscripto, iniciá sesión.

SUSCRIBITE
DeepSeek

El modelo chino de Inteligencia Artificial aprende más cuando recibe 'recompensa'

Los expertos analizaron sus potencialidades y sus limitaciones.

Somos Pymes | Redacción Somos Pymes
Por Redacción Somos Pymes 17 de septiembre de 2025 - 12:29

El modelo chino de Inteligencia Artificial DeepSeek-R1 aprende más y mejor cuando recibe ‘recompensas’ por resolver problemas, pero esos estímulos requieren de la intervención humana.

El enfoque puede resultar costoso y limitar además su capacidad de crecimiento.

Aprendizaje del modelo chino de Inteligencia Artificial

La noticia fue comprobada por un equipo de investigadores y tecnólogos, entre los que figuran responsables de la empresa china que lanzó este modelo abierto de IA.

Los expertos analizaron sus potencialidades y sus limitaciones; hoy publicaron los resultados de su trabajo en la revista Nature.

Enseñar a los modelos de IA a razonar de la misma manera que los humanos es un desafío.

Los investigadores han corroborado que los modelos de lenguaje a gran escala (LLM) están demostrando ciertas capacidades de razonamiento, aunque ese entrenamiento requiere importantes recursos computacionales.

Características del sistema

El modelo DeepSeek-R1 incluye una etapa de entrenamiento adicional bajo supervisión humana para mejorar el proceso de razonamiento.

Y emplea un sistema de aprendizaje "por refuerzo" en lugar de ejemplos humanos para desarrollar los pasos de razonamiento, lo que según los investigadores y responsables de la empresa reduce los costos y la complejidad del entrenamiento.

Constataron algunas de las limitaciones de la versión actual de ese modelo de Inteligencia Artificial, entre ellas que combina dos idiomas, el chino y el inglés, o que solo está optimizado para esos idiomas.

Citan también, como una limitación, que hay algunas tareas en las que su modelo no ha mostrado mejoras importantes, como la ingeniería de software, y han incidido en que la investigación futura se debe centrar en mejorar esos procesos de ‘recompensa’ para garantizar la fiabilidad de los razonamientos y de las tareas que realiza esta IA.

Los investigadores han demostrado que el modelo obtiene buenos resultados en pruebas de matemáticas, biología, física o química, en concursos de programación, y han concluido que entrenar a la IA a razonar con menos intervención humana es posible, lo que abre la puerta a conseguir modelos capaces de crecer, más potentes y más baratos, aunque todavía quedan muchos retos por resolver.

Seguí leyendo

Dejá tu comentario

Te Puede Interesar