DeepSeek. (Foto: AFP)
DeepSeek. (Foto: AFP)

El modelo chino de inteligencia artificial aprende más y mejor cuando recibe ‘recompensas’ por resolver problemas, pero esos estímulos requieren de la intervención humana, por lo que ese enfoque puede resultar costoso y limitar además su capacidad de crecimiento.

Lo ha comprobado un equipo de investigadores y tecnólogos, entre los que figuran responsables de la empresa china que lanzó este modelo abierto de que han analizado sus potencialidades y sus limitaciones; hoy publican los resultados de su trabajo en la revista Nature.

Enseñar a los modelos de inteligencia artificial a razonar de la misma manera que los humanos es un desafío, y los investigadores han corroborado que los modelos de lenguaje a gran escala (LLM, por sus siglas en inglés) están demostrando ya ciertas capacidades de razonamiento, aunque ese entrenamiento requiere importantes recursos computacionales.

LEA TAMBIÉN: China inunda el mundo con modelos económicos de IA tras el éxito de DeepSeek

El modelo DeepSeek-R1 incluye una etapa de entrenamiento adicional bajo supervisión humana para mejorar el proceso de razonamiento, y emplea un sistema de aprendizaje «por refuerzo» en lugar de ejemplos humanos para desarrollar los pasos de razonamiento, lo que según los investigadores y responsables de la empresa reduce los costos y la complejidad del entrenamiento.

Limitaciones de la versión actual

Han constatado no obstante en el artículo que hoy publica la revista Nature algunas de las limitaciones de la versión actual de ese modelo de inteligencia artificial, entre ellas que combina dos idiomas, el chino y el inglés, o que solo está optimizado para esos idiomas.

Citan también, como una limitación, que hay algunas tareas en las que su modelo no ha mostrado mejoras importantes, como la ingeniería de software, y han incidido en que la investigación futura se debe centrar en mejorar esos procesos de ‘recompensa’ para garantizar la fiabilidad de los razonamientos y de las tareas que realiza esta .

Los investigadores han demostrado que el modelo obtiene buenos resultados en pruebas de matemáticas, biología, física o química, en concursos de programación, y han concluido que entrenar a la IA a razonar con menos intervención humana es posible, lo que abre la puerta a conseguir modelos capaces de crecer, más potentes y más baratos, aunque todavía quedan muchos retos por resolver.

TE PUEDE INTERESAR

Inteligencia artificial de vanguardia: DeepSeek V3.1 revoluciona el pensamiento computacional
China inunda el mundo con modelos económicos de IA tras el éxito de DeepSeek
Baidu lanza dos nuevos modelos de IA gratis, ¿competencia para DeepSeek?

Estimado(a) lector(a)

En Gestión, valoramos profundamente la labor periodística que realizamos para mantenerlos informados. Por ello, les recordamos que no está permitido, reproducir, comercializar, distribuir, copiar total o parcialmente los contenidos que publicamos en nuestra web, sin autorizacion previa y expresa de Empresa Editora El Comercio S.A.

En su lugar, los invitamos a compartir el enlace de nuestras publicaciones, para que más personas puedan acceder a información veraz y de calidad directamente desde nuestra fuente oficial.

Asimismo, pueden suscribirse y disfrutar de todo el contenido exclusivo que elaboramos para Uds.

Gracias por ayudarnos a proteger y valorar este esfuerzo.