Publicado 30/04/2025 09:07

Portaltic.-DeepSeek actualiza su modelo matemático de código abierto Prover

Archivo - FILED - 28 January 2025, Brandenburg, Sieversdorf: The logo of the Chinese AI start-up DeepSeek can be seen on a smartphone in Brandenburg. Photo: Patrick Pleul/dpa
Archivo - FILED - 28 January 2025, Brandenburg, Sieversdorf: The logo of the Chinese AI start-up DeepSeek can be seen on a smartphone in Brandenburg. Photo: Patrick Pleul/dpa - Patrick Pleul/dpa - Archivo

   MADRID, 30 Abr. (Portaltic/EP) -

   DeepSeek ha actualizado Prover, un modelo de inteligencia artificial (IA) diseñado para la resolución de problemas matemáticos, para que trabaje con la arquitectura de mezcla de expertos (MoE) de la mano del modelo V3.

    Prover se lanzó en agosto y esta semana se ha compartido su segunda versión bajo una modalidad de código abierto en HuggingFace, después de que Alibaba presentara la familia Qwen 3, introduce un nuevo modo de pensamiento para las cuestiones que requieren un razonamiento más profundo, y está optimizada con capacidades de agente.

   Prover está construido sobre V3, un modelo entrenado con 671.000 millones de parámetros y construido con la arquitectura MoE, que divide un modelo de IA en pequeñas redes neuronales para que actúen de forma separada, para cada tarea, como si fueran distintos expertos.

   Con ello, la compañía china mejora la eficacia de su modelo diseñado para la resolución de problemas matemáticos y teoremas, como recogen en South China Morning Post. Se espera que próximamente DeepSeek también lance el modelo de razonamiento R2.

Contador