DeepSeek, la IA encargada de romper el mercado bursátil en medio mundo vuelve a la carga. Ya hemos hablado largo y tendido sobre ella, qué es, cómo se mide contra ChatGPT, quién la creó o cómo probarla de forma 100% gratuita. Ahora toca inmiscuirse en sus adentros, en esa supuesta capacidad de procesamiento que tanto está dando de qué hablar y que ha hecho que Nvidia sea el centro de todas las miradas.
Y es que, por si no lo sabes, el gran éxito de DeepSeek está supeditado a la modesta capacidad de procesamiento que tendría la startup china. Habría conseguido superar a modelos como GPT-4o o Llama 3.1 con apenas 10.000 unidades de GPUs NVIDIA A100, algo bastante inusual y que, de hecho, es uno de motivos de que los inversores estén dudando de la nueva generación de chips de NVIDIA.
Las GPUs A100, si bien son potentes para ejecutar herramientas IA, no son comparables a la última arquitectura presentada por Nvidia: Hopper. En esta se integran las GPU H20, H800 o H100, y son las que una compañía de vanguardia debería usar para intentar batir a OpenAI, Meta o Google. Hacerlo con 10.000 unidades de A100 es algo faraónico, y el motivo por el que toda la industria está con la boca abierta.


DeepSeek podría tener una capacidad muchísimo mayor en la recámara
¿Por qué DeepSeek ha mentido a todo el mundo? Bueno, varios analistas de la industria están poniendo en duda que la compañía haya conseguido dicho rendimiento con una potencia de procesamiento tan modesta. Un buen ejemplo es el de Dylan Patel, un usuario que asegura que DeepSeek cuenta con más de 50.000 unidades Hopper: GPUs H20, H100 y H800.
De ser cierto, el modelo de lenguaje firmado por la compañía china no sería tan espectacular como se pensaba. Seguiría siendo un hito reseñable para la startup, pero estaría dentro de lo normal conseguir dicho rendimiento con un hardware, ahora sí, vanguardista.
¿Cuál es el problema? ¿Por qué no aclara DeepSeek qué GPUs han utilizado para ejecutar su modelo de lenguaje? La clave está en las limitaciones que impuso hace un tiempo el gobierno de Estados Unidos a las compañías chinas, y que impedía a estas hacerse con GPUs de última generación para desarrollar sus propias tecnologías de inteligencia artificial.


Ahora bien, lo que dice Dylan Petel y algunas otras fuentes es algo que no se ha oficializado. Desde DeepSeek mantienen el uso de GPUs antiguas para el desarrollo de su LLM, mientras que NVIDIA no ha abierto la boca al respecto. Esta incertidumbre, de hecho, está abriendo varias teorías acerca del modelo de lenguaje, la situación bursátil de NVIDIA y la capacidad real de DeepSeek. Hemos hecho un repaso a las más importantes.
DeepSeek tiene ambos clústeres de GPUs para desarrollar IA. Una de las teorías más plausibles es que ambas historias sean ciertas. Es decir, que la compañía haya desarrollado DeepSeek V3 con 10.000 GPUs A100 y que también tenga a su disposición otras 50.000 GPUs Hopper (H20, H100 y H800).
Esto mantendría a NVIDIA en la mala posición que está ahora, pues significa que DeepSeek habría conseguido una potencia increíble con la generación anterior de GPUs. A su vez, de confirmarse, revolucionaría industria aún más, pues significa que la startup cuenta con un nivel de procesamiento aún mayor del que no ha mostrado resultados.
DeepSeek ha desarrollado su LLM con Hopper. Es otra de las teorías que están tomando fuerza en las últimas horas. Si los rumores son ciertos, la startup habría desarrollado el modelo de lenguaje con las GPUs de última generación, lo que situaría a NVIDIA en una mejor situación frente a sus inversores.
¿Por qué? Bueno, esta teoría demostraría que el trabajo de NVIDIA con Hopper está al nivel necesario, pues habría sido la arquitectura de GPUs que ha conseguido superar a OpenAI, Meta y Google. Y, como ya hemos comentado antes, seguiría situando a DeepSeek como una de las grandes, aunque con un hito menos reseñable.
A su vez, esta teoría podría tensar el conflicto entre el mercado tecnológico de China y Estados Unidos, pues significaría que una compañía del país asiático ha conseguido 50.000 unidades Hopper para desarrollar IA, algo que el gobierno estadounidense no permite en estos momentos.
DeepSeek no tiene GPUs Hopper y ha desarrollado todo con A100. Sería la situación más dramática para NVIDIA, pues las dudas de los inversores se reforzarían y confirmarían que la nueva generación Hopper —la que usa OpenAI, Meta o Google— no es tan avanzada como se pensaba y puede ser superada por las GPU A100 más antiguas.
Tampoco es la situación ideal para DeepSeek, pues a pesar de haber conseguido uno de los hitos más importantes de la industria, la compañía estaría estancada sin hardware más avanzado con el que desarrollar nuevos modelos.