SAN FRANCISCO, 3 de abril de 2026, 04:05 PDT
Nvidia dijo el jueves que había optimizado los modelos de inteligencia artificial Gemma 4 recientemente lanzados por Google para ejecutarse en PC y estaciones de trabajo RTX, sistemas DGX Spark y módulos de borde Jetson, ampliando su apuesta por mantener a los desarrolladores en sus chips a medida que las cargas de trabajo de IA van más allá de los clústeres de nubes gigantes. Nvidia reveló el lanzamiento en una publicación de blog, mientras que Google presentó Gemma 4 como su nueva familia de modelos abiertos. (Blog de NVIDIA)
El momento importa. Nvidia está tratando de defender el crecimiento a medida que el mercado de la IA pasa del entrenamiento de grandes modelos a la “inferencia” (el paso en el que los sistemas entrenados generan respuestas) y a sistemas agentes que pueden planificar tareas y utilizar herramientas en nombre de un usuario. En la conferencia de desarrolladores GTC de Nvidia el mes pasado, el director ejecutivo Jensen Huang dijo que "la inflexión de la inferencia ha llegado", y el analista de eMarketer Jacob Bourne dijo que el pronóstico de oportunidad de ingresos de 1 billón de dólares de Nvidia "subraya la demanda duradera" de su infraestructura de IA a pesar de las preocupaciones de los inversores sobre los beneficios del fuerte gasto. (Reuters)
En una publicación de lanzamiento, los ejecutivos de Google DeepMind, Clement Farabet y Olivier Lacombe, escribieron que Gemma 4 es la familia de modelos abiertos más capaz de Google hasta la fecha. Google dijo que los desarrolladores han descargado Gemma más de 400 millones de veces y han creado más de 100.000 variantes desde el primer lanzamiento, y que la nueva familia se ofrece bajo Apache 2.0, una licencia permisiva que permite el uso y modificación comercial. (blog.google)
Google dijo que la familia incluye cuatro tamaños de modelos. Las versiones más grandes de 26B y 31B pueden caber en una única GPU de centro de datos Nvidia H100 de 80 GB y, en forma comprimida, ejecutarse en GPU de consumo, mientras que los modelos más pequeños E2B y E4B están diseñados para funcionar completamente sin conexión en teléfonos, placas Raspberry Pi y dispositivos Nvidia Jetson Orin Nano; Los modelos fueron capacitados en más de 140 idiomas y admiten entrada de audio, imagen y video. (blog.google)
Nvidia dijo que los modelos habían sido ajustados en todo el hardware, desde los sistemas del centro de datos Blackwell hasta los dispositivos Jetson. En una publicación técnica, la compañía dijo que la implementación local sería adecuada para los clientes que desean sistemas locales, un control más estricto de los datos y tiempos de respuesta más rápidos para usos en industrias como la atención médica y las finanzas. (Desarrollador NVIDIA)
A pesar de todo lo que se habla sobre PC y dispositivos periféricos, Nvidia sigue siendo la primera empresa de centros de datos. Su último informe trimestral mostró ventas de centros de datos de 62.300 millones de dólares de un total de 68.100 millones de dólares en ingresos, mientras que los ingresos por juegos y PC con IA fueron de 3.700 millones de dólares. Huang dijo en ese informe que la demanda informática estaba aumentando a medida que se aceleraba la adopción empresarial de agentes de IA. (Sala de prensa de NVIDIA)
Eso también trae riesgos. Reuters informó el mes pasado que la inferencia está generando más competencia por parte de procesadores centrales y chips personalizados creados para cargas de trabajo específicas por empresas como Google y Meta. "Nvidia definitivamente verá más competencia en comparación con hace un año", dijo a Reuters KinNgai Chan, director general de Summit Insights Group. (Reuters)
Google también dejó claro que Gemma 4 no es exclusivo de Nvidia. La compañía dijo que los modelos están optimizados no sólo para los sistemas Nvidia sino también para las GPU AMD y las TPU de Google, o unidades de procesamiento tensor, lo que convierte a Nvidia en una de varias opciones de hardware para Gemma 4 en lugar de la única. (blog.google)