NVIDIA domina a día de hoy el mercado de los chips para IA. Sus propios clientes quieren darle la vuelta – FGJ MULTIMEDIOS

0
41


Javier Pastor
Durante cuatro décadas, a Intel no había quien le tosiera. Luego llegaría AMD, que logró toserle bastante y con quien desde principios del milenio se reparte el pastel de las CPUs para ordenadores de sobremesa y servidores.
Este particular duopolio se ha mantenido hasta nuestros días, pero solo en esos dos terrenos. La revolución de los smartphones demostró que la arquitectura ARM era mejor opción, y esa fue la oportunidad que aprovecharon los nuevos imperios del chip: primero Qualcomm, luego, en menor medida, MediaTek, y más tarde, casi sin hacer ruido, Apple, que acabó dándose cuenta de que los chips ARM también eran fantásticos para sus ordenadores.
Una vez más, parecía difícil que ese panorama cambiase de forma radical, pero esta nueva revolución que plantea la inteligencia artificial ha abierto otro nuevo campo de batalla en el terreno de los semiconductores. El de los chips de IA.
Esa razón no es otra que evitar la dependencia de NVIDIA, que ahora mismo tiene la sartén por el mango. Sus gráficas profesionales —la H100 ahora, la recién anunciada B200 en unos meses— son las claras referencias si uno quiere desarrollar y entrenar sus propios modelos de IA, pero resulta que quienes lo hacen se han dado cuenta de una cosa importante: fabricar chips está al alcance de todos ellos.
No es una cuestión baladí hacerlo, sin duda, pero todas esas empresas tienen recursos más que suficientes para hacerlo. Lo avisábamos en diciembre de 2020 cuando aparecieron los rumores de que Microsoft estaba preparando sus propios chips, aunque no estaba claro hacia dónde iba a tirar.
Hoy sabemos la respuesta a esa incógnita: los chips Azure Maia AI están precisamente diseñados para, como dicen en Microsoft, “reimaginar cada aspecto de nuestros centros de datos”. O lo que es lo mismo, insistimos, dejar de depender de NVIDIA.
Lo mismo están haciendo el resto de las empresas implicadas en el desarrollo de grandes plataformas de inteligencia artificial. Google es probablemente el mejor ejemplo. Su labor se inició hace años: en 2015 comenzaron a utilizar sus TPU (Tensor Processing Units) internamente, pero el anuncio público de la existencia de este producto no se produjo hasta el Google I/O de 2016.
Resultó que el concepto acabaría dando el salto a sus móviles: los Pixel comenzaron a utilizar su propio procesador (Google Tensor) con los Pixel 6 de 2022, y desde entonces ha ido desarrollando nuevas versiones cada año. Estos SoC nacieron además con un curioso enfoque. No ganaban ninguna guerra en potencia o siquiera en eficiencia, pero sí en sus prestaciones específicas para tareas de IA.
Pero como decimos, el aprendizaje, aunque ha sido aplicado a sus móviles, ha seguido su camino en el mundo de los servidores. Las TPUs de Google también han seguido evolucionando, y hoy en día cuenta con las llamadas Cloud TPU v5e, específicamente orientadas a la inferencia y entrenamiento de modelos de IA.
Amazon, dominadora en el panorama de la computación en la nube, también está apostando fuerte por este ámbito. La firma tienen en sus recientes AWS Graviton 4 y AWS Trainium 2, y en su anuncio de noviembre dejaba claro que estos chips ofrecían mejoras en eficiencia energética para un amplio abanico de cargas de trabajo, “incluyendo el entrenamiento en aprendizaje automático (ML) y las aplicaciones de inteligencia artificial (IA) generativa”.
El último grande de las Big Tech que era un extraño en el mundo de los semiconductores también parece haberse apuntado a la moda con fuerza. En 2023, los ingenieros de Meta presentaron el llamado MTIA v1 (de Meta Training and Inference Accelerator). Esta semana nos hablaban ya de la próxima generación de estos chips especializados en el segmento de la IA y que de hecho serán parte de una familia de chips multidisciplinares.
El chip será netamente superior a su primera versión, tanto por fotolitografía (5 nm vs 7 nm) como por TDP (90 W vs 25 W). En Meta aseguran que gracias a todo ello ofrecerá hasta 3,5x el rendimiento en “computación densa (datos con pocos valores a cero), y hasta 7x el rendimiento en computación dispersa (muchos valores a cero) —en operaciones con matrices, básicas en computación de IA— con respecto a lo que se logra con MTIA v1.
Por supuesto todas estos gigantes de la tecnología no estarán solos en sus esfuerzos. Ya hemos hablado de NVIDIA y sus H100 y B200, pero es que hay una competencia igualmente importante de fabricantes que sin entrar en esa categoría de las Big Tech, son rivales claros de NVIDIA a la hora de suministrar sus soluciones a quienes desarrollan modelos de IA.
Aquí está desde luego AMD, que lleva también más tiempo del que pensábamos invirtiendo en este ámbito. Presentó sus primeras Radeon Instinct a finales de 2016, y ese trabajo ha continuado: hace pocos meses presentó la última iteración de ese proyecto, las Instinct MI300X.
Intel, su compañera y rival de viaje durante años, parecía estar algo despistada en el terreno de la IA, pero se ha puesto las pilas y estos días presentaba su Gaudi 3, una tarjeta aceleradora de IA que promete superar a las H100 de NVIDIA y que sobre todo tiene un objetivo especialmente llamativo: tratar de expulsar CUDA del mercado.
Pero es que junto a Intel y AMD tenemos fabricantes también reputados como Qualcomm, que en noviembre presentó sus aceleradoras Cloud AI 100 Ultra, o Huawei, que gracias a su familia Ascend dispone también de tarejetas especializadas en inferencia (Atlas 300I) y en entrenamiento (Atlas 300T).
Mientras, China parece querer sumarse a esa particular fiebre. Alibaba cuenta con una empresa subsidiaria que está desarrollando chips de IA, pero aquí el gigante asiático parece estar de momento en franca desventaja por el bloqueo comercial al que está sometido.
Todo esto pinta un panorama de lo más competido para el mercado de la inteligencia artificial. Lo que ya se vio en el segmento de los móviles —Apple, Google, Huawei o Samsung haciendo sus propios chips— está comenzando a verse también en el mundo de la IA, y la pregunta, por supuesto, es quién acabará llevándose el gato al agua.

source

Te podría interesar:



Source link