Entrevista a Manuel Ujaldón: sobresaliente a los Tensor Core y un bien a los RT Cores

Entrevista a Manuel Ujaldón: sobresaliente a los Tensor Core y un bien a los RT Cores

Manuel Ujaldón, CUDA fellow desde 2012, Deep Learning Ambassador de NVIDIA y profesor de la Universidad de Málaga, ya es un habitual en Xataka. Tras entrevistarle en 20122016 y 2018 para analizar el segmento de las tarjetas gráficas, vuelve con nosotros para tratar de descubrirnos cuál es el estado actual de un mercado en constante ebullición.

Lo hace contestando a nuestras preguntas sobre el verdadero potencial del raytracing y su hipotético soporte en consolas, la carrera por los nanómetros, la revolución de los Tensor Cores o la posible competencia que plantea Intel en un mercado tan especializado como este.

“Mi valoración de los Tensor Cores es un 9, la de los RT Cores un 6”

Cuando entrevistamos a Ujaldón en 2018 aún no habían aparecido las NVIDIA RTX 2000. Lo harían poco después, en agosto de aquel año, y aunque se rumoreaba que había cambios en la estrategia de NVIDIA y él mismo apuntó a gráficas “muldisciplinares”.

Esa predicción se cumplió: de las generaciones anteriores, mucho más orientadas al gaming, hemos pasado a unas RTX que sin duda aportan mejoras en ese sentido, pero sobre todo destacaban por la introducción de los Tensor Cores para el ámbito del machine learning y los RT Cores para el trazado de rayos.

Al preguntarle por su valoración de esta familia, Ujaldón nos señalaba que “NVIDIA diversifica cada vez más, tratando de reinventarse una y otra vez. Los Tensor Cores son hijos del Deep Learning (DL), y los RT Cores, nietos“. De hecho hacía un repaso histórico muy gráfico:

“Para entender toda la secuencia hay que remontarse al año 2012, cuando AlexNet, la red neuronal profunda (DNN) arrasó en el ImageNet Challenge. Sus dos compañeros de viaje a partir de entonces serían GPU y Big Data. NVIDIA ya tenía más del 70% del mercado de GPUs, el avión que desde el cielo miraba a las CPUs en tierra, pero el viento de cola del hardware es el software y las aplicaciones. Con las DNNs y el Big Data llegó un vendaval. En NVIDIA supieron verlo, tienen esa capacidad visionaria. En aquel 2012, las acciones de NVIDIA cotizaban a 12 dólares. Hoy superan los 250. ¿Que cómo lo valoro yo? El mercado ha dictado sentencia.”

El ámbito de aplicación del RT es escaso, y en ese sentido, no justifica tanto sobreprecio para una GPU

Sin embargo para Ujaldón la experiencia es un grado. “Los Tensor Cores llegaron casi un par de años antes que los RT Cores“, explicaba. “Ambos constituyen hardware especializado para operaciones matriciales que admiten gran paralelización, un terreno que NVIDIA aceleraba como nadie gracias a CUDA”.

El problema para el avance de las redes neuronales y el trazado de rayos es que a pesar de que basarse en algoritmos de hace más de cuatro décadas, su ejecución en procesadores de propósito general (CPUs) no ayuda demasiado. “La aceleración en GPU ha revolucionado ambos”, destacaba Ujaldón, “pero no puedes compararlos. El ámbito de aplicación del RT es escaso, y en ese sentido, no justifica tanto sobreprecio para una GPU. En cambio,hay GPUs con Tensor Cores que superan los 10.000 euros, y multitud de aplicaciones reales que amortizan ese gasto”.

Para este experto la revolución de la familia de NVIDIA ha sido mucho más relevante en un sentido que en otro. Como decía él mismo, “en resumen, mi valoración de los Tensor Cores es un 9.A los RT Cores les concedo un 6“.

La carrera de los nanómetros

AMD ya ha comenzado a fabricar la litografía de 7 nanómetros en sus chips, pero NVIDIA se limitó a usar procesos de 14 nm en sus RTX 2000. Se rumorea que darán el salto a los 7 nm en la nueva generación —los rumores sobre las inminentes RTX 3000 están ahí—, pero Ujaldón nos explica cómo ese baile de nanómetros es actualmente más confuso de lo que parece.

Related Posts

Compromisos de seguridad en IA
Inteligencia Artificial, Noticias y Novedades
Compromisos de seguridad en IA

En la cumbre internacional sobre seguridad de la IA en Seúl, empresas como Amazon, Google y Microsoft acordaron los “Frontier AI Safety Commitments”, estableciendo protocolos para el desarrollo seguro de la inteligencia artificial. Descubre los detalles y su impacto en la industria.

Deja un comentario

Your email address will not be published. Required fields are marked.*

× ¿Cómo puedo ayudarte?