NVIDIA se ha convertido en un aliado para las nuevas tecnologías. Por un lado, el especialista comenta que la ola de criptomonedas y minería ha pasado, así que los stocks de tarjetas gráficas en el mercado comienzan a normalizarse. Entre tanto, la inteligencia artificial sigue en crecimiento constante y los productos de NVIDIA han tomado un papel importante para esta industria.
Tuvimos la oportunidad de conversar con Alex Ziebert, Marketing Técnico Latinoamérica en NVIDIA, para conocer cómo es la aproximación de la compañía con las IAs, además de herramientas que desarrolladores y gamers pueden utilizar para su día a día.
¿Cómo han visto Nvidia los últimos cambios en tecnología, sobre todo durante la pandemia? En términos de ventas, por ejemplo, de tarjetas gráficas, donde todo el mundo tuvo que quedarse en casa.
Ya veníamos en una rampa de crecimiento en ventas, tanto para gaming, cuanto para creación de contenido, por ejemplo. Pero claro, hubo una explosión de demanda por la gente que no tenía un buen equipo en casa para poder trabajar eso tanto en equipos de escritorio, cuanto para laptops. Y coincidió también con todo el tema de la minería de criptomonedas con tarjetas gráficas. Se agotaban las tarjetas, los precios subieron un montón. Pero por fin ya se arregló todo y ahora, de hecho, el escenario que vemos hoy es de al revés. O sea, tenemos amplia oferta de tarjetas y así que ya se han bajado los precios y no tenemos más problemas con disponibilidad.
¿Podemos hablar de que el mercado ya está estabilizado? ¿Los gamers pueden acceder a sus tarjetas gráficas sin la necesidad de estar peleando con los mineros de criptomonedas?
Sí, sí. El mercado de criptomonedas ha cambiado un montón, el valor ha bajado mucho, pero lo bueno es que la demanda para gaming y creación de contenido se ha mantenido en niveles superiores a lo que teníamos antes de la pandemia. Así que todavía hay un montón de gente que se está buscando tarjetas para trabajar, para jugar. Y o sea, tenemos un mercado bastante saludable, por así decir, y sigue en un buen ritmo de crecimiento.
¿Cuál es la posición que tiene Nvidia con respecto al desarrollo de las nuevas tecnologías de Inteligencia Artificial?
Pues Nvidia ya lleva trabajando bastante tiempo en Inteligencia Artificial, más de 10 años. Incluso cosas como la fundación de OpenAI se dio con GPUs. Ellos fueron como los primeros a utilizar tarjetas gráficas para el procesado de Inteligencia Artificial. Y desde ahí surgió básicamente toda esta industria. Pero lo importante es que no nos quedamos ahí simplemente parados. Mira, no es que solo se están comprando estas tarjetas para utilizar, sino que hemos invertido un montón para hacerlas mejor, tanto en las tarjetas mismas, las GPUs, como en términos de software.
Entonces, el soporte a todos los frameworks, un montón de bibliotecas para acelerar su procesado y también herramientas para hacerlo más sencillo. Tenemos cosas como NGC, donde puedes descargar containers optimizados ya para nuestras tarjetas, para el framework que necesites. Entonces hay un montón de estrategias que estamos aplicando justamente para tornar la plataforma más atractiva, para atraer más tanto a investigadores, como a los CSPs también, a los cloud providers, para que saquen un mejor uso de nuestras GPUs y con eso, pues va girando todo el mercado. Y es lo que creemos que nos ha traído a esta posición, donde no hay duda de que son las mejores para eso.
¿Qué herramientas o qué recursos ofrece Nvidia para estos desarrolladores?
Pues un montón. Tenemos, o sea, si quieres programar una GPU para hacer lo que te dé la gana, tenemos CUDA, que es el lenguaje. No es un lenguaje de programación, no es una plataforma, pero ahí puedes utilizar un montón de lenguajes, desde C, Python, también si quieres, Fortran, entre muchos otros. Pero la idea es que puedes hacer lo que te dé la gana. Es un procesador paralelo de cómputo general.
Además, si no quieres crear tu mismo programa, sobre todo para los investigadores de Inteligencia Artificial, que ya están más acostumbrados a trabajar con frameworks, tenemos soporte para cosas como PyTorch, TensorFlow. Entonces ya puedes trabajar con TensorFlow, con PyTorch y utilizar tu tarjeta gráfica. O sea, no tienes que cambiar tu entorno de desarrollo para utilizar nuestras GPUs. Y ahí puedes hacer lo que quieras y te irá mucho más rápido. Tenemos estas soluciones tanto para... Puedes trabajar con GeForce, si quieres, y también tenemos las soluciones Enterprise.
Y con respecto a los gamers, que básicamente el rubro que es el que nos interesa, ¿cómo se beneficia un gamer de estas nuevas tarjetas gráficas, por lo menos de las RTX y de la serie 4000?
Pues lo bueno es que gaming es como la puerta de entrada más fácil y más rápida para avances en la tecnología. Es uno de nuestros playgrounds para implementar nuevas soluciones. Entonces ahí tenemos cosas como DLSS, Deep Learning Super Sampling, que mejora el rendimiento de los juegos y en muchos casos incluso mejora la calidad de imagen. La tecnología que comenzó el concepto de NeuroGraphics, de utilizar la Inteligencia Artificial junto a técnicas tradicionales o por completo para generar imágenes. Entonces es uno de estos ejemplos.
Pero también tenemos un montón de herramientas de Inteligencia Artificial que puedes utilizar para alguna clase de beneficio, tanto en juegos como en creación de contenido. Tenemos cosas como Nvidia Broadcast para remover ruido del entorno donde estás para que te escuchen mejor sin interferencias o remover el fondo de la imagen de tu webcam sin necesitar una tela verde. Y lo bueno es que podemos invertir un montón de poder de cómputo en esta solución porque utiliza los Tensor Cores de las RTX. Y ahí podemos sacar, ofrecer este recurso pero en altísima calidad. Entonces reconoce cosas como este hueco entre el headset y el cabello. Y otro punto muy interesante es que esta Inteligencia Artificial ha sido entrenada con datos de gamers. Entonces reconoce que es un headset, reconoce una silla Gamer, reconoce un micrófono profesional, por ejemplo, y los mantiene en la escena porque ha aprendido que estos objetos son importantes. Entonces es uno de esos casos donde el desarrollo de una solución y el público que la va a utilizar pues están en conjunto. No es que es una solución genérica que se utiliza sino que ha sido hecha más para este público específico.
¿Podrías explicar al usuario qué es el Raytracing y por qué le han dado tanta importancia en Nvidia?
El Raytracing es una tecnología que ya se utiliza en el cine desde hace un montón de años, pero no era practicable para juegos porque demanda mucho poder de cómputo. Entonces, no se podría realizar en tiempo real solo para procesos offline como la creación de películas, porque aunque tardes horas en procesar cada frame, solo tienes que hacerlo una vez. Mientras que para juegos, es 16 mil segundos para hacer un frame, lo cual es mucho.
Además, Nvidia vino trabajando desde hace mucho tiempo para hacer eso una realidad, y con la serie RTX, pues también tenemos núcleos dedicados para el procesado de Raytracing dentro de nuestras GPUs. Entonces, en lugar de tener que hacerlo utilizando los CUDA cores, por ejemplo, hay núcleos especializados en esto. Y desde ahí, hemos trabajado con toda la industria para crear formas de utilizar esta tecnología de forma más, no solo popular, pero más y más, porque los primeros juegos con Raytracing lo utilizaban de formas muy tímidas. Un efecto, un juego tenía sombras, otro juego tenía reflejos, otro juego tenía iluminación, cosas así. Y hoy ya vemos un montón de juegos que utilizan, pues, una lista de efectos basados en Raytracing.
El siguiente paso, y que ya hemos dado junto a, por ejemplo, CD Projekt RED en Cyberpunk 2077, es utilizar PATH Tracing, que es como la forma completa del Raytracing. Donde, en lugar de tener un proceso de rasterizado tradicional y cambiar, sustituir un o otro o otro efecto por una versión basada en Raytracing, se reemplaza todo. Todo lo que ves es resultado del trazado de rayos bajo un algoritmo unificado, porque trazas todo el camino de la luz. Por eso se llama PATH Tracing.
¿Alguna recomendación para los usuarios que buscan una nueva tarjeta gráfica?
Pues, obviamente, una GeForce RTX sería 40, pero tenemos distintos escalones de tarjetas, y hay algo que ya hacíamos en generaciones pasadas, pero ahora estamos como que haciéndolo de forma bastante clara, es, ¿en qué resolución vas a jugar? Y desde ahí la tarjeta ideal, porque, por ejemplo, están las 4060s, porque hay normales y la TI, que están hechas para 1080p, que todavía es la resolución más utilizada, luego están las 70s para QuadHD, ¿no? 1440p, y luego para 4K, 4080, y también la 4090. Entonces, si vas a jugar en 1080p, con una 4060 TI ya tendrás rendimiento de sobra, incluso para los juegos más y más demandantes, como es el caso del mismo CyberBank utilizando Path Tracing, por ejemplo.
Escucha Dale Play en Spotify. Sigue el programa todos los lunes en nuestras plataformas de audio disponibles.