La charla “Arithmetic Reduction Using Nvidia Tensor Cores», a cargo de Roberto Carrasco, estudiante del Magíster en Informática de la UACh, buscará “mostrar una oportunidad de explotar el rendimiento de los Tensor Cores en un campo distinto del que fue diseñado originalmente, como lo es la reducción aritmética”, según explicó el investigador.
¿Qué son los Tensor Core?
“Son circuitos integrados diseñados principalmente para acelerar la fase de entrenamiento de deep learning, los cuales vienen incorporados en los últimos modelos de las tarjetas de video de Nvidia”, señaló Carrasco.
En la actualidad, el deep learning (DL) se ha convertido en una de las técnicas más usadas en aplicaciones, tales como las plataformas de vehículos autónomos y el reconocimiento de patrones en imágenes, que son solo algunas de las aplicaciones que han seguido esta tendencia.
No obstante, este tipo de aplicaciones emplean un elevado costo computacional para poder realizar su procesamiento en tiempo real, lo que ha dado pie a desarrollar los Tensor Core (TC), buscando aprovechar ventajas en otros campos no relacionados con su propósito original.
“Nosotros proponemos un método novedoso que aprovecha las ventajas que proporcionan los TC en el problema de la reducción aritmética, además exploraremos el nuevo modelo de programación y de las operaciones que permiten los TC para dar solución a la reducción”, afirmó el expositor Roberto Carrasco.
Finalmente, el estudiante del Magíster en Informática de la UACh buscará destacar dos aspectos de los Tensor Cores: primero, como método de reducción más rápido que permitiría procesar grandes volúmenes de datos en tiempo real, y el segundo, que existe un enorme potencial en utilizar los Tensor Cores en campos distintos para los que fueron diseñados originalmente”.