Unidad de procesamiento tensorial , la enciclopedia libre

Unidad de procesamiento tensorial
Información
Tipo processor type
Desarrollador Google
Estandarización
Uso aprendizaje automático

Una unidad de procesamiento tensorial o TPU (del inglés tensor processing unit) es un circuito integrado de aplicación específica y acelerador de IA (ASIC, AI accelerator application-specific integrated circuit) desarrollado por Google para el aprendizaje automático con redes neuronales artificiales y más específicamente optimizado para usar TensorFlow, la biblioteca de código abierto para aprendizaje automático.

En comparación con las unidades de procesamiento gráfico (que a partir de 2016 se usan con frecuencia para las mismas tareas), estas unidades están diseñadas para un mayor volumen de cálculo de precisión reducida (por ejemplo, desde 8 bits de precisión) y carecen de hardware para la rasterización/cartografía de textura.[1][2]​ El término ha sido acuñado para un chip específico diseñado para el marco TensorFlow de Google. Otros diseños de aceleradores de IA están apareciendo también en otros proveedores y están dirigidos a mercados de robótica e incrustados.

Google también ha utilizado las TPU para el procesamiento de texto de Street View y ha podido encontrar todo el texto en la base de datos de Street View en menos de cinco días. En Fotos, una TPU individual puede procesar más de 100 millones de fotos al día. También se utiliza en Rank Brain, utilizado por Google para proporcionar resultados de búsqueda.[3]​ La unidad de procesamiento de tensores se anunció en 2016 en Google I/O, aunque la compañía declaró que el TPU había sido utilizado dentro de su centro de datos durante más de un año antes

El tamaño del chip puede caber en una ranura de disco duro dentro de un bastidor de un centro de datos, de acuerdo con el ingeniero de hardware Norm Jouppi de Google.

Google ha declarado que sus unidades de procesamiento de tensor propietaria se utilizaron en la serie AlphaGo contra Lee Sedol de juegos Go hombre vs máquina.[2]

La primera generación de las TPU de Google se presentó en la conferencia I/O 2016, diseñado específicamente para ejecutar redes neuronales entrenadas.[4]​ Estas TPU tienen menos precisión en comparación con los cómputos realizados en una CPU o GPU normales, pero es suficiente para los cálculos que tienen que realizar.

Arquitectura

[editar]

Primera generación

[editar]

En la primera generación, la TPU es un motor de multiplicación matricial de 8 bits, controlado con un juego de instrucciones CISC por un procesador host sobre un bus PCIe 3.0. Está fabricado con un proceso de 28nm en un chip con tamaño ≤ 331 mm². Tiene un reloj a 700 MHz y un diseño térmico de potencia de 28-40 W. Tiene 28 MB de memoria en chip y 4 MB de acumuladores de 32 bits, que toman los resultados de una matriz 256 × 256 de multiplicadores de 8 bits. Las instrucciones transfieren datos hacia o desde el anfitrión o host, realizando multiplicaciones matriciales o convoluciones, y aplicando funciones de activación[5]

Segunda generación

[editar]

La segunda generación de la TPU de Google se presentó en el I/O 2017. Esto no solo va a acelerar la aplicación de redes neuronales (inferencia), sino también la formación de estas redes. Estas TPU tienen una potencia de procesamiento de 180 TFLOPS y están interconectados a un con 11.5 PFLOPS. La topología de la arquitectura del sistema de grupos tiene esferas en forma de red de 8 × 8 TPU.

La TPU de segunda generación forman parte del Google Compute Engine, una oferta de servicios en la nube de la compañía.

Los detalles técnicos de la segunda generación actualmente (mayo de 2017) no están disponibles. Sin embargo, se supone que utiliza memoria GDDR5.

Tercera generación

[editar]

La TPU de tercera generación se anunció el 8 de mayo de 2018[6]​. Google anunció que los procesadores en sí son dos veces más potentes que los TPU de segunda generación y se implementarían en módulos con cuatro veces más chips que la generación anterior[7]​. Esto da como resultado un aumento de 8 veces en el rendimiento por pod (con hasta 1024 chips por pod) en comparación con la implementación de TPU de segunda generación.

Cuarta generación

[editar]

El 18 de mayo de 2021, el director ejecutivo de Google, Sundar Pichai, habló sobre las unidades de procesamiento de tensor TPU v4 durante su discurso de apertura en la conferencia virtual Google I/O. TPU v4 mejoró el rendimiento en más del doble que los chips TPU v3. Cada pod v4 contiene 4096 chips v4, y cada pod tiene 10 veces el ancho de banda de interconexión por chip a escala.[8]

También existe una versión de "inferencia", llamada v4i, que no requiere refrigeración líquida.[9]

Quinta generación

[editar]

En 2021, Google reveló que el diseño físico de TPU v5 se está realizando mediante una novedosa aplicación de aprendizaje por refuerzo profundo.[10]

De manera similar a que v4i, la quinta generación tiene una versión más liviana llamada v5e.[11]

Google Tensor

[editar]
Google Tensor es una serie de procesadores de sistema en un chip (SoC) basados en ARM64 diseñados por Google para sus dispositivos Pixel. Se conceptualizó originalmente en 2016, tras la introducción del primer teléfono inteligente Pixel, aunque el trabajo de desarrollo real no estuvo en pleno apogeo hasta 2020. El chip Tensor de primera generación debutó en la serie de teléfonos inteligentes Pixel 6 en 2021,[12]​ siendo reemplazado por el chip Tensor G2 en las series de teléfonos inteligentes Pixel 7 y Pixel 7 Pro en 2022[13]​ y, posteriormente, por el Tensor G3 con los Pixel 8 y Pixel 8 Pro de 2023.[14]​ Tensor ha sido en general bien recibido por la crítica.

Referencias

[editar]
  1. Armasu, Lucian (19 de mayo de 2016). «Google's Big Chip Unveil For Machine Learning: Tensor Processing Unit With 10x Better Efficiency (Updated)». Tom's Hardware. 
  2. a b Jouppi, Norm (18 de mayo de 2016). «Google supercharges machine learning tasks with TPU custom chip». Google Cloud Platform Blog (en inglés estadounidense). Google. Consultado el 26 de junio de 2016. 
  3. «Google's Tensor Processing Unit could advance Moore's Law 7 years into the future». PCWorld (en inglés). Consultado el 19 de enero de 2017. 
  4. «Google supercharges machine learning tasks with TPU custom chip». 
  5. «In-Datacentre Performance Analysis of a Tensor Processing Unit». 
  6. Frumusanu, Andrei. «Google I/O 2018 Opening Keynote Live-Blog (10am PT)». www.anandtech.com. Consultado el 31 de enero de 2024. 
  7. «Google Offers Glimpse of Third-Generation TPU Processor | TOP500». www.top500.org. Consultado el 31 de enero de 2024. 
  8. Weiss, Todd R. (20 de mayo de 2021). «Google Launches TPU v4 AI Chips». HPCwire (en inglés estadounidense). Consultado el 31 de enero de 2024. 
  9. Kennedy, Patrick (29 de agosto de 2023). «Google Details TPUv4 and its Crazy Optically Reconfigurable AI Network». ServeTheHome (en inglés estadounidense). Consultado el 31 de enero de 2024. 
  10. Mirhoseini, Azalia; Goldie, Anna; Yazgan, Mustafa; Jiang, Joe Wenjie; Songhori, Ebrahim; Wang, Shen; Lee, Young-Joon; Johnson, Eric et al. (2022-04). «Author Correction: A graph placement methodology for fast chip design». Nature (en inglés) 604 (7906): E24-E24. ISSN 1476-4687. doi:10.1038/s41586-022-04657-6. Consultado el 31 de enero de 2024. 
  11. «Introducción a la inferencia de Cloud TPU v5e | Cloud TPU». Google Cloud. Consultado el 31 de enero de 2024. 
  12. Pastor, Javier (19 de octubre de 2021). «Google Tensor es el pistoletazo de salida de Google en chips móviles: el foco es la inteligencia artificial, no ganar en benchmarks». Xataka. Consultado el 5 de octubre de 2023. 
  13. Fernández, Samuel (7 de octubre de 2022). «El Google Tensor G2 de los Pixel 7 es el procesador móvil más inteligente jamás fabricado por Google». Xataka Móvil. Consultado el 5 de octubre de 2023. 
  14. Alcolea, Alejandro (4 de octubre de 2023). «Google Tensor G3: así es el procesador del Pixel 8 que pone el hardware al servicio del software». Xataka Móvil. Consultado el 5 de octubre de 2023. 

Enlaces externos

[editar]