Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Segundo Paper
Segundo Paper
Autores Yang You, Member, IEEE, Zhao Zhang, Member, IEEE, Cho-
Jui Hsieh, Member, IEEE, James Demmel, Fellow, IEEE, Kur
Keutzer, Fellow, IEEE
Problema
Para las aplicaciones de Deep learning los conjuntos de
datos mas grandes y modelos conducen a una mejora
significativa en la precisión, pero esto demanda un mayor
gasto computacional.(You et al., 2019)
Algoritmos de deep learning usados DNN, SGD, RNN, Alexnet, Gradient clipping technique ,
AlexNet-BN
Frameworks:
TensorFlow : Framework de Google
AutoGraph : Herramienta de Tensorflow
Arquitectura física o diagrama de infraestructura Arquitectura de un TPU chi
contenerizada usada. por MX. El performance de
chip es 45 Tflops.
Este chip es usado para la
inference en la red DNN en
entrenamiento.
Opinión crítica de su parte (estudiante) de las los beneficios El principal beneficio es que reduce el tiempo promedio ya
o perjuicios del uso de paralelismo en dicho algoritmo. que es dividido en varios procesadores. Contamos las
operaciones que requiere por el batch size de cada imagen
You, Y., Zhang, Z., Hsieh, C. J., Demmel, J., & Keutzer, K. (2019). Fast Deep Neural Network Training on
Distributed Systems and Cloud TPUs. IEEE Transactions on Parallel and Distributed Systems, 30(11),
2449–2462. https://doi.org/10.1109/TPDS.2019.2913833