Search engine for discovering works of Art, research articles, and books related to Art and Culture
ShareThis
Javascript must be enabled to continue!

Energy-efficient architectures for recurrent neural networks

View through CrossRef
Deep Learning algorithms have been remarkably successful in applications such as Automatic Speech Recognition and Machine Translation. Thus, these kinds of applications are ubiquitous in our lives and are found in a plethora of devices. These algorithms are composed of Deep Neural Networks (DNNs), such as Convolutional Neural Networks and Recurrent Neural Networks (RNNs), which have a large number of parameters and require a large amount of computations. Hence, the evaluation of DNNs is challenging due to their large memory and power requirements. RNNs are employed to solve sequence to sequence problems such as Machine Translation. They contain data dependencies among the executions of time-steps hence the amount of parallelism is severely limited. Thus, evaluating them in an energy-efficient manner is more challenging than evaluating other DNN algorithms. This thesis studies applications using RNNs to improve their energy efficiency on specialized architectures. Specifically, we propose novel energy-saving techniques and highly efficient architectures tailored to the evaluation of RNNs. We focus on the most successful RNN topologies which are the Long Short Term memory and the Gated Recurrent Unit. First, we characterize a set of RNNs running on a modern SoC. We identify that accessing the memory to fetch the model weights is the main source of energy consumption. Thus, we propose E-PUR: an energy-efficient processing unit for RNN inference. E-PUR achieves 6.8x speedup and improves energy consumption by 88x compared to the SoC. These benefits are obtained by improving the temporal locality of the model weights. In E-PUR, fetching the parameters is the main source of energy consumption. Thus, we strive to reduce memory accesses and propose a scheme to reuse previous computations. Our observation is that when evaluating the input sequences of an RNN model, the output of a given neuron tends to change lightly between consecutive evaluations.Thus, we develop a scheme that caches the neurons' outputs and reuses them whenever it detects that the change between the current and previously computed output value for a given neuron is small avoiding to fetch the weights. In order to decide when to reuse a previous value we employ a Binary Neural Network (BNN) as a predictor of reusability. The low-cost BNN can be employed in this context since its output is highly correlated to the output of RNNs. We show that our proposal avoids more than 24.2% of computations. Hence, on average, energy consumption is reduced by 18.5% for a speedup of 1.35x. RNN models’ memory footprint is usually reduced by using low precision for evaluation and storage. In this case, the minimum precision used is identified offline and it is set such that the model maintains its accuracy. This method utilizes the same precision to compute all time-steps.Yet, we observe that some time-steps can be evaluated with a lower precision while preserving the accuracy. Thus, we propose a technique that dynamically selects the precision used to compute each time-step. A challenge of our proposal is choosing a lower bit-width. We address this issue by recognizing that information from a previous evaluation can be employed to determine the precision required in the current time-step. Our scheme evaluates 57% of the computations on a bit-width lower than the fixed precision employed by static methods. We implement it on E-PUR and it provides 1.46x speedup and 19.2% energy savings on average. Los algoritmos de aprendizaje profundo han tenido un éxito notable en aplicaciones como el reconocimiento automático de voz y la traducción automática. Por ende, estas aplicaciones son omnipresentes en nuestras vidas y se encuentran en una gran cantidad de dispositivos. Estos algoritmos se componen de Redes Neuronales Profundas (DNN), tales como las Redes Neuronales Convolucionales y Redes Neuronales Recurrentes (RNN), las cuales tienen un gran número de parámetros y cálculos. Por esto implementar DNNs en dispositivos móviles y servidores es un reto debido a los requisitos de memoria y energía. Las RNN se usan para resolver problemas de secuencia a secuencia tales como traducción automática. Estas contienen dependencias de datos entre las ejecuciones de cada time-step, por ello la cantidad de paralelismo es limitado. Por eso la evaluación de RNNs de forma energéticamente eficiente es un reto. En esta tesis se estudian RNNs para mejorar su eficiencia energética en arquitecturas especializadas. Para esto, proponemos técnicas de ahorro energético y arquitecturas de alta eficiencia adaptadas a la evaluación de RNN. Primero, caracterizamos un conjunto de RNN ejecutándose en un SoC. Luego identificamos que acceder a la memoria para leer los pesos es la mayor fuente de consumo energético el cual llega hasta un 80%. Por ende, creamos E-PUR: una unidad de procesamiento para RNN. E-PUR logra una aceleración de 6.8x y mejora el consumo energético en 88x en comparación con el SoC. Esas mejoras se deben a la maximización de la ubicación temporal de los pesos. En E-PUR, la lectura de los pesos representa el mayor consumo energético. Por ende, nos enfocamos en reducir los accesos a la memoria y creamos un esquema que reutiliza resultados calculados previamente. La observación es que al evaluar las secuencias de entrada de un RNN, la salida de una neurona dada tiende a cambiar ligeramente entre evaluaciones consecutivas, por lo que ideamos un esquema que almacena en caché las salidas de las neuronas y las reutiliza cada vez que detecta un cambio pequeño entre el valor de salida actual y el valor previo, lo que evita leer los pesos. Para decidir cuándo usar un cálculo anterior utilizamos una Red Neuronal Binaria (BNN) como predictor de reutilización, dado que su salida está altamente correlacionada con la salida de la RNN. Esta propuesta evita más del 24.2% de los cálculos y reduce el consumo energético promedio en 18.5%. El tamaño de la memoria de los modelos RNN suele reducirse utilizando baja precisión para la evaluación y el almacenamiento de los pesos. En este caso, la precisión mínima utilizada se identifica de forma estática y se establece de manera que la RNN mantenga su exactitud. Normalmente, este método utiliza la misma precisión para todo los cálculos. Sin embargo, observamos que algunos cálculos se pueden evaluar con una precisión menor sin afectar la exactitud. Por eso, ideamos una técnica que selecciona dinámicamente la precisión utilizada para calcular cada time-step. Un reto de esta propuesta es como elegir una precisión menor. Abordamos este problema reconociendo que el resultado de una evaluación previa se puede emplear para determinar la precisión requerida en el time-step actual. Nuestro esquema evalúa el 57% de los cálculos con una precisión menor que la precisión fija empleada por los métodos estáticos. Por último, la evaluación en E-PUR muestra una aceleración de 1.46x con un ahorro de energía promedio de 19.2%
Universitat Politècnica de Catalunya
Title: Energy-efficient architectures for recurrent neural networks
Description:
Deep Learning algorithms have been remarkably successful in applications such as Automatic Speech Recognition and Machine Translation.
Thus, these kinds of applications are ubiquitous in our lives and are found in a plethora of devices.
These algorithms are composed of Deep Neural Networks (DNNs), such as Convolutional Neural Networks and Recurrent Neural Networks (RNNs), which have a large number of parameters and require a large amount of computations.
Hence, the evaluation of DNNs is challenging due to their large memory and power requirements.
RNNs are employed to solve sequence to sequence problems such as Machine Translation.
They contain data dependencies among the executions of time-steps hence the amount of parallelism is severely limited.
Thus, evaluating them in an energy-efficient manner is more challenging than evaluating other DNN algorithms.
This thesis studies applications using RNNs to improve their energy efficiency on specialized architectures.
Specifically, we propose novel energy-saving techniques and highly efficient architectures tailored to the evaluation of RNNs.
We focus on the most successful RNN topologies which are the Long Short Term memory and the Gated Recurrent Unit.
First, we characterize a set of RNNs running on a modern SoC.
We identify that accessing the memory to fetch the model weights is the main source of energy consumption.
Thus, we propose E-PUR: an energy-efficient processing unit for RNN inference.
E-PUR achieves 6.
8x speedup and improves energy consumption by 88x compared to the SoC.
These benefits are obtained by improving the temporal locality of the model weights.
In E-PUR, fetching the parameters is the main source of energy consumption.
Thus, we strive to reduce memory accesses and propose a scheme to reuse previous computations.
Our observation is that when evaluating the input sequences of an RNN model, the output of a given neuron tends to change lightly between consecutive evaluations.
Thus, we develop a scheme that caches the neurons' outputs and reuses them whenever it detects that the change between the current and previously computed output value for a given neuron is small avoiding to fetch the weights.
In order to decide when to reuse a previous value we employ a Binary Neural Network (BNN) as a predictor of reusability.
The low-cost BNN can be employed in this context since its output is highly correlated to the output of RNNs.
We show that our proposal avoids more than 24.
2% of computations.
Hence, on average, energy consumption is reduced by 18.
5% for a speedup of 1.
35x.
RNN models’ memory footprint is usually reduced by using low precision for evaluation and storage.
In this case, the minimum precision used is identified offline and it is set such that the model maintains its accuracy.
This method utilizes the same precision to compute all time-steps.
Yet, we observe that some time-steps can be evaluated with a lower precision while preserving the accuracy.
Thus, we propose a technique that dynamically selects the precision used to compute each time-step.
A challenge of our proposal is choosing a lower bit-width.
We address this issue by recognizing that information from a previous evaluation can be employed to determine the precision required in the current time-step.
Our scheme evaluates 57% of the computations on a bit-width lower than the fixed precision employed by static methods.
We implement it on E-PUR and it provides 1.
46x speedup and 19.
2% energy savings on average.
Los algoritmos de aprendizaje profundo han tenido un éxito notable en aplicaciones como el reconocimiento automático de voz y la traducción automática.
Por ende, estas aplicaciones son omnipresentes en nuestras vidas y se encuentran en una gran cantidad de dispositivos.
Estos algoritmos se componen de Redes Neuronales Profundas (DNN), tales como las Redes Neuronales Convolucionales y Redes Neuronales Recurrentes (RNN), las cuales tienen un gran número de parámetros y cálculos.
Por esto implementar DNNs en dispositivos móviles y servidores es un reto debido a los requisitos de memoria y energía.
Las RNN se usan para resolver problemas de secuencia a secuencia tales como traducción automática.
Estas contienen dependencias de datos entre las ejecuciones de cada time-step, por ello la cantidad de paralelismo es limitado.
Por eso la evaluación de RNNs de forma energéticamente eficiente es un reto.
En esta tesis se estudian RNNs para mejorar su eficiencia energética en arquitecturas especializadas.
Para esto, proponemos técnicas de ahorro energético y arquitecturas de alta eficiencia adaptadas a la evaluación de RNN.
Primero, caracterizamos un conjunto de RNN ejecutándose en un SoC.
Luego identificamos que acceder a la memoria para leer los pesos es la mayor fuente de consumo energético el cual llega hasta un 80%.
Por ende, creamos E-PUR: una unidad de procesamiento para RNN.
E-PUR logra una aceleración de 6.
8x y mejora el consumo energético en 88x en comparación con el SoC.
Esas mejoras se deben a la maximización de la ubicación temporal de los pesos.
En E-PUR, la lectura de los pesos representa el mayor consumo energético.
Por ende, nos enfocamos en reducir los accesos a la memoria y creamos un esquema que reutiliza resultados calculados previamente.
La observación es que al evaluar las secuencias de entrada de un RNN, la salida de una neurona dada tiende a cambiar ligeramente entre evaluaciones consecutivas, por lo que ideamos un esquema que almacena en caché las salidas de las neuronas y las reutiliza cada vez que detecta un cambio pequeño entre el valor de salida actual y el valor previo, lo que evita leer los pesos.
Para decidir cuándo usar un cálculo anterior utilizamos una Red Neuronal Binaria (BNN) como predictor de reutilización, dado que su salida está altamente correlacionada con la salida de la RNN.
Esta propuesta evita más del 24.
2% de los cálculos y reduce el consumo energético promedio en 18.
5%.
El tamaño de la memoria de los modelos RNN suele reducirse utilizando baja precisión para la evaluación y el almacenamiento de los pesos.
En este caso, la precisión mínima utilizada se identifica de forma estática y se establece de manera que la RNN mantenga su exactitud.
Normalmente, este método utiliza la misma precisión para todo los cálculos.
Sin embargo, observamos que algunos cálculos se pueden evaluar con una precisión menor sin afectar la exactitud.
Por eso, ideamos una técnica que selecciona dinámicamente la precisión utilizada para calcular cada time-step.
Un reto de esta propuesta es como elegir una precisión menor.
Abordamos este problema reconociendo que el resultado de una evaluación previa se puede emplear para determinar la precisión requerida en el time-step actual.
Nuestro esquema evalúa el 57% de los cálculos con una precisión menor que la precisión fija empleada por los métodos estáticos.
Por último, la evaluación en E-PUR muestra una aceleración de 1.
46x con un ahorro de energía promedio de 19.
2%.

Related Results

On the role of network dynamics for information processing in artificial and biological neural networks
On the role of network dynamics for information processing in artificial and biological neural networks
Understanding how interactions in complex systems give rise to various collective behaviours has been of interest for researchers across a wide range of fields. However, despite ma...
Fuzzy Chaotic Neural Networks
Fuzzy Chaotic Neural Networks
An understanding of the human brain’s local function has improved in recent years. But the cognition of human brain’s working process as a whole is still obscure. Both fuzzy logic ...
Design of multi-energy-space-based energy-efficient algorithm in novel software-defined wireless sensor networks
Design of multi-energy-space-based energy-efficient algorithm in novel software-defined wireless sensor networks
Energy efficiency has always been a hot issue in wireless sensor networks. A lot of energy-efficient algorithms have been proposed to reduce energy consumption in traditional wirel...
Integrating quantum neural networks with machine learning algorithms for optimizing healthcare diagnostics and treatment outcomes
Integrating quantum neural networks with machine learning algorithms for optimizing healthcare diagnostics and treatment outcomes
The rapid advancements in artificial intelligence (AI) and quantum computing have catalyzed an unprecedented shift in the methodologies utilized for healthcare diagnostics and trea...
Introducing Optimal Energy Hub Approach in Smart Green Ports based on Machine Learning Methodology
Introducing Optimal Energy Hub Approach in Smart Green Ports based on Machine Learning Methodology
Abstract The integration of renewable energy systems in port facilities is essential for achieving sustainable and environmentally friendly operations. This paper presents ...
Critical Review of Neural Network Generations and Models Design
Critical Review of Neural Network Generations and Models Design
In recent years, Neural networks are increasingly deployed in various fields to learn complex patterns and make accurate predictions. However, designing an effective neural network...
Critical Review of Neural Network Generations and Models Design
Critical Review of Neural Network Generations and Models Design
In recent years, Neural networks are increasingly deployed in various fields to learn complex patterns and make accurate predictions. However, designing an effective neural network...
The Geography of Cyberspace
The Geography of Cyberspace
The Virtual and the Physical The structure of virtual space is a product of the Internet’s geography and technology. Debates around the nature of the virtual — culture, s...

Back to Top