Control Neuronal por Modelo Inverso de un Servosistema Usando Algoritmos de Aprendizaje Levenberg-Marquardt y Bayesiano

Reading time: 5 minute
...

📝 Original Info

  • Title: Control Neuronal por Modelo Inverso de un Servosistema Usando Algoritmos de Aprendizaje Levenberg-Marquardt y Bayesiano
  • ArXiv ID: 1111.4267
  • Date: 2011-11-21
  • Authors: ** - Victor A. Rodriguez‑Toro (Universidad del Valle, Cali, Colombia) – 이메일: victor.rodriguez@correounivalle.edu.co - Jaime E. Garzón (Universidad del Valle, Cali, Colombia) – 이메일: jaimeegv@hotmail.com - Jesús A. López (Universidad Autónoma de Occidente, Cali, Colombia) – 이메일: jalopez@uao.edu.co **

📝 Abstract

In this paper we present the experimental results of the neural network control of a servo-system in order to control its speed. The control strategy is implemented by using an inverse-model control based on Artificial Neural Networks (ANNs). The network training was performed using two learning algorithms: Levenberg-Marquardt and Bayesian regularization. We evaluate the generalization capability for each method according to both the correct operation of the controller to follow the reference signal, and the control efforts developed by the ANN-based controller.

💡 Deep Analysis

📄 Full Content

“Control neuronal por modelo inverso de un servosistema usando algoritmos de aprendizaje Levenberg-Marquardt y Bayesiano”. Victor A. Rodriguez-Toro, Jaime E. Garzón, Jesús A. López. VIII Congreso de la Asociación Colombiana de Automática. Universidad Tecnológica de Bolívar. Asociación Colombiana de Automática. Abril 2-3 de 2009. Cartagena. ISBN 978-958-8387-23-9. 1

Control Neuronal por Modelo Inverso de un Servosistema Usando Algoritmos de Aprendizaje Levenberg-Marquardt y Bayesiano.

Victor A. Rodriguez-Toro§, Jaime E. Garzón‡, Jesús A. López†

§Grupo de Investigación en Bionanoelectrónica. Escuela de Ingeniería Eléctrica y Electrónica. A.A. 25360, Universidad del Valle, Cali, Colombia (email: victor.rodriguez@correounivalle.edu.co)

‡ Escuela de Ingeniería Eléctrica y Electrónica. A.A. 25360, Universidad del Valle, Cali, Colombia (email: jaimeegv@hotmail.com)

†Grupo de Investigación en Energías GIEN-UAO. Departamento de Automática y Electrónica. Calle 25 No. 115-85, Universidad Autónoma de Occidente, Cali, Colombia (e-mail: jalopez@uao.edu.co)

Resumen: En este trabajo se presentan los resultados experimentales del control neuronal de velocidad de un servosistema. La estrategia de control neuronal implementada es el control por modelo inverso. El entrenamiento de la red se ha realizado usando dos algoritmos de aprendizaje: Levenberg-Marquardt y regularización Bayesiana. Se evalúa la capacidad de generalización de cada método en función del correcto funcionamiento del controlador para seguir la señal de referencia y de los esfuerzos de control obtenidos
Palabras Clave: Neuro-Control, Red Neuronal Artificial, Algoritmos de Entrenamiento, Control por Dinámica Inversa

  1. INTRODUCCIÓN Una de las propiedades más explotadas de las redes neuronales artificiales (RNA) es la de ser aproximador universal de funciones [Hornik 89], lo cual ha llevado a utilizarlas en diversidad de aplicaciones que van desde el reconocimiento de patrones [Bishop 95], hasta la identificación y/o control de sistemas dinámicos [Narendra 90].

En el área de control de sistemas dinámicos, las RNA se han usado en diferentes enfoques siendo el control neuronal por modelo inverso la estrategia básica de control neuronal [Norgaard 00].

Además, debe señalarse que a pesar de existir una gran diversidad de algoritmos de aprendizaje para las redes neuronales, los más usados para tal fin son los algoritmos basados en gradiente. Dependiendo de la manera como se utilice la información del gradiente, se tienen algoritmos de aprendizaje denominados de primer orden como el gradiente descendente [Hagan 96, Haykin 99] o algoritmos de aprendizaje más elaborados denominados de segundo orden como los algoritmos de gradiente conjugado [Hagan 96, Haykin 99] y los algoritmos basados en la metodología de Levenberg-Marquardt [Hagan 96, Masters 95].

En aplicaciones de control neuronal por modelo inverso, generalmente se selecciona como algoritmo de aprendizaje el basado en Levenberg-Marquardt, debido principalmente a su rapidez de convergencia con errores suficientemente pequeños acorde a las necesidades del usuario. Sin embargo, alcanzar errores pequeños no garantiza la capacidad de generalización del modelo neuronal, produciendo en este caso un problema de sobre-entrenamiento, lo cual significa que la red presenta un error muy bajo con los patrones de entrenamiento pero el error aumenta con los patrones de validación.

Entre las diferentes alternativas para evitar el sobre- entrenamiento se destaca el algoritmo de regularización automática o aprendizaje Bayesiano. En aplicaciones de identificación de sistemas, esto se ha explorado teniendo como resultado que la calidad de los modelos neuronales mejora cuando se usa aprendizaje Bayesiano en vez de aprendizaje convencional como Levenberg-Marquardt [Lopez 07]

El objetivo de este trabajo es ver las diferencias entre controladores neuronales entrenados con métodos que no garantizan la capacidad de generalización como el Levenberg-Marquardt y métodos que si consideran este aspecto como el aprendizaje Bayesiano Este documento está organizado de la siguiente manera: En la sección 2 se presentan conceptos generales de control neuronal y de entrenamiento de redes neuronales considerando y no el sobre-entrenamiento. Posteriormente, en la sección 3, se presenta la implementación del control neuronal por modelo inverso en el servosistema. En la sección 4 se muestran los resultados experimentales. El trabajo termina con la sección 5 donde se presentan las conclusiones.

2

  1. CONTROL POR MODELO INVERSO: APRENDIZAJE LEVENBERG-MARQUARDT Y BAYESIANO. 2.1 Modelo inverso El control por modelo inverso es una técnica, que busca cancelar la dinámica de la planta al colocar un elemento en cascada con ella, en este caso una red neuronal, siendo este una aproximación matemática del inverso de la planta. De es

Reference

This content is AI-processed based on open access ArXiv data.

Start searching

Enter keywords to search articles

↑↓
ESC
⌘K Shortcut