DSpace Repository

Modelado de procesos con RNAs: entrenamiento rápido usando pesos estocásticos con capacidad de generalización

Show simple item record

dc.contributor RAUL GONZALEZ GARCIA;120674 es_MX
dc.contributor.advisor González García, Raúl
dc.contributor.author Cano Rocha, Héctor Josué
dc.coverage.spatial México. San Luis Potosí. San Luis Potosí. es_MX
dc.creator HECTOR JOSUE CANO ROCHA;711938 es_MX
dc.date.accessioned 2022-09-21T19:40:15Z
dc.date.available 2022-09-21T19:40:15Z
dc.date.issued 2022-07-01
dc.identifier.uri https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/7973
dc.description.abstract En este trabajo se estudia, análisis y aplica de un método estocásticos de un solo paso ó Stochastic One-Step (SOS), método no iterativo e instantáneo, para el entrenamiento de redes neuronales artificiales de alimentación hacia adelante. El método Stochastic One-Step hace uso de pesos estocásticos (valores aleatorios) durante la etapa de entrenamiento. Un hallazgo interesante es cuando el método propuesto se aplica a sistemas de múltiples entradas y múltiples salidas, mediante el uso de una matriz amputada, garantizando que cada variable de salida obtenga su topología óptima, dicho efecto no se encuentra en los métodos de entrenamiento tradicionales. Para el desarrollo de la metodología se hace uso de datos simulados (reconstrucción de tres superficies), y datos de situaciones reales. Además, se prueba la factibilidad del método haciendo comparaciones rigurosas contra métodos tradicionales, donde el método propuesto resultó superior hasta un 50% bajo criterios estadísticos. En algunos casos el método propuesto logró ser hasta 100 veces más rápido que los métodos de entrenamiento tradicionales y con calidades de predicción competentes a los métodos de preferencia. Algunos trabajos presentados en la literatura mencionan que una red neuronal artificial de una sola capa oculta con alimentación hacia adelante no cuenta con la misma capacidad de abstracción que las redes neuronales profundas, por lo tanto, se utilizó el conjunto de datos de MNIST, base de datos comúnmente utilizada en técnicas de aprendizaje automático, para evidenciar que una SLFN puede ofrecer resultados aceptables si es entrenada mediante el método SOS. Los resultados para el MNIST fueron de 98.15% de precisión, con un tiempo de entrenamiento de 1.27 horas, donde se realizó un barrido desde 1 hasta 9’000 neuronas ocultas. Con el objetivo de mejorar el método propuesto, se analizan distintos factores que influyen fuertemente en su desempeño, como el rango en el que se inicializan los parámetros (pesos estocásticos), que tienen gran impacto en el desempeño final. Como el método SOS entrena redes neuronales de una forma rápida, fue posible realizar estudios más detallados. Uno de estos estudios fue implementar técnicas de preprocesamiento como el análisis de componentes principales, logrando reducir la dimensionalidad de bases de datos sustancialmente grandes y a la par identificando la cantidad óptima de componentes principales. Al final se plantea una metodología para desarrollar un entrenamiento rápido y eficaz, donde el usuario no tenga que definir ningún parámetro de ajuste. La metodología propuesta tiene como objetivo establecer reglas fijas sobre como entrenar una red neuronal artificial. es_MX
dc.description.abstract This work analyzes and applies a Stochastic One-Step (SOS) method, a noniterative and instantaneous method, for the training of feed-forward artificial neural networks. The Stochastic One-Step method makes use of stochastic weights (random values) during the training stage. An interesting finding is when the proposed method is applied to multi-input, multi-output systems, by using an amputated matrix, guaranteeing that each output variable obtains its optimal topology, such an effect is not found in traditional training methods. For the development of the methodology, simulated data (reconstruction of three surfaces) and data from real situations are used. In addition, the feasibility of the method is tested by making rigorous comparisons against traditional methods, where the proposed method was superior up to 50% under statistical criteria. In some cases, the proposed method was able to be up to 100 times faster than traditional training methods and with prediction qualities comparable to the preferred methods. Some works presented in the literature mention that a neural network artificial single layer concealed feedforward does not have the same abstraction capacity as networks deep neural networks, therefore, the set of data from MNIST, a database commonly used in techniques of machine learning, to show that an SLFN can offer acceptable results if trained using the SOS method. The results for the MNIST were 98.15% accurate, with a time of training of 1.27 hours, where a sweep was made from 1 up to 9’000 hidden neurons. To improve the proposed method, different factors that strongly influence its performance are analyzed, such as the range in which the parameters are initialized (stochastic weights), which have a great impact on the final performance. Since the SOS method trains neural networks quickly, it was more detailed studies possible. One of these studies was implementing preprocessing techniques such as analysis of main components, managing to reduce the dimensionality of bases of substantially large data, and at par by identifying the optimal number of principal components. Finally, a methodology to develop fast and effective training, where the user does not need to define any tuning parameters. The methodol es_MX
dc.description.sponsorship Beca, 586482, Consejo Nacional de Ciencia y Tecnología. es_MX
dc.description.statementofresponsibility Administradores es_MX
dc.description.statementofresponsibility Investigadores es_MX
dc.description.statementofresponsibility Estudiantes es_MX
dc.language Español es_MX
dc.relation.ispartof REPOSITORIO NACIONAL CONACYT es_MX
dc.relation.requires Stochastic One-Step Training for Feedforward Artificial Neural Networks, 2020, Artículo científico. es_MX
dc.relation.uri 10.1007/s11063-020-10335-3 es_MX
dc.rights Acceso Abierto es_MX
dc.rights.uri http://creativecommons.org/licenses/by-nc-sa/4.0 es_MX
dc.subject Redes neuronales artificiales (bne) es_MX
dc.subject Modelos matemáticos (lemb) es_MX
dc.subject Red neuronal de alimentación hacia adelante es_MX
dc.subject Redes constructivas es_MX
dc.subject Entrenamiento es_MX
dc.subject Validación cruzada es_MX
dc.subject Red neuronal de alimentación hacia adelante de una sola capa oculta es_MX
dc.subject Múltiples respuestas es_MX
dc.subject Feedforward neural network es_MX
dc.subject Constructive networks es_MX
dc.subject Training es_MX
dc.subject Crossvalidation es_MX
dc.subject Single-hidden layer feedforward network es_MX
dc.subject Multiple responses es_MX
dc.subject.other INGENIERÍA Y TECNOLOGÍA es_MX
dc.title Modelado de procesos con RNAs: entrenamiento rápido usando pesos estocásticos con capacidad de generalización es_MX
dc.type Tesis de doctorado es_MX
dc.degree.name Doctorado en Ciencias en Ingeniería Química es_MX
dc.degree.department Facultad de Ciencias Químicas es_MX


Files in this item

This item appears in the following Collection(s)

Show simple item record

Acceso Abierto Except where otherwise noted, this item's license is described as Acceso Abierto

Search DSpace


Advanced Search

Browse

My Account