Please use this identifier to cite or link to this item: https://repositorio.utn.edu.ec/handle/123456789/19552
Citar este ítem

Full metadata record
DC FieldValueLanguage
dc.contributor.authorDíaz, Enrique-
dc.contributor.authorNegrete, Karla-
dc.contributor.authorYépez, Jenyffer-
dc.date.accessioned2026-04-08T23:24:17Z-
dc.date.available2026-04-08T23:24:17Z-
dc.date.created2022-07-15-
dc.date.issued2026-04-08-
dc.identifier.issn1876-1119-
dc.identifier.urihttps://repositorio.utn.edu.ec/handle/123456789/19552-
dc.description.abstractEste artículo propone una alternativa para formular el método de mejora de controladores conservadores basados en desigualdades matriciales lineales (LMI), funciones de acción-valor (función Q) y algoritmos de iteración de valor para aprender controladores óptimos utilizando datos del sistema. En este sentido, la propuesta utiliza ideas de trabajos previos que parametrizan de una manera particular la función Q. De esta forma, la función Q puede describirse con funciones de pertenencia polinómicas para modelos difusos de Takagi-Sugeno e inicializar un proceso de aprendizaje con el controlador LMI. El controlador obtenido utiliza tanto la información sobre las funciones de pertenencia como un conjunto de datos obtenidos del sistema para mejorar el controlador LMI. Se utiliza un sistema TORA para ilustrar el enfoque.es_EC
dc.language.isospaes_EC
dc.publisherSpringer Nature Linkes_EC
dc.rightsopenAccesses_EC
dc.rightsAtribución-NoComercial-CompartirIgual 3.0 Ecuador*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/ec/*
dc.subjectARTÍCULOes_EC
dc.subjectALGORITMOSes_EC
dc.subjectFUNCIÓNes_EC
dc.subjectPROCESOes_EC
dc.titleAprendizaje de un controlador LMI mejorado basado en modelos Takagi-Sugeno mediante iteración de valor.es_EC
dc.typeArticlees_EC
dc.description.degreeN/Aes_EC
dc.coverageIbarra. Ecuadores_EC
dc.contributor.orcidhttps://orcid.org/0000-0003-4580-972Xes_EC
dc.contributor.orcidhttps://orcid.org/0000-0003-1787-3564es_EC
dc.contributor.orcidhttps://orcid.org/0000-0002-8376-3681es_EC
dc.title.enLearning of an improved LMI controller based on takagi–sugeno models using value iterationes_EC
dc.subject.enARTICLEes_EC
dc.subject.enALGORITHMSes_EC
dc.subject.enFUNCTIONes_EC
dc.subject.enPROCESSes_EC
dc.description.abstract-enThis article proposes an alternative approach to formulate a method for improving conservative controllers based on Linear Matrix Inequalities (LMI), action-value functions (Q-functions), and value iteration algorithms to learn optimal controllers using system data. In this context, the proposal builds on ideas from previous works that parameterize the Q-function in a particular way. Thus, the Q-function can be described using polynomial membership functions for Takagi–Sugeno fuzzy models, enabling the initialization of a learning process with an LMI-based controller. The resulting controller uses both the information from the membership functions and a dataset obtained from the system to improve the LMI controller. A TORA (Translational Oscillator with Rotational Actuator) system is used to illustrate the proposed approach.es_EC
dc.identifier.doihttps://link.springer.com/chapter/10.1007/978-3-031-08942-8_7es_EC
Appears in Collections:Artículos

Files in This Item:
There are no files associated with this item.


This item is protected by original copyright



This item is licensed under a Creative Commons License Creative Commons