• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 258
  • 44
  • 2
  • Tagged with
  • 304
  • 304
  • 142
  • 80
  • 80
  • 80
  • 80
  • 80
  • 64
  • 63
  • 47
  • 47
  • 43
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Desarrollo de un equipo electrónico portátil orientado a la evaluación del estado de limpieza de conectores de fibra óptica haciendo uso de un microscopio óptico y algoritmos de procesamiento digital de imágenes / Development of a portable electronic equipment aimed at evaluating the state of cleanliness of fiber optic connectors using an optical microscope and digital image processing algorithms

Chavez Muñoz, Javier Gustavo, Fernandez Salazar, Victor Rodolfo 27 February 2020 (has links)
Concluypo enmbargo. / Solicitud de envío manuscrito de artículo científico. / El presente trabajo propone un dispositivo electrónico portátil que, acoplado a un microscopio óptico convencional, pueda capturar una imagen microscópica de la fibra óptica y emita un juicio si el conector se encuentra en un estado de limpieza aceptable o no. Asimismo, mediante reportes de trabajo y usando normas internacionales, evaluar los conectores para que formen parte de una base de datos histórica que aporte a los mantenimientos preventivos de una red. Si bien en la actualidad se tienen soluciones tecnológicas parecidas, estas tienen como gran desventaja el alto costo que implica adquirir uno de estos equipos, desanimando a los operadores optar por este importante equipo. Ingenierilmente, esta propuesta será posible mediante el desarrollo de un algoritmo que procese las imágenes capturadas con el uso de diversas herramientas de procesamiento de imágenes como la binarización, transformada de Hough, algoritmo de Canny, escala de grises y ecualización de imágenes, que, montado sobre un hardware basado en un computador de placa reducida, entregará una evaluación del conector de fibra óptica y un reporte descargable que sirve como documentación del trabajo realizado. Dentro de este contexto, los resultados obtenidos son favorables para una utilización en campo, para llegar a esto se tuvo como como variable de calidad el índice de Kappa Cohen, en el cual se demuestra la alta tasa de coincidencia entre las evaluaciones del equipo y la evaluación de ingenieros expertos. / The present work proposes a portable electronic device that, coupled with a conventional optical microscope, can capture a microscopic image of the optical fiber and emit a judgment if the connector is in an optimal cleaning state or not. Likewise, through reports and using international standards, evaluate the connectors so that can be part of a source of database that contributes to the preventive maintenance of a network. Although similar technological solutions are currently available, these have the great disadvantage of the high cost of acquiring one of this equipment, discouraging operators from opting for this important procedure. Engineeringfully, this proposal will be possible through the development of an algorithm that processes the captured images with the use of various image processing tools such as binarization, Hough transform, Canny algorithm, grayscale and image equalization, which, mounted on a hardware based on a reduced plate computer, it will provide an evaluation of the fiber optic connector and a downloadable report that serves as documentation of the work done. Within this context, the results obtained are favorable for a field use, to achieve this, the Kappa Cohen index was used as a quality variable, which demonstrates the high rate of coincidence between the evaluations of the equipment and the Evaluation of expert engineers. / Tesis
262

Modelamiento hidrológico de caudales medios mensuales en cuencas sin información hidrométrica aplicando el método Lutz Scholz y las redes neuronales artificiales, en la microcuenca Huajuiri - Oropesa - Antabamba - Apurímac / Hydrological modeling of monthly average flows in basins without hydrometric information applying Lutz Scholz method and artificial neural networks, in Huajuiri micro basin - Oropesa - Antabamba - Apurímac

Zárate Torres, Cynthia 30 December 2020 (has links)
El problema central planteado en la presente tesis de investigación es la falta de información hidrométrica en algunas cuencas del Perú, en este caso en la microcuenca Huajuiri, localizado en el distrito de Oropesa, provincia de Antabamba, departamento de Apurímac; puesto que al existir un déficit de estaciones hidrométricas respecto a la cantidad de cuencas existentes a nivel nacional, la información hidrométrica es insuficiente y deficiente, lo que trae como consecuencia no contar con datos como los caudales medios mensuales, información hidrológica relevante para poder conocer la disponibilidad del agua en la cuenca para efectuar la distribución del recurso hídrico de acuerdo al requerimiento de las comunidades campesinas aledañas a la fuente de agua, es útil para diseñar futuras obras hidráulicas, así como para realizar proyecciones respecto al comportamiento hídrico de la cuenca. Es por esta razón que se plantea el cálculo de los caudales medios mensuales en cuencas que no disponen de datos hidrométricos, utilizando el método Lutz Scholz y las redes neuronales artificiales. En la cuenca con información hidrométrica (La Angostura) con los modelamientos hidrológicos planteados, se obtuvieron valores cercanos a los caudales medios mensuales medidos. Sin embargo, en la cuenca sin información hidrométrica (Huajuiri), la inclusión en el modelamiento hidrológico de las redes neuronales artificiales permitió obtener valores más cercanos a los aforos realizados, que solamente aplicando el método Lutz Scholz. / Central problem exposed in this thesis is lack of hydrometric information in some basins of Peru, in our case in Huajuiri micro basin, located in Oropesa district, Antabamba province, Apurímac department, there is a deficit of hydrometric stations with respect to the number of existing basins at national level, hydrometric information is insufficient and deficient, which results in not having data such as average monthly flows, relevant hydrological information to be able to know the water availability of basin in order to distribute water according to requirements of rural communities surrounding the water source, it is useful to design future hydraulic construction, as well as to carry out projections regarding the water behavior of basin. It is for this reason that calculation of average monthly flows in basins without information is proposed using Lutz Scholz method and artificial neural networks. In basin with hydrometric information (La Angostura), with proposed hydrological modeling, values were obtained close to average monthly flows. However, in basin without hydrometric information (Huajuiri), inclusion in hydrological modeling of artificial neural networks allowed obtaining values closer to flow measurement, than only by applying Lutz Scholz method. / Tesis
263

Sistema inteligente para la predicción del tipo y cantidad de recursos óptimos en la planificación de proyectos en una empresa de electromecánica usando redes neuronales / Intelligent system for predicting the optimal type and number of resources in project planning in an electromechanical company using neural networks

Farfán Armas, Gabriel André, Morales Alba, Lincoln Jeampier 15 December 2021 (has links)
El presente documento de tesis tiene como finalidad presentar la planificación de la gestión, desarrollo y entregables de un proyecto de sistemas para una empresa dedicada a brindar servicios electromecánicos. Esto con el fin de automatizar sus procesos y obtener un beneficio en la operativa y actividades manuales. El proyecto está centrado en el proceso de planificación de cotizaciones de los proyectos operativos de la empresa. El documento está compuesto por 6 capítulos. El primer capítulo menciona los conceptos generales del negocio de electromecánica que es el objeto de estudio y el análisis de la problemática de la empresa. Asimismo, se detallan los objetivos y beneficios esperados del proyecto. El segundo capítulo muestra el logro de los student outcomes que describe la metodología utilizada para la investigación del proyecto. El tercer capítulo presenta el marco teórico del proyecto que contiene los fundamentos teóricos del negocio, tendencias y tecnologías actuales. El cuarto capítulo especifica el modelo de negocio, con sus reglas, casos de uso y realización de casos de uso. Además, se detallan los requerimientos funcionales y no funcionales del sistema. Asimismo, se describen los casos de uso del sistema. También, muestra la arquitectura de software que tendrá la solución propuesta. El quinto capítulo presenta los resultados del proyecto. Por último, el sexto capítulo presenta puntos orientados a la gestión del proyecto, como el registro de interesados, diagrama de EDT, cronograma de ejecución detallado con las actividades realizadas y entregables, y las actas de aceptación firmadas por el cliente. / The purpose of this project report is to present the management planning, development, and deliverables of a systems project for a company dedicated to providing electromechanical services. This to automate their processes and obtain a benefit in the operational and manual activities. The project is focused on the quotation planning process of the company's operational projects. The document is composed of 6 chapters. The first chapter mentions the general concepts of the electromechanical business that is the object of the study and the analysis of the company's problems. It also details the objectives and expected benefits of the project. The second chapter shows the achievement of the student outcomes describing the methodology used for the research of the project. The third chapter presents the theoretical framework of the project that contains the theoretical foundations of the business, trends, and current technologies. The fourth chapter specifies the business model, with its rules, use cases and use case realization. In addition, the functional and non-functional requirements of the system are detailed. It also describes the use cases of the system. It also shows the software architecture of the proposed solution. The fifth chapter presents the results of the project. Finally, the sixth chapter presents points oriented to the project management, such as the stakeholders register, WBS diagram, detailed execution chronogram with the activities performed and deliverables, and the acceptance minutes signed by the client. / Tesis
264

CONTRIBUTIONS TO EFFICIENT AUTOMATIC TRANSCRIPTION OF VIDEO LECTURES

Agua Teba, Miguel Ángel del 04 November 2019 (has links)
[ES] Durante los últimos años, los repositorios multimedia en línea se han convertido en fuentes clave de conocimiento gracias al auge de Internet, especialmente en el área de la educación. Instituciones educativas de todo el mundo han dedicado muchos recursos en la búsqueda de nuevos métodos de enseñanza, tanto para mejorar la asimilación de nuevos conocimientos, como para poder llegar a una audiencia más amplia. Como resultado, hoy en día disponemos de diferentes repositorios con clases grabadas que siven como herramientas complementarias en la enseñanza, o incluso pueden asentar una nueva base en la enseñanza a distancia. Sin embargo, deben cumplir con una serie de requisitos para que la experiencia sea totalmente satisfactoria y es aquí donde la transcripción de los materiales juega un papel fundamental. La transcripción posibilita una búsqueda precisa de los materiales en los que el alumno está interesado, se abre la puerta a la traducción automática, a funciones de recomendación, a la generación de resumenes de las charlas y además, el poder hacer llegar el contenido a personas con discapacidades auditivas. No obstante, la generación de estas transcripciones puede resultar muy costosa. Con todo esto en mente, la presente tesis tiene como objetivo proporcionar nuevas herramientas y técnicas que faciliten la transcripción de estos repositorios. En particular, abordamos el desarrollo de un conjunto de herramientas de reconocimiento de automático del habla, con énfasis en las técnicas de aprendizaje profundo que contribuyen a proporcionar transcripciones precisas en casos de estudio reales. Además, se presentan diferentes participaciones en competiciones internacionales donde se demuestra la competitividad del software comparada con otras soluciones. Por otra parte, en aras de mejorar los sistemas de reconocimiento, se propone una nueva técnica de adaptación de estos sistemas al interlocutor basada en el uso Medidas de Confianza. Esto además motivó el desarrollo de técnicas para la mejora en la estimación de este tipo de medidas por medio de Redes Neuronales Recurrentes. Todas las contribuciones presentadas se han probado en diferentes repositorios educativos. De hecho, el toolkit transLectures-UPV es parte de un conjunto de herramientas que sirve para generar transcripciones de clases en diferentes universidades e instituciones españolas y europeas. / [CAT] Durant els últims anys, els repositoris multimèdia en línia s'han convertit en fonts clau de coneixement gràcies a l'expansió d'Internet, especialment en l'àrea de l'educació. Institucions educatives de tot el món han dedicat molts recursos en la recerca de nous mètodes d'ensenyament, tant per millorar l'assimilació de nous coneixements, com per poder arribar a una audiència més àmplia. Com a resultat, avui dia disposem de diferents repositoris amb classes gravades que serveixen com a eines complementàries en l'ensenyament, o fins i tot poden assentar una nova base a l'ensenyament a distància. No obstant això, han de complir amb una sèrie de requisits perquè la experiència siga totalment satisfactòria i és ací on la transcripció dels materials juga un paper fonamental. La transcripció possibilita una recerca precisa dels materials en els quals l'alumne està interessat, s'obri la porta a la traducció automàtica, a funcions de recomanació, a la generació de resums de les xerrades i el poder fer arribar el contingut a persones amb discapacitats auditives. No obstant, la generació d'aquestes transcripcions pot resultar molt costosa. Amb això en ment, la present tesi té com a objectiu proporcionar noves eines i tècniques que faciliten la transcripció d'aquests repositoris. En particular, abordem el desenvolupament d'un conjunt d'eines de reconeixement automàtic de la parla, amb èmfasi en les tècniques d'aprenentatge profund que contribueixen a proporcionar transcripcions precises en casos d'estudi reals. A més, es presenten diferents participacions en competicions internacionals on es demostra la competitivitat del programari comparada amb altres solucions. D'altra banda, per tal de millorar els sistemes de reconeixement, es proposa una nova tècnica d'adaptació d'aquests sistemes a l'interlocutor basada en l'ús de Mesures de Confiança. A més, això va motivar el desenvolupament de tècniques per a la millora en l'estimació d'aquest tipus de mesures per mitjà de Xarxes Neuronals Recurrents. Totes les contribucions presentades s'han provat en diferents repositoris educatius. De fet, el toolkit transLectures-UPV és part d'un conjunt d'eines que serveix per generar transcripcions de classes en diferents universitats i institucions espanyoles i europees. / [EN] During the last years, on-line multimedia repositories have become key knowledge assets thanks to the rise of Internet and especially in the area of education. Educational institutions around the world have devoted big efforts to explore different teaching methods, to improve the transmission of knowledge and to reach a wider audience. As a result, online video lecture repositories are now available and serve as complementary tools that can boost the learning experience to better assimilate new concepts. In order to guarantee the success of these repositories the transcription of each lecture plays a very important role because it constitutes the first step towards the availability of many other features. This transcription allows the searchability of learning materials, enables the translation into another languages, provides recommendation functions, gives the possibility to provide content summaries, guarantees the access to people with hearing disabilities, etc. However, the transcription of these videos is expensive in terms of time and human cost. To this purpose, this thesis aims at providing new tools and techniques that ease the transcription of these repositories. In particular, we address the development of a complete Automatic Speech Recognition Toolkit with an special focus on the Deep Learning techniques that contribute to provide accurate transcriptions in real-world scenarios. This toolkit is tested against many other in different international competitions showing comparable transcription quality. Moreover, a new technique to improve the recognition accuracy has been proposed which makes use of Confidence Measures, and constitutes the spark that motivated the proposal of new Confidence Measures techniques that helped to further improve the transcription quality. To this end, a new speaker-adapted confidence measure approach was proposed for models based on Recurrent Neural Networks. The contributions proposed herein have been tested in real-life scenarios in different educational repositories. In fact, the transLectures-UPV toolkit is part of a set of tools for providing video lecture transcriptions in many different Spanish and European universities and institutions. / Agua Teba, MÁD. (2019). CONTRIBUTIONS TO EFFICIENT AUTOMATIC TRANSCRIPTION OF VIDEO LECTURES [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/130198 / TESIS
265

Modelo de RNA para predecir la morosidad de microcredito en la Banca Estatal Peruana

Palacios Quichíz, Luis Esteban January 2012 (has links)
El Banco de la Nación tiene una delicada labor que cumplir ante los problemas sociales y económicos, para ampliar su cobertura a todo el territorio nacional y a todos los ciudadanos. Por ello conviene que aumente radicalmente su competencia tecnológica a fin de adoptar decisiones óptimas. Una de las formas tecnológicas de hacerlo es adoptar un modelo de Red Neuronal Artificial (RNA) que posteriormente será implementado y probado. El presente trabajo de tesis pretende realizar una propuesta sobre un nuevo servicio de Microcrédito, el cual se intenta vincularlo a un aspecto muy puntual de la computación moderna aplicada, donde se muestre que es posible predecir la morosidad de los clientes, planteando un modelo basado en RNA. Este acercamiento innovador también incluirá la metodología de Minería de Datos para proyectos relacionados con redes neuronales artificiales. PALABRAS CLAVES: Microcrédito, Redes Neuronales y Minería de datos. / The National Bank has a delicate work to play in social and economic problems, about extending their coverage throughout the national territory and for all citizens. Therefore it is important to increase radically their technological skills so that they know best decisions. One of the technological ways of doing so is adopting a model Artificial Neuronal network (RNA) which will then be implemented and tested. The present thesis work made a proposal on a new service of microcredit, are trying to link it to a very specific aspect of applied modern computing, showing specifically that it is possible predict the delinquency customers, proposing a model based on RNA. This innovative approach also includes the Data Mining methodology for projects relationship with neural networks. KEYWORDS: Microcredit, Artificial Neural Network and Data Mining. / Tesis
266

Healthcare data heterogeneity and its contribution to machine learning performance

Pérez Benito, Francisco Javier 09 November 2020 (has links)
Tesis por compendio / [EN] The data quality assessment has many dimensions, from those so obvious as the data completeness and consistency to other less evident such as the correctness or the ability to represent the target population. In general, it is possible to classify them as those produced by an external effect, and those that are inherent in the data itself. This work will be focused on those inherent to data, such as the temporal and the multisource variability applied to healthcare data repositories. Every process is usually improved over time, and that has a direct impact on the data distribution. Similarly, how a process is executed in different sources may vary due to many factors, such as the diverse interpretation of standard protocols by human beings or different previous experiences of experts. Artificial Intelligence has become one of the most widely extended technological paradigms in almost all the scientific and industrial fields. Advances not only in models but also in hardware have led to their use in almost all areas of science. Although the solved problems using this technology often have the drawback of not being interpretable, or at least not as much as other classical mathematical or statistical techniques. This motivated the emergence of the "explainable artificial intelligence" concept, that study methods to quantify and visualize the training process of models based on machine learning. On the other hand, real systems may often be represented by large networks (graphs), and one of the most relevant features in such networks is the community or clustering structure. Since sociology, biology, or clinical situations could usually be modeled using graphs, community detection algorithms are becoming more and more extended in a biomedical field. In the present doctoral thesis, contributions have been made in the three above mentioned areas. On the one hand, temporal and multisource variability assessment methods based on information geometry were used to detect variability in data distribution that may hinder data reuse and, hence, the conclusions which can be extracted from them. This methodology's usability was proved by a temporal variability analysis to detect data anomalies in the electronic health records of a hospital over 7 years. Besides, it showed that this methodology could have a positive impact if it applied previously to any study. To this end, firstly, we extracted the variables that highest influenced the intensity of headache in migraine patients using machine learning techniques. One of the principal characteristics of machine learning algorithms is its capability of fitting the training set. In those datasets with a small number of observations, the model can be biased by the training sample. The observed variability, after the application of the mentioned methodology and considering as sources the registries of migraine patients with different headache intensity, served as evidence for the truthfulness of the extracted features. Secondly, such an approach was applied to measure the variability among the gray-level histograms of digital mammographies. We demonstrated that the acquisition device produced the observed variability, and after defining an image preprocessing step, the performance of a deep learning model, which modeled a marker of breast cancer risk estimation, increased. Given a dataset containing the answers to a survey formed by psychometric scales, or in other words, questionnaires to measure psychologic factors, such as depression, cope, etcetera, two deep learning architectures that used the data structure were defined. Firstly, we designed a deep learning architecture using the conceptual structure of such psychometric scales. This architecture was trained to model the happiness degree of the participants, improved the performance compared to classical statistical approaches. A second architecture, automatically designed using community detection in graphs, was not only a contribution / [ES] El análisis de la calidad de los datos abarca muchas dimensiones, desde aquellas tan obvias como la completitud y la coherencia, hasta otras menos evidentes como la correctitud o la capacidad de representar a la población objetivo. En general, es posible clasificar estas dimensiones como las producidas por un efecto externo y las que son inherentes a los propios datos. Este trabajo se centrará en la evaluación de aquellas inherentes a los datos en repositorios de datos sanitarios, como son la variabilidad temporal y multi-fuente. Los procesos suelen evolucionar con el tiempo, y esto tiene un impacto directo en la distribución de los datos. Análogamente, la subjetividad humana puede influir en la forma en la que un mismo proceso, se ejecuta en diferentes fuentes de datos, influyendo en su cuantificación o recogida. La inteligencia artificial se ha convertido en uno de los paradigmas tecnológicos más extendidos en casi todos los campos científicos e industriales. Los avances, no sólo en los modelos sino también en el hardware, han llevado a su uso en casi todas las áreas de la ciencia. Es cierto que, los problemas resueltos mediante esta tecnología, suelen tener el inconveniente de no ser interpretables, o al menos, no tanto como otras técnicas de matemáticas o de estadística clásica. Esta falta de interpretabilidad, motivó la aparición del concepto de "inteligencia artificial explicable", que estudia métodos para cuantificar y visualizar el proceso de entrenamiento de modelos basados en aprendizaje automático. Por otra parte, los sistemas reales pueden representarse a menudo mediante grandes redes (grafos), y una de las características más relevantes de esas redes, es la estructura de comunidades. Dado que la sociología, la biología o las situaciones clínicas, usualmente pueden modelarse mediante grafos, los algoritmos de detección de comunidades se están extendiendo cada vez más en el ámbito biomédico. En la presente tesis doctoral, se han hecho contribuciones en los tres campos anteriormente mencionados. Por una parte, se han utilizado métodos de evaluación de variabilidad temporal y multi-fuente, basados en geometría de la información, para detectar la variabilidad en la distribución de los datos que pueda dificultar la reutilización de los mismos y, por tanto, las conclusiones que se puedan extraer. Esta metodología demostró ser útil tras ser aplicada a los registros electrónicos sanitarios de un hospital a lo largo de 7 años, donde se detectaron varias anomalías. Además, se demostró el impacto positivo que este análisis podría añadir a cualquier estudio. Para ello, en primer lugar, se utilizaron técnicas de aprendizaje automático para extraer las características más relevantes, a la hora de clasificar la intensidad del dolor de cabeza en pacientes con migraña. Una de las propiedades de los algoritmos de aprendizaje automático es su capacidad de adaptación a los datos de entrenamiento, en bases de datos en los que el número de observaciones es pequeño, el estimador puede estar sesgado por la muestra de entrenamiento. La variabilidad observada, tras la utilización de la metodología y considerando como fuentes, los registros de los pacientes con diferente intensidad del dolor, sirvió como evidencia de la veracidad de las características extraídas. En segundo lugar, se aplicó para medir la variabilidad entre los histogramas de los niveles de gris de mamografías digitales. Se demostró que esta variabilidad estaba producida por el dispositivo de adquisición, y tras la definición de un preproceso de imagen, se mejoró el rendimiento de un modelo de aprendizaje profundo, capaz de estimar un marcador de imagen del riesgo de desarrollar cáncer de mama. Dada una base de datos que recogía las respuestas de una encuesta formada por escalas psicométricas, o lo que es lo mismo cuestionarios que sirven para medir un factor psicológico, tales como depresión, resiliencia, etc., se definieron nuevas arquitecturas de aprendizaje profundo utilizando la estructura de los datos. En primer lugar, se dise˜no una arquitectura, utilizando la estructura conceptual de las citadas escalas psicom´etricas. Dicha arquitectura, que trataba de modelar el grado de felicidad de los participantes, tras ser entrenada, mejor o la precisión en comparación con otros modelos basados en estadística clásica. Una segunda aproximación, en la que la arquitectura se diseño de manera automática empleando detección de comunidades en grafos, no solo fue una contribución de por sí por la automatización del proceso, sino que, además, obtuvo resultados comparables a su predecesora. / [CA] L'anàlisi de la qualitat de les dades comprén moltes dimensions, des d'aquelles tan òbvies com la completesa i la coherència, fins a altres menys evidents com la correctitud o la capacitat de representar a la població objectiu. En general, és possible classificar estes dimensions com les produïdes per un efecte extern i les que són inherents a les pròpies dades. Este treball se centrarà en l'avaluació d'aquelles inherents a les dades en reposadors de dades sanitaris, com són la variabilitat temporal i multi-font. Els processos solen evolucionar amb el temps i açò té un impacte directe en la distribució de les dades. Anàlogament, la subjectivitat humana pot influir en la forma en què un mateix procés, s'executa en diferents fonts de dades, influint en la seua quantificació o arreplega. La intel·ligència artificial s'ha convertit en un dels paradigmes tecnològics més estesos en quasi tots els camps científics i industrials. Els avanços, no sols en els models sinó també en el maquinari, han portat al seu ús en quasi totes les àrees de la ciència. És cert que els problemes resolts per mitjà d'esta tecnologia, solen tindre l'inconvenient de no ser interpretables, o almenys, no tant com altres tècniques de matemàtiques o d'estadística clàssica. Esta falta d'interpretabilitat, va motivar l'aparició del concepte de "inteligencia artificial explicable", que estudia mètodes per a quantificar i visualitzar el procés d'entrenament de models basats en aprenentatge automàtic. D'altra banda, els sistemes reals poden representar-se sovint per mitjà de grans xarxes (grafs) i una de les característiques més rellevants d'eixes xarxes, és l'estructura de comunitats. Atés que la sociologia, la biologia o les situacions clíniques, poden modelar-se usualment per mitjà de grafs, els algoritmes de detecció de comunitats s'estan estenent cada vegada més en l'àmbit biomèdic. En la present tesi doctoral, s'han fet contribucions en els tres camps anteriorment mencionats. D'una banda, s'han utilitzat mètodes d'avaluació de variabilitat temporal i multi-font, basats en geometria de la informació, per a detectar la variabilitat en la distribució de les dades que puga dificultar la reutilització dels mateixos i, per tant, les conclusions que es puguen extraure. Esta metodologia va demostrar ser útil després de ser aplicada als registres electrònics sanitaris d'un hospital al llarg de 7 anys, on es van detectar diverses anomalies. A més, es va demostrar l'impacte positiu que esta anàlisi podria afegir a qualsevol estudi. Per a això, en primer lloc, es van utilitzar tècniques d'aprenentatge automàtic per a extraure les característiques més rellevants, a l'hora de classificar la intensitat del mal de cap en pacients amb migranya. Una de les propietats dels algoritmes d'aprenentatge automàtic és la seua capacitat d'adaptació a les dades d'entrenament, en bases de dades en què el nombre d'observacions és xicotet, l'estimador pot estar esbiaixat per la mostra d'entrenament. La variabilitat observada després de la utilització de la metodologia, i considerant com a fonts els registres dels pacients amb diferent intensitat del dolor, va servir com a evidència de la veracitat de les característiques extretes. En segon lloc, es va aplicar per a mesurar la variabilitat entre els histogrames dels nivells de gris de mamografies digitals. Es va demostrar que esta variabilitat estava produïda pel dispositiu d'adquisició i després de la definició d'un preprocés d'imatge, es va millorar el rendiment d'un model d'aprenentatge profund, capaç d'estimar un marcador d'imatge del risc de desenrotllar càncer de mama. Donada una base de dades que arreplegava les respostes d'una enquesta formada per escales psicomètriques, o el que és el mateix qüestionaris que servixen per a mesurar un factor psicològic, com ara depressió, resiliència, etc., es van definir noves arquitectures d'aprenentatge profund utilitzant l’estructura de les dades. En primer lloc, es disseny`a una arquitectura, utilitzant l’estructura conceptual de les esmentades escales psicom`etriques. La dita arquitectura, que tractava de modelar el grau de felicitat dels participants, despr´es de ser entrenada, va millorar la precisió en comparació amb altres models basats en estad´ıstica cl`assica. Una segona aproximació, en la que l’arquitectura es va dissenyar de manera autoàtica emprant detecció de comunitats en grafs, no sols va ser una contribució de per si per l’automatització del procés, sinó que, a més, va obtindre resultats comparables a la seua predecessora. / También me gustaría mencionar al Instituto Tecnológico de la Informáica, en especial al grupo de investigación Percepción, Reconocimiento, Aprendizaje e Inteligencia Artificial, no solo por darme la oportunidad de seguir creciendo en el mundo de la ciencia, sino también, por apoyarme en la consecución de mis objetivos personales / Pérez Benito, FJ. (2020). Healthcare data heterogeneity and its contribution to machine learning performance [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/154414 / TESIS / Compendio
267

Aplicación de redes neuronales para seleccionar variables vinculadas con el cumplimiento de créditos directos otorgados por constructoras de unidades residenciales Premium a potenciales compradores / Application of neural networks to select variables linked to compliance with direct credits granted by Premium residential unit builders to potential buyers

Sachun Salazar, Francisco Javier 25 September 2021 (has links)
La finalidad de esta investigación es seleccionar las variables vinculadas con el cumplimiento de créditos directos otorgados, entre los años 2015 y 2019, por constructoras de unidades residenciales Premium a potenciales compradores. Su importancia está en usar los resultados de este documento, como insumo para elaborar un modelo que cuantifique el riesgo de crédito eficientemente y, por consiguiente, identifique a los demandantes que tengan un perfil idóneo, en términos crediticios, para erosionar la incertidumbre financiera de la cartera de clientes. Para abordar el problema de investigación, se optó por el enfoque cuantitativo y el diseño no experimental. Dentro de este último, se eligió la tipología transversal correlacional. El diseño y la categoría seleccionadas implican que en este documento se evaluará la asociación entre variables (dependientes e independientes) que no han sido manipuladas anticipadamente, por parte del investigador. Llevando la teoría a la práctica, las entrevistas a los ejecutivos permitieron identificar variables sobre las que, posteriormente, se solicitó información específica para la construcción de la base de datos. Al aplicar los procesos estadísticos de regresión lineal binaria y redes neuronales de clasificación, se observó que el segundo mostró mayor solidez y confiabilidad en sus predicciones. El resultado de la aplicación de las redes neuronales de clasificación es que las variables independientes que tuvieron vinculación estadísticamente significativa con la dependiente son: la tasa de interés anual de la última deuda bancaria asumida por el evaluado, la aparición en Infocorp del evaluado y el uso que el evaluado le dará a la unidad Premium. / The purpose of this research is to select the variables linked to the fulfilment of direct credits granted, between 2015 and 2019, by builders of Premium residential units to potential buyers. Its importance lies in using the results of this document as input to develop a model that efficiently quantifies credit risk and, consequently, identifies applicants with a suitable profile, in credit terms, to erode the financial uncertainty of the customer portfolio. To address the research problem, a quantitative approach and a non-experimental design were chosen. Within the latter, the cross-sectional correlational typology was chosen. The design and category selected imply that this paper will assess the association between variables (dependent and independent) that have not been manipulated in advance by the researcher. Putting theory into practice, the interviews with executives allowed the identification of variables on which specific information was subsequently requested for the construction of the database. When applying the statistical processes of binary linear regression and classification neural networks, it was observed that the latter showed greater robustness and reliability in its predictions. The result of the application of the classification neural networks is that the independent variables that were statistically significantly related to the dependent variable are: the annual interest rate of the last bank debt assumed by the evaluee, the appearance in Infocorp of the evaluee and the use that the evaluee will make of the Premium unit. / Tesis
268

Propuesta metodológica basada en redes neuronales artificiales para la determinación de la gestión óptima de residuos sólidos urbanos: aplicación en las localidades de Suba y Engativá de la ciudad de Bogotá (Colombia)

Solano Meza, Johanna Karina 18 June 2021 (has links)
[ES] Dentro de las temáticas asociadas al campo de acción de la Ingeniería Ambiental se encuentra la referente a la gestión adecuada de los residuos sólidos que son generados por las comunidades. Los residuos sólidos urbanos (RSU) se han constituido en una de las problemáticas que debe ser atendida por los países de forma prioritaria, dadas las tendencias crecientes en su aumento y para los cuales se requiere la adopción de estrategias que permitan su aprovechamiento y disposición adecuada. Por tanto, las administraciones locales, regionales y nacionales deben tomar decisiones de forma eficiente para que se realice una gestión correcta de estos residuos que tenga presente las particularidades de su región. Dentro de estas particularidades se encuentra, entre otros elementos, la caracterización de la población, la cantidad de RSU generados, el clima, las mejores técnicas y tecnologías disponibles, las tendencias y políticas nacionales, la disponibilidad de recursos económicos, los planes de ordenamiento territorial, la legislación vigente y las características del servicio público de limpieza. Todos estos aspectos pueden influir dentro de la toma de decisiones para cada una de las etapas definidas dentro del proceso de gestión de este tipo de residuos. En este marco de trabajo, en esta investigación se presenta una metodología para la toma de decisiones relacionada con la gestión de residuos sólidos en grandes ciudades. La investigación se ha desarrollado tomando como referencia la ciudad de Bogotá (Colombia) y, particularmente, dos zonas de esta ciudad llamadas Engativá y Suba (denominadas "localidades" según la división administrativa de la ciudad). En estos emplazamientos se han desarrollado alternativas para la selección de estrategias que permitan la gestión de RSU más adecuada. La investigación se ha desarrollado en tres fases. En primera instancia, se han analiza-do las características de la generación de residuos en la ciudad mediante una ruta analítica que integra el análisis espacial junto con el tratamiento estadístico de datos, para evaluar y predecir su comportamiento en cada una de las zonas de Bogotá. En la segunda parte de la investigación, se realizó el análisis predictivo de la generación de estos residuos a través de tres herramientas de inteligencia artificial: árboles de decisión (Decision trees), redes neuronales artificiales (RNA) y máquinas de soporte vectorial (Support Vector Machines, MSV). Como etapa final, se realizó el planteamiento y desarrollo del modelo metodológico, incorporando tanto aspectos predictivos como variables económicas, y se analizó el comportamiento del modelo a través de redes neuronales artificiales de tipo Long Short Term Memory (LSTM), foco principal del presente trabajo. De igual forma, dentro de esta última fase se presenta también la revisión del comportamiento del modelo a través de la implementación de máquinas de soporte vectorial, como estrategia comparativa del rendimiento de las RNA frente a otros posibles modelos que pueden implementarse a este tipo de procesos. Como principal resultado obtenido de la investigación realizada, se concluye que las redes neuronales artificiales constituyen una alternativa viable para el planteamiento de modelos que incluyan todas las etapas de la gestión de los RSU de una ciudad. Por otra parte, se ha comprobado que el modelo diseñado se encuentra estructurado de forma que permite la modificación, inclusión, precisión y optimización de la informa-ción de forma permanente. Todo ello constituye una gran ventaja, ya que mejora de forma continua la eficiencia de la metodología propuesta. De este modo, la metodología propuesta puede ser aplicada en zonas determinadas de ciudades con características similares, en la medida que los países vayan estableciendo y fortaleciendo sus sistemas de información de forma confiable para así obtener datos más precisos, lo cual es un proc / [CA] Dins de les temàtiques associades al camp d'acció de l'Enginyeria Ambiental es troba la referent a la gestió adequada dels residus sòlids que són generats per les comunitats. Els residus sòlids urbans (RSU) s'han constituït en una de les problemàtiques que ha de ser atesa pels països de forma prioritària, donades les tendències creixents en el seu augment i per als quals es requereix l'adopció d'estratègies que permeten el seu aprofitament i disposició adequada . És així que les administracions locals, regionals i nacionals han de prendre decisions de manera eficient perqué es realitze una gestió correcta d'aquests residus tenint present les particularitats de la seva regió, dins de les que es poden trobar la caracterització de la població, la quantitat de RSU generats, el clima, les millors tècniques i tecnologies disponibles, les tendències i polítiques nacionals, la disponibilitat de recursos econòmics, els plans d'ordenament territorial, la legislació vigent, les característiques del servei públic de neteja, entre altres elements, els quals poden influir dins de la presa de decisions per a cadascuna de les etapes definides dins el procés de gestió d'aquest tipus de residus. És així com es presenta en aquesta investigació una metodologia per a la presa de decisions relacionada amb la gestió de residus sòlids en grans ciutats, prenent com a referència la ciutat de Bogotà (Colòmbia), i particularment dues zones d'aquesta ciutat anomenades Engativá i Suba (denominades "localitats" segons la divisió administrativa de la ciutat), com una alternativa per a la selecció de la millor estratègia que permeta l'adequada gestió de RSU d'aquesta regió. En primera instancia, s'analitza el comportament de la generació de residus de la ciutat a través d'una ruta analítica que integra l'anàlisi espacial juntament amb el tractament estadístic de dades, per avaluar i predir el comportament de la generació dels RSU a cadascuna de les zones de Bogotà. Com a segona part de la investigación, es va realitzar l'anàlisi predictiva de la generació d'aquests residus a través de tres eines d'intel·ligència artificial, per a això es va incorporar l'aplicació d'arbres de decisió (Deci-sion trees), xarxes neuronals artificials (RNA) i màquines de suport vectorial (Support Vector Machines, MSV). Com a principal resultat obtingut de la investigació realitzada, es conclou que les xarxes neuronals constitueixen una alternativa viable per al plantejament de models que incloguen totes les etapes de la gestió dels RSU d'una ciutat. D'altra banda, s'ha comprovat que el model dissenyat es troba estructurat de manera que permet la modificació, inclusió, precisió i optimització de la informació de forma permanent, la qual cosa constitueix en un avantatge, ja que permet de forma contínua millorar la eficiència de la metodologia proposada i aplicarla en una zona determinada d'una ciutat amb característiques similars en la mesura que els països van establint i enfortint els seus sistemes d'informació de forma fiable per així obtenir dades més precises, la qual cosa és un procés que Colòmbia té com a meta de curt termini. Com a etapa final, es va realitzar el plantejament del model metodològic incorporant aspectes predictius així com variables econòmiques, i es va analitzar el comportament d'aquest a través de xarxes neuronals artificials de tipus Long Short Term Memory (LSTM), focus principal del present treball. De la mateixa manera, dins d'aquesta última fase es presenta el mateix model, però en aquesta ocasió es va realitzar la revisió del seu comportament a través de la implementació de màquines de suport vectorial, com a estratègia comparativa del rendiment de les RNA enfront d'altres possibles models que poden implementarse a aquesta mena de processos. / [EN] Ensuring the proper management of solid waste generated by communities is included among the topics associated within the scope of environmental engineering. Municipal solid waste (MSW) has become one of the problems that countries must place a priority on addressing, given the trends of its increasing generation. Strategies must be adopted that facilitate MSW use and its proper disposal. Therefore, local, regional and national governments must make decisions in an efficient manner, taking into account the particularities of their region, in order to correctly manage this waste. These particularities include the characterization of their population, amount of MSW generated, climate, best available techniques and technologies, national guidelines and policies, availability of economic resources, land use plans, current legislation, characteristics of the public sanitation service, among other components. These factors can influence decision-making in each defined stage in the process of MSW management. Accordingly, this research study presents a methodology for decision-making regarding solid waste management in large cities. The city of Bogotá (Colombia) is used as a reference, specifically, two areas of the city named Engativá and Suba Bogotá (called "localities", which are based on the administrative division of the city). The goal of the methodology is to determine an alternative to select the best strategy to facilitate proper MSW management in the region. First, the behavior of waste generation in the city was analyzed through an analytical approach that integrates spatial analysis with statistical data processing to evaluate and forecast the behavior of MSW generation in each area of Bogotá. The second part of the study was a predictive analysis of MSW generation which employed the following three artificial intelligence tools: decision trees, artificial neural networks (ANN), and support-vector machines (MSV). Lastly, the methodological model was proposed, which incorporated predictive aspects as well as economic variables. The model was analyzed by Long Short-Term Memory (LSTM) artificial neuronal networks, the primary focus of this research. Similarly, within this last phase, the same model is presented, but a review of its behavior was conducted by implementing support-vector machines, as a comparative strategy of ANN performance with respect to other possible models that can be implemented in these types of processes. The primary conclusion of this research is that neural networks are a viable alternative to develop models that include all stages of MSW management in a city. While these mathematical models require a large amount of data to minimize the results' margin of error, with the data obtained for the modelling the ANNs were properly adapted and showed satisfactory performance according to the proposed methodology. Moreover, the study demonstrated that the designed model is structured in such a manner that it allows for continuous modification, inclusion, precision and optimization of the information. This is an advantage as it enables the proposed methodology's efficiency to be improved on an ongoing basis, in order for it to be applied to a specific area in a city with similar characteristics. The above is dependent on countries establishing and strengthening their information systems in a reliable manner, in order to obtain more precise data, which is a short-term goal for Colombia. / Solano Meza, JK. (2021). Propuesta metodológica basada en redes neuronales artificiales para la determinación de la gestión óptima de residuos sólidos urbanos: aplicación en las localidades de Suba y Engativá de la ciudad de Bogotá (Colombia) [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/168119 / TESIS
269

Bio-Inspired Algorithms and Artificial Neural Networks Applied to Smart Load Management Systems to Optimize Energy Usage

Chiñas Palacios, Cristian Daniel 25 March 2024 (has links)
Tesis por compendio / [ES] La energía, la comunicación y la informática son componentes fundamentales de la sociedad moderna, ya que sientan las bases para el desarrollo tecnológico y el crecimiento económico. La estrecha interrelación entre estos pilares se ha hecho cada vez más evidente en los últimos años, a medida que los avances en computación y análisis de datos han permitido nuevos enfoques de gestión y sostenibilidad de la energía. En este contexto, el uso eficiente de la energía se ha convertido en un objetivo clave para los investigadores, los responsables políticos y las empresas por igual. Al aprovechar el poder de las técnicas informáticas y de aprendizaje automático (ML), es posible destacar los desafíos de asegurar los sistemas de energía y optimizar el uso de la energía, lo que lleva a la necesidad de técnicas avanzadas como algoritmos bio-inspirados y redes neuronales. Esta tesis doctoral tiene como objetivo analizar los programas y estrategias de gestión de la carga, el consumo y la demanda en el panorama energético actual. El núcleo central presenta un estudio exhaustivo sobre la integración de algoritmos bio-inspirados, como la optimización de enjambres de partículas (PSO) y los modelos de redes neuronales artificiales (ANN) en los sistemas de gestión de la carga para hacer frente a los retos de la gestión de la carga y utilizar la energía de forma eficiente y segura. El cuerpo principal de esta tesis comprende tres publicaciones científicas, cada una de las cuales corresponde a una etapa distinta dentro del marco general de investigación de este estudio: la primera etapa propone un sistema de monitorización de bajo coste para aplicaciones energéticas que introduce un sistema SCADA basado en web rentable que era un del 80% más barato que una solución similar. La arquitectura de bajo coste propuesta, diseñada para bancos de pruebas de microrredes, ofrece monitorización en tiempo real, accesibilidad remota y control fácil de usar para aplicaciones académicas y de investigación. La segunda etapa combina la optimización híbrida de enjambre de partículas (PSO) en cascada con redes neuronales feed-forward para pronosticar y optimizar con precisión la demanda de energía en una microrred en AC, mejorando la integración de fuentes de energía renovables como gasificación de biomasa. Los resultados muestran que el modelo PSO-ANN propuesto tiene un rendimiento un 23,2% mejor en términos de MSE que los modelos de RNA de retropropagación feed-forward (FF-BP) y propagación directa en cascada (CF-P). La tercera y última etapa se centró en un sistema inteligente de gestión de la carga reforzado con criptografía híbrida para garantizar la comunicación protegida y la privacidad de los datos, abordando así de manera efectiva los desafíos de seguridad energética en entornos residenciales. Los resultados mostraron que el modelo propuesto de Gestión de Carga aplicado a Sistemas Residenciales de Seguridad (SRS-LM) fue un 37% mejor en rendimiento (costo de energía, utilización de energía, tiempo computacional) y con una reducción de carga máxima del 60% en comparación con un modelo de Medidor de Energía Inteligente Universal (USEM). / [CA] L'energia, la comunicació i la informàtica són components fonamentals de la societat moderna, ja que establixen les bases per al desenvolupament tecnològic i el creixement econòmic. L'estreta interrelació entre estos pilars s'ha fet cada vegada més evident en els últims anys, a mesura que els avanços en computació i anàlisi de dades han permés nous enfocaments de gestió i sostenibilitat de l'energia. En este context, l'ús eficient de l'energia s'ha convertit en un objectiu clau per als investigadors, els responsables polítics i les empreses per igual. En aprofitar el poder de les tècniques informàtiques i d'aprenentatge automàtic (ML), és possible destacar els desafiaments d'assegurar els sistemes d'energia i optimitzar l'ús de l'energia, la qual cosa porta a la necessitat de tècniques avançades com a algorismes bio-inspirats i xarxes neuronals. Esta tesi doctoral té com a objectiu analitzar els programes i estratègies de gestió de la càrrega, el consum i la demanda en el panorama energètic actual. El nucli central presenta un estudi exhaustiu sobre la integració d'algorismes bio-inspirats, com l'optimització d'eixams de partícules (PSO) i els models de xarxes neuronals artificials (ANN) en els sistemes de gestió de la càrrega per a fer front als reptes de la gestió de la càrrega i utilitzar l'energia de manera eficient i segura. El cos principal d'esta tesi comprén tres publicacions científiques, cadascuna de les quals correspon a una etapa diferent dins del marc general d'investigació d'este estudi: la primera etapa proposa un sistema de monitoratge de baix cost per a aplicacions energètiques que introduïx un sistema SCADA basat en web rendible que era un del 80% més barat que una solució similar. L'arquitectura de baix cost proposada, dissenyada per a bancs de proves de microxarxes, oferix monitoratge en temps real, accessibilitat remota i control fàcil d'usar per a aplicacions acadèmiques i d'investigació. La segona etapa combina l'optimització híbrida d'eixam de partícules (PSO) en cascada amb xarxes neuronals feed-forward per a pronosticar i optimitzar amb precisió la demanda d'energia en una microxarxa en AC, millorant la integració de fonts d'energia renovables com a gasificació de biomassa. Els resultats mostren que el model PSO-ANN proposat té un rendiment un 23,2% millor en termes de MSE que els models d'RNA de retropropagació feed-forward (FF-BP) i propagació directa en cascada (CF-P). La tercera i última etapa es va centrar en un sistema intel·ligent de gestió de la càrrega reforçat amb criptografia híbrida per a garantir la comunicació protegida i la privacitat de les dades, abordant així de manera efectiva els desafiaments de seguretat energètica en entorns residencials. Els resultats van mostrar que el model proposat de Gestió de Càrrega aplicat a Sistemes Residencials de Seguretat (SRS-LM) va ser un 37% millor en rendiment (cost d'energia, utilització d'energia, temps computacional) i amb una reducció de càrrega màxima del 60% en comparació amb un model de Mesurador d'Energia Intel·ligent Universal (USEM). / [EN] Energy, communication, and computing are critical components of modern society, providing the foundation for technological development and economic growth. The close interrelation between these pillars has become increasingly apparent in recent years, as computing and data analysis advances have enabled new energy management and sustainability approaches. In this context, efficient energy usage has become a key focus for researchers, policymakers, and businesses alike. By harnessing the power of computing and machine learning (ML) techniques, it is possible to highlight the challenges of securing energy systems and optimizing energy usage, leading to the need for advanced techniques such as bio-inspired algorithms and neural networks. This doctoral thesis aims to analyse load consumption and demand management programs and strategies in the current energy landscape. The central core presents an study on integrating bio-inspired algorithms, such as particle swarm optimization (PSO) and artificial neural networks (ANN) models in load management systems to meet load management challenges and use energy efficiently and securely. The main body of this thesis comprises three scientific publications, each corresponding to a distinct stage within the overarching research framework of this study: the first stage covers the proposal of a low-cost architecture in energy systems introducing a cost-effective web-based SCADA system that was over 80% cheaper than a similar solution. The proposed low-cost architecture, tailored for microgrid testbeds, offers real-time monitoring, remote accessibility, and user-friendly control for academic and research applications. The second stage combined a cascade hybrid Particle Swarm Optimization (PSO) with feed-forward neural networks to accurately forecast and optimize energy demand in an AC microgrid, notably enhancing the integration of renewable energy sources like biomass gasification. The results showed that the proposed PSO-ANN model performs 23.2% better in terms of MSE than Feedforward Backpropagation (FF-BP) and Cascade forward propagation (CF-P) ANN models. The third and final stage focused on a smart load management system fortified with hybrid cryptography to ensure protected communication and data privacy, thereby effectively addressing energy security challenges in residential settings. Results showed that the proposed Security Residential System Load Management (SRS-LM) model was 37% better in performance (power cost, power utilization, computational time) and with a 60% peak load reduction compared to a Universal Smart Energy Meter (USEM) model. / Chiñas Palacios, CD. (2024). Bio-Inspired Algorithms and Artificial Neural Networks Applied to Smart Load Management Systems to Optimize Energy Usage [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203128 / Compendio
270

Desarrollo de procedimientos de valoración funcional mediante sensores portables. Estudios de aplicación en enfermedades neurodegenerativas: Parkinson y Alzheimer.

Pedrero Sánchez, José Francisco 23 January 2024 (has links)
[ES] La valoración funcional es fundamental en la evaluación y seguimiento de patologías musculoesqueléticas y neurológicas, ya que permite conocer, entre otras cosas, la forma de caminar de una persona, su equilibrio y su fuerza muscular; esto facilita la prescripción de tratamientos rehabilitadores o intervenciones quirúrgicas. En el caso de las personas mayores, esta evaluación adquiere mayor importancia, ya que la Organización Mundial de la Salud (OMS) considera que la salud en las personas mayores se mide en términos de función; es parte fundamental de una valoración geriátrica integral y permite evaluar la fragilidad de las personas mayores mediante la capacidad para realizar actividades diarias. Mediante una evaluación funcional temprana y continua se puede promover un envejecimiento saludable, prevenir y diagnosticar de forma precoz posibles declives en la función, mejorando así la calidad de vida y manteniendo la independencia de las personas mayores durante el mayor tiempo posible. En la presente tesis doctoral se presenta el desarrollo de una metodología instrumentada de valoración funcional para las personas mayores. Una herramienta ágil y portable que, lejos de ser una metodología diagnóstica, puede servir de soporte para la toma de decisiones clínicas ante múltiples patologías del sistema locomotor y que permite clasificar y predecir en base a la funcionalidad del sistema musculoesquelético, el grado de alteración. Se ha llevado a cabo una serie de estudios con diferentes grupos de personas mayores: con enfermedad de Alzheimer, Parkinson y personas mayores frágiles con riesgo de sufrir una caída. El objetivo principal de los diferentes estudios era objetivar y determinar la capacidad de realizar algunas de las actividades funcionales básicas, como el equilibrio, la marcha, el giro para sentarse y levantarse de una silla en comparación con personas sanas de la misma edad; el objetivo secundario era estudiar la fiabilidad del procedimiento en estas poblaciones, así como generar una serie de modelos matemáticos basados tanto en estadística tradicional como en redes neuronales combinando diferentes tipologías de datos. Los aspectos más destacables de esta metodología son, por una parte, la inclusión de la valoración de actividades de la vida diaria con la duración reducida de la prueba, que es inferior a 2 minutos, lo que la hace más práctica y viable en el ámbito clínico y, en segundo lugar, que se trata de una instrumentación sencilla que consta de un único sensor embebido en un smartphone, que es capaz de gestionar todo el proceso de registro y realizar los cálculos necesarios para analizar las medidas obtenidas. Con todo ello se pone de manifiesto la utilidad del procedimiento y la viabilidad de los modelos desarrollados para la valoración funcional de personas mayores en un entorno clínico. / [CA] La valoració funcional és fonamental en l'avaluació i seguiment de patologies musculoesquelètiques i neurològiques, ja que permet conéixer, entre altres coses, la forma de caminar d'una persona, el seu equilibri i la seua força muscular; això facilita la prescripció de tractaments rehabilitadors o intervencions quirúrgiques. En el cas de les persones majors, aquesta avaluació adquireix major importància, ja que l'Organització Mundial de la Salut (OMS) considera que la salut en les persones majors es mesura en termes de funció; és part fonamental d'una valoració geriàtrica integral i permet avaluar la fragilitat de les persones majors mitjançant la capacitat per realitzar activitats diàries. Mitjançant una avaluació funcional precoç i contínua es pot promoure un envelliment saludable, prevenir i diagnosticar de forma precoç possibles deterioraments en la funció, millorant així la qualitat de vida i mantenint la independència de les persones majors durant el major temps possible. En la present tesi doctoral es presenta el desenvolupament d'una metodologia instrumentada de valoració funcional per a les persones majors, eina àgil i portàtil que, lluny de ser una metodologia diagnòstica, pot servir de suport per a la presa de decisions clíniques davant múltiples patologies del sistema locomotor i que permet classificar i predir en base a la funcionalitat del sistema musculoesquelètic, el grau d'alteració. S'han dut a terme una sèrie d'estudis amb diferents grups de persones majors: amb malaltia d'Alzheimer, Parkinson i persones majors fràgils amb risc de patir una caiguda. L'objectiu principal dels diferents estudis era objectivar i determinar la capacitat per a realitzar algunes de les activitats funcionals bàsiques, com l'equilibri, la marxa, el gir per seure i aixecar-se d'una cadira en comparació amb persones sanes de la mateixa edat; l'objectiu secundari era estudiar la fiabilitat del procediment en aquestes poblacions, així com generar una sèrie de models matemàtics basats tant en estadística tradicional com en xarxes neuronals, combinant diferents tipologies de dades. Els aspectes més destacables d'aquesta metodologia són, d'una banda, la inclusió de la valoració d'activitats de la vida quotidiana amb la duració reduïda de la prova, que és inferior a 2 minuts, la qual cosa la fa més pràctica i viable en l'àmbit clínic i, en segon lloc, que es tracta d'una instrumentació senzilla que consta d'un únic sensor embegut en un \textit{smartphone}, que és capaç de gestionar tot el procés de registre i realitzar els càlculs necessaris per analitzar les mesures obtingudes. Amb tot això es posa de manifest la utilitat del procediment i la viabilitat dels models desenvolupats per a la valoració funcional de persones majors en un entorn clínic. / [EN] Functional assessment is fundamental in the evaluation and monitoring of musculoskeletal and neurological pathologies, as it allows understanding a person's gait, balance, and muscular strength. This facilitates the prescription of rehabilitative treatments or surgical interventions. In the case of older adults, this assessment becomes even more important, as the World Health Organization (WHO) considers that health in older individuals is measured in terms of function, which is a fundamental part of a comprehensive geriatric assessment and allows evaluating frailty in older adults based on their ability to perform daily activities. Through early and continuous functional assessment, healthy aging can be promoted, and possible declines in function can be prevented and diagnosed early, thus improving quality of life and maintaining independence in older adults for as long as possible. This doctoral thesis presents the development of an instrumented methodology for functional assessment in older adults, which is an agile and portable tool that, far from being a diagnostic methodology, can support clinical decision-making regarding multiple pathologies of the musculoskeletal system. It enables classification and prediction of the degree of impairment based on the functionality of the musculoskeletal system. A series of studies have been conducted involving different groups of older adults: those with Alzheimer's disease, Parkinson's disease, and frail older adults at risk of falling. The main objective of these studies was to objectively determine the ability to perform functional activities such as balance, gait, turning to sit and stand from a chair, in comparison with healthy individuals of the same age. The secondary objective was to study the reliability of the procedure in these populations and to generate a series of mathematical models based on both traditional statistical methods and neural networks, combining different types of data. The most notable aspects of this methodology are, firstly, the inclusion of assessment of activities of daily living within a shortened testing duration of less than 2 minutes, making it more practical and feasible in a clinical setting. Secondly, it involves a simple instrumentation consisting of a single sensor embedded in a smartphone, capable of managing the entire registration process and performing the necessary calculations to analyze the obtained measurements. All of this highlights the usefulness of the procedure and the feasibility of the developed models for functional assessment of older adults in a clinical environment. / El proyecto ha sido coordinado por el Instituto de Biomecánica de Valencia y financiado por el IVACE en el marco del programa de ayudas dirigidas a centros tecnológicos para el ejercicio 2016, cofinanciado por el Fondo Europeo de Desarrollo Regional (FEDER) en un porcentaje del 50% a través del Programa Operativo FEDER de la Comunitat Valenciana 2014-2020. Ref: IMDECA/2016/16 / Pedrero Sánchez, JF. (2023). Desarrollo de procedimientos de valoración funcional mediante sensores portables. Estudios de aplicación en enfermedades neurodegenerativas: Parkinson y Alzheimer [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202450

Page generated in 0.1265 seconds