• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 19
  • Tagged with
  • 44
  • 44
  • 26
  • 26
  • 18
  • 17
  • 16
  • 15
  • 15
  • 12
  • 12
  • 12
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Autonomous control of a mobile robot with incremental deep learning neural networks

Glöde, Isabella 29 March 2021 (has links)
Over the last few years autonomous driving had an increasingly strong impact on the automotive industry. This created an increased need for artificial intelligence algo- rithms which allow for computers to make human-like decisions. However, a compro- mise between the computational power drawn by these algorithms and their subsequent performance must be found to fulfil production requirements. In this thesis incremental deep learning strategies are used for the control of a mobile robot such as a four wheel steering vehicle. This strategy is similar to the human approach of learning. In many small steps the vehicle learns to achieve a specific goal. The usage of incremental training leads to growing knowledge-base within the system. It also provides the opportunity to use older training achievements to improve the system, when more training data is available. To demonstrate the capabilities of such an algorithm, two different models have been formulated. First, a more simple model with counter wheel steering, and second, a more complex, nonlinear model with independent steering. These two models are trained incrementally to follow different types of trajectories. Therefore an algorithm was established to generate useful initial points. The incremental steps allow the robot to be positioned further and further away from the desired trajectory in the environ- ment. Afterwards, the effects of different trajectory types on model behaviour are investigated by over one thousand simulation runs. To do this, path planning for straight lines and circles are introduced. This work demonstrates that even simulations with simple network structures can have high performance. / Tesis
12

Estrategias de aprendizaje profundo aplicadas al descubrimiento de fármacos : representación molecular, modelado de bioactividad y analítica visual para cribado virtual

Sabando, Vir January 2024 (has links)
El desarrollo de nuevos fármacos constituye un área de investigación fundamental en la medicina moderna. Más allá de los vertiginosos avances científicos en informática molecular y bioquímica que abonan a su mejora continua, la inversión en tiempo y recursos es sumamente elevada, en contraste a su exigua tasa de éxito. Las estrategias computacionales juegan un rol clave en la optimización y eficiencia de las múltiples tareas involucradas en el desarrollo de medicamentos, que abarcan desde la representación molecular y el modelado predictivo de bioactividad hasta el cribado virtual de fármacos y el diseño de nuevas estructuras químicas. El objetivo de esta tesis se centró en el desarrollo y aplicación de estrategias computacionales novedosas basadas en aprendizaje profundo para contribuir a la optimización de las diversas etapas del descubrimiento de nuevos medicamentos. Las contribuciones de la presente tesis parten de un análisis crítico y permanente del estado del arte en informática molecular e involucran el diseño de nuevas estrategias aplicando conceptos y desarrollos de vanguardia en aprendizaje profundo. Como resultado de este trabajo, se lograron propuestas novedosas alineadas en tres ejes fundamentales del proceso de desarrollo de fármacos: representaciones moleculares, modelado predictivo de bioactividad, y analítica visual aplicada a cribado virtual de fármacos. En materia de modelado predictivo de bioactividad, desarrollamos enfoques de modelado QSAR capaces de alcanzar rendimientos predictivos superiores a los previamente reportados para un gran número de propiedades de relevancia en el área, sin necesidad de realizar selección de características. Propusimos un enfoque de definición del dominio de aplicabilidad químico para dichos modelos eficaz en la determinación del rango de confiabilidad de las predicciones, y desarrollamos una estrategia para brindar interpretabilidad a modelos QSAR basados en redes neuronales. Además, experimentamos con aprendizaje profundo multi-tarea, logrando un enfoque pionero para el modelado de mutagenicidad de Ames, que permite el aprendizaje conjunto de información de diferentes blancos farmacológicos, superando en rendimiento a los resultados previamente publicados. En el área de representación molecular, desarrollamos un riguroso trabajo de investigación y análisis comparativo de diversas estrategias de representación molecular tradicionales y basadas en aprendizaje profundo. Propusimos un diseño experimental para la comparación y evaluación del desempeño de dichas representaciones en modelado QSAR, cuyos resultados evidenciaron la importancia de la selección cuidadosa de la representación elegida y proporcionan un marco de referencia para posteriores estudios similares. Por último, presentamos una herramienta integral de analítica visual para cribado virtual que integra diferentes fuentes de información química y representaciones moleculares complementarias. Esta herramienta interactiva demostró ser eficaz en la asistencia a expertxs de química medicinal para la exploración visual de patrones de similitud estructural en grandes conjuntos de datos químicos y para el diseño de nuevos compuestos candidatos. / The development of new drugs constitutes a fundamental research area in modern medicine. Beyond the rapid scientific advances in molecular informatics and biochemistry, which contribute to its continuous improvement, the investment in time and resources is extremely high, in contrast to its limited success rate. Computational strategies play a key role in optimizing and streamlining the multiple tasks involved in drug development, ranging from molecular representation and predictive modeling of bioactivity profiles, to virtual drug screening and the design of novel chemical structures. The goal of this thesis focused on the development and application of novel computational strategies based on deep learning to contribute to the optimization of the many stages involved in the drug discovery process. The contributions of this thesis stem from a critical and ongoing analysis of the state of the art in molecular informatics and involve the design of new strategies by applying recent concepts and developments in deep learning. As a result of this work, we achieved a series of innovative proposals which align to three fundamental cornerstones of the drug development process: molecular representation, predictive modeling of bioactivity profiles, and visual analytics applied to virtual drug screening. In the field of predictive bioactivity modeling, we developed QSAR modeling approaches that achieved higher predictive performances than those previously reported for numerous relevant biochemical properties, while at the same time overcoming the need for a feature selection step. We proposed an approach to define the chemical applicability domain for these models, effectively determining the reliability range of predictions, and developed a strategy to provide interpretability to QSAR models based on neural networks. Additionally, we experimented with multi-task deep learning, achieving a pioneering approach for modeling Ames mutagenicity that allows the joint learning of information from different pharmacological targets, which outperformed previously published results. In the field of molecular representation, we conducted a rigorous research and comparative analysis of various traditional and deep learning-based molecular representation strategies. We proposed an experimental design for the comparison and evaluation of the performance of these representations in QSAR modeling, and the results highlighted the importance of carefully selecting the molecular representation for each task, while also providing a reference framework for subsequent similar studies. Finally, we introduced a comprehensive visual analytics tool for virtual screening that integrates different sources of chemical information and complementary molecular representations. This interactive tool proved to be effective in assisting medicinal chemistry experts in visually exploring structural similarity patterns in large chemical datasets and in the design of new candidate compounds.
13

Predicción temporal de calidad del aire en Lima a partir de datos de estaciones de bajo costo y Aprendizaje Automático: una revisión de literatura

Paredes Salazar, Diego José 23 August 2021 (has links)
El presente trabajo explora los estudios en los cuales se utilizan técnicas de aprendizaje profundo para realizar predicción temporal de calidad del aire, de manera que se pueda comprender que características tendrían los modelos de aprendizaje profundo que tienen un mejor rendimiento con para realizar esta tarea y puedan utilizarse como línea base para desarrollar modelos similares en el contexto de la ciudad de lima. Esta revisión de literatura se realiza con el objetivo de poder obtener los modelos de aprendizaje profundo que estén teniendo un mejor rendimiento en la actualidad al predecir temporalmente la calidad del aire mediante un procedimiento que garantice objetividad y reproducción de resultados. Para ello, se realiza una revisión sistemática de literatura que garantiza el uso de procedimientos estructurados y definidos para conocer las preguntas de investigación que guían la exploración de los estudios de predicción temporal de calidad del aire, los motores de búsqueda considerados para la revisión y las cadenas de búsqueda asociadas tanto a las preguntas de investigación como los motores de búsqueda, de manera que estas se puedan ejecutar y reproducir la obtención de estudios. Las respuestas se reportan en un formulario de extracción con datos relacionados a las arquitecturas de aprendizaje profundo, limitaciones de los modelos empleados y el rendimiento obtenido por cada modelo en cada estudio. Al finalizar el estudio, se concluye que se puede desarrollar un modelo basado en una arquitectura adecuada de aprendizaje profundo para poder atacar el problema de la predicción inadecuada de calidad del aire en Lima al percatar su efectividad reportada en la literatura para otras localidades en el mundo, considerando que dichos modelos deben tomarse únicamente como una línea base y que deben ajustarse a la localidad de Lima para obtener predicciones adecuadas a su entorno.
14

Propuesta de un modelo de predicción de cáncer de mama utilizando deep learning

Páez Cumpa, Jorge Antonio, Palomino Delgado, Henry Edward, Rosado Farfán, Christian Paul, Salazar Huamanjulca, Elmer Ronald 03 November 2023 (has links)
En la presente tesis, queremos demostrar y proponer como la tecnología puede ser utilizada por los genetistas y especialistas en oncología como una herramienta para agilizar la detección de cáncer de mama, siendo este el más común en Perú. El diagnóstico temprano es un mecanismo efectivo que ayuda a la reducción de la mortalidad en este tipo de cáncer de tal manera que se pueda seguir un tratamiento adecuado. Actualmente una forma de detectarlo es a través de una prueba genética para identificar mutaciones en los genes BRCA 1 y BRCA 2, sin embargo, este camino contiene pruebas que son difíciles, costosas y lentas, que a su vez requieren una carga de trabajo excesiva por parte de un biólogo o genetista. por tal motivo se tiene como objetivo combinar los factores de riesgo asociados con el cáncer de mamá, incluidas las variaciones genéticas para diseñar un modelo predictivo basados en la inteligencia artificial para determinar si el tumor asociado al cáncer es benigno o maligno. El modelo se diseñó utilizando un algoritmo de redes neuronales logrando obtener un rendimiento de 92% precisión con datos de prueba en tan solo unos minutos. Esta propuesta de modelo de predicción es única en el Perú y puede ser ofrecida por una Gerencia de TI dentro de una organización del sector salud para que posteriormente pueda ser implementada y desplegada por un equipo de científicos de datos. / In the present thesis, we are looking for a demonstration and proposal how the technology can be so useful for the genetic and oncology Scientifics as a tool for quick detection of the breast cancer, which ones is the most common in Peru. Early diagnosis is the most effective way for a treatment to help people to prevent the mortality in this kind of cancer. At this moment, the best way for an early detection is a genetical test to look for mutations in BRCA 1 and BRCA 2 gen, however this way is so hard, because this requires a lot of difficult, expensive, and slowly tests remark a lot of work of the genetic and oncology Scientifics. That is the reason our thesis has as the principal goal to combine all the risk factors associated with breast cancer, including genetical mutations, for generate a predictive model based in artificial intelligence for determinate if a kind of tumor is associated with benign or pathogenic. This designed model has a 92% of precision with open-source test data in a few minutes. This predictive model is unique in Peru and can be offered by an IT Management within a health sector organization so that it can later be implemented and deployed by a team of data scientists.
15

Predicción de un tiro penal de fútbol basado en la estimación de postura del jugador

Mauricio Salazar, Josue Angel 24 June 2024 (has links)
En este artículo se presenta una metodología innovadora para predecir un tiro penal en fútbol basado en la estimación de postura del jugador que ejecuta el disparo haciendo uso de dos herramientas de visión computacional como segmentación semántica en videos y la estimación de postura 3D mediante los métodos TAM y MMPose, respectivamente. Para ello, se construyó un corpus de videos de tiros penales y se han entrenado modelos de aprendizaje profundo para predecir la región del arco a la cual llegará el disparo. Los resultados muestran que el modelo llamado CNN 3D logra una mejor precisión con respecto a los otros modelos entrenados. Además, se ha medido la influencia de distintas partes del cuerpo con respecto a la tarea de predicción, mostrando que las piernas son las partes más influyentes. Por último, implementamos una herramienta web para el entrenamiento de porteros y jugadores de fútbol en tiros penales, ofreciendo de esta manera posibles mejoras en las tácticas de un disparo de tiro penal mediante el uso de la visión computacional. / This paper presents an innovative methodology for predicting a penalty kick in football based on the kicker’s pose estimation using two computer vision tools, such as semantic segmentation in videos and 3D pose estimation using the TAM and MMPose methods, respectively. For this purpose, a corpus of penalty kick videos was built and deep learning models were trained to predict the region of the goal where the kick should arrive. The results show that the CNN 3D model achieves better accuracy than the other trained models. Furthermore, the influence of different body parts on the prediction task was measured, showing that the legs are the most influential parts. Finally, we implemented a web-based tool to train goalkeepers and footballers in penalty kicks. This offers potential improvements in penalty kick tactics using computer vision.
16

Learning from limited labelled data: contributions to weak, few-shot, and unsupervised learning

Silva Rodríguez, Julio José 12 December 2022 (has links)
Tesis por compendio / [ES] En la última década, el aprendizaje profundo (DL) se ha convertido en la principal herramienta para las tareas de visión por ordenador (CV). Bajo el paradigma de aprendizaje supervisado, y gracias a la recopilación de grandes conjuntos de datos, el DL ha alcanzado resultados impresionantes utilizando redes neuronales convolucionales (CNNs). Sin embargo, el rendimiento de las CNNs disminuye cuando no se dispone de suficientes datos, lo cual dificulta su uso en aplicaciones de CV en las que sólo se dispone de unas pocas muestras de entrenamiento, o cuando el etiquetado de imágenes es una tarea costosa. Estos escenarios motivan la investigación de estrategias de aprendizaje menos supervisadas. En esta tesis, hemos explorado diferentes paradigmas de aprendizaje menos supervisados. Concretamente, proponemos novedosas estrategias de aprendizaje autosupervisado en la clasificación débilmente supervisada de imágenes histológicas gigapixel. Por otro lado, estudiamos el uso del aprendizaje por contraste en escenarios de aprendizaje de pocos disparos para la vigilancia automática de cruces de ferrocarril. Por último, se estudia la localización de lesiones cerebrales en el contexto de la segmentación no supervisada de anomalías. Asimismo, prestamos especial atención a la incorporación de conocimiento previo durante el entrenamiento que pueda mejorar los resultados en escenarios menos supervisados. En particular, introducimos proporciones de clase en el aprendizaje débilmente supervisado en forma de restricciones de desigualdad. Además, se incorpora la homogeneización de la atención para la localización de anomalías mediante términos de regularización de tamaño y entropía. A lo largo de esta tesis se presentan diferentes métodos menos supervisados de DL para CV, con aportaciones sustanciales que promueven el uso de DL en escenarios con datos limitados. Los resultados obtenidos son prometedores y proporcionan a los investigadores nuevas herramientas que podrían evitar la anotación de cantidades masivas de datos de forma totalmente supervisada. / [CA] En l'última dècada, l'aprenentatge profund (DL) s'ha convertit en la principal eina per a les tasques de visió per ordinador (CV). Sota el paradigma d'aprenentatge supervisat, i gràcies a la recopilació de grans conjunts de dades, el DL ha aconseguit resultats impressionants utilitzant xarxes neuronals convolucionals (CNNs). No obstant això, el rendiment de les CNNs disminueix quan no es disposa de suficients dades, la qual cosa dificulta el seu ús en aplicacions de CV en les quals només es disposa d'unes poques mostres d'entrenament, o quan l'etiquetatge d'imatges és una tasca costosa. Aquests escenaris motiven la investigació d'estratègies d'aprenentatge menys supervisades. En aquesta tesi, hem explorat diferents paradigmes d'aprenentatge menys supervisats. Concretament, proposem noves estratègies d'aprenentatge autosupervisat en la classificació feblement supervisada d'imatges histològiques gigapixel. D'altra banda, estudiem l'ús de l'aprenentatge per contrast en escenaris d'aprenentatge de pocs trets per a la vigilància automàtica d'encreuaments de ferrocarril. Finalment, s'estudia la localització de lesions cerebrals en el context de la segmentació no supervisada d'anomalies. Així mateix, prestem especial atenció a la incorporació de coneixement previ durant l'entrenament que puga millorar els resultats en escenaris menys supervisats. En particular, introduïm proporcions de classe en l'aprenentatge feblement supervisat en forma de restriccions de desigualtat. A més, s'incorpora l'homogeneïtzació de l'atenció per a la localització d'anomalies mitjançant termes de regularització de grandària i entropia. Al llarg d'aquesta tesi es presenten diferents mètodes menys supervisats de DL per a CV, amb aportacions substancials que promouen l'ús de DL en escenaris amb dades limitades. Els resultats obtinguts són prometedors i proporcionen als investigadors noves eines que podrien evitar l'anotació de quantitats massives de dades de forma totalment supervisada. / [EN] In the last decade, deep learning (DL) has become the main tool for computer vision (CV) tasks. Under the standard supervised learnng paradigm, and thanks to the progressive collection of large datasets, DL has reached impressive results on different CV applications using convolutional neural networks (CNNs). Nevertheless, CNNs performance drops when sufficient data is unavailable, which creates challenging scenarios in CV applications where only few training samples are available, or when labeling images is a costly task, that require expert knowledge. Those scenarios motivate the research of not-so-supervised learning strategies to develop DL solutions on CV. In this thesis, we have explored different less-supervised learning paradigms on different applications. Concretely, we first propose novel self-supervised learning strategies on weakly supervised classification of gigapixel histology images. Then, we study the use of contrastive learning on few-shot learning scenarios for automatic railway crossing surveying. Finally, brain lesion segmentation is studied in the context of unsupervised anomaly segmentation, using only healthy samples during training. Along this thesis, we pay special attention to the incorporation of tasks-specific prior knowledge during model training, which may be easily obtained, but which can substantially improve the results in less-supervised scenarios. In particular, we introduce relative class proportions in weakly supervised learning in the form of inequality constraints. Also, attention homogenization in VAEs for anomaly localization is incorporated using size and entropy regularization terms, to make the CNN to focus on all patterns for normal samples. The different methods are compared, when possible, with their supervised counterparts. In short, different not-so-supervised DL methods for CV are presented along this thesis, with substantial contributions that promote the use of DL in data-limited scenarios. The obtained results are promising, and provide researchers with new tools that could avoid annotating massive amounts of data in a fully supervised manner. / The work of Julio Silva Rodríguez to carry out this research and to elaborate this dissertation has been supported by the Spanish Government under the FPI Grant PRE2018-083443. / Silva Rodríguez, JJ. (2022). Learning from limited labelled data: contributions to weak, few-shot, and unsupervised learning [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/190633 / Compendio
17

Arquitectura de análisis de datos generados por el internet de las cosas IoT en tiempo real.

Sarabia Jácome, David Fernando 02 September 2020 (has links)
[ES] El Internet de las cosas (IoT, del inglés, \textit{Internet of Things}) está revolucionando la manera en que percibimos todo lo que nos rodea. La gran cantidad de objetos conectados a Internet diariamente revela el grado de aceptación de las tecnologías habilitadoras de IoT en los diferentes entornos de aplicación. De la misma manera, el gran volumen de datos generado por estos objetos, conocidos como dispositivos IoT, está llegando a valores inimaginables. Como resultado, las metodologías y técnicas tradicionales presentan limitaciones para la gestión de los datos recolectados por los dispositivos IoT. Este problema es conocido como Big Data y ha sido analizado en las dos últimas décadas en otro tipo de ámbitos (buscadores de páginas web, redes sociales, entre otros.). Sin embargo, la falta de conocimientos y estrategias claras para integrar las metodologías, técnicas y soluciones de Big Data con entornos de IoT está afectando directamente a los potenciales beneficios de IoT. La gestión del Big Data es uno de los desafíos que afrontan actualmente los entornos de IoT. La presente tesis doctoral especifica una arquitectura para la gestión del Big Data generado por entornos IoT. La arquitectura fue diseñada utilizando los requerimientos planteados en las recomendaciones de la Unión Internacional de Telecomunicaciones (ITU-T) y el Instituto Nacional de Estándares y Tecnologías (NIST) para la implementación de ecosistemas IoT y la interoperabilidad de \textit{frameworks} de Big Data, respectivamente. De esta manera, la arquitectura es lo suficientemente genérica para adaptarse a cualquier entorno IoT. La arquitectura Big Data es capaz de recopilar datos de dispositivos IoT, \textit{gateways} IoT, plataformas IoT y espacios de datos virtuales en entornos industriales. Además, la arquitectura brinda el soporte para la generación de servicios innovadores basados en las tendencias actuales en el área de la Inteligencia Artificial. Finalmente, la arquitectura aprovecha los recientes avances en la tecnología de \textit{fog computing} y los modelos de servicios de \textit{cloud computing} para implementar sus funcionalidades. La arquitectura presentada ha sido aplicada en tres casos de uso derivados de los proyectos Europeos ACTIVAGE y PixelPort financiados por la Unión Europea. El primero de ellos tiene el objetivo de monitorizar, controlar y guiar durante el tratamiento de la apnea del sueño en adultos mayores. El segundo persigue la detección temprana de caídas en adultos mayores basado en algoritmos de Inteligencia Artificial. Y el último tiene el objetivo de explotar el Big Data compartido en el espacio de datos industriales para entornos marítimos con el fin de proporcionar información relevante para la planificación de las operaciones de los buques de contenedores. / [EN] The Internet of Things (IoT) is revolutionizing the way we perceive everything around us. The large number of objects connected to the Internet reveals the degree of acceptance of IoT-enabling technologies in several domain applications. In the same way, the large volume of data generated by these objects, also known as IoT devices, is reaching unimaginable values. As a result, traditional methodologies and techniques are not capable of managing the large amount of data collected by IoT devices. This problem is known as Big Data, and it has been analyzed in the last two decades in other applications contexts (i.e., web page search engines, social networks, among others). However, the lack of clear knowledge and strategies to integrate Big Data methodologies, techniques and solutions with IoT environments is directly affecting the potential benefits of IoT. Nowadays, Big Data management is one of the challenges that IoT environments are facing. For this reason, this doctoral thesis specifies an architecture for the management of Big Data generated by IoT environments. The Big Data architecture proposed was designed using the requirements outlined in the recommendations of the International Telecommunication Union (ITU-T) and the National Institute of Standards and Technologies (NIST) for the implementation of IoT ecosystems and the interoperability of Big Data frameworks. In this way, the architecture is generic enough for adapting to any IoT environment. Big Data architecture is capable of collecting data from IoT devices, IoT gateways, IoT platforms, and the industrial virtual data spaces. Also, the architecture provides support for the generation of innovative services based on current trends in Artificial Intelligence. Finally, the architecture takes advantage of the recent advances in fog computing technology and the cloud computing model services for implementing its functionalities. The architecture presented has been applied in three use cases derived from the European ACTIVAGE and PixelPort projects funded by the European Union. The first of these uses cases aims to monitor, control, and guide during the treatment of sleep apnea in elderly. The second one pursues the early detection of the elderly's fall based on Artificial Intelligence algorithms. The last one has the objective of exploiting shared Big Data in industrial data space for maritime environments to provide relevant information for the planning of shipping container operations. / [CA] La Internet de les coses (IoT, del anglès, Internet of Things) està revolucionant la manera en que percebem tot el que ens rodeja. La gran quantitat d\textquotesingle objectes connectats diàriament a Internet revela el grau de acceptació de les tecnologies facilitadores de IoT en els diferents entorns de la aplicació. De la mateixa manera, el gran volum de dades generades per aquests objectes, coneguts com dispositius IoT, està arribant a valors inimaginables. Com a resultat, les metodologies i tècniques tradicionals presenten limitacions per a la gestió de les dades recol·lectades pels dispositius IoT. Aquest problema es conegut com a Big Data i ha sigut analitzat durant les dos últimes dècades en tot tipus d\textquotesingle àmbits (buscadors de pàgines web i xarxes socials entre altres). No obstant, la falta de coneixements i estratègies clares per a integrar les metodologies, tècniques i solucions de Big Data en entorns de IoT està afectant directament als potencials beneficis de IoT. La gestió del Big Data es un dels desafius que afronten actualment els entorns de IoT. Aquesta tesis doctoral especifica una arquitectura per a la gestió del Big Data generat pels entorns IoT. L\textquotesingle arquitectura ha sigut dissenyada utilitzant els requeriments plantejats en les recomanacions de la Unió Internacional de Telecomunicacions (ITU-T) i el Institut Nacional d\textquotesingle Estàndards i Tecnologies (NIST) per a la implementació d\textquotesingle ecosistemes IoT i la interoperabilitat de frameworks de Big Data. D\textquotesingle aquesta manera, l\textquotesingle arquitectura es lo suficientment genèrica per a adaptar-se a qualsevol entorn IoT. L\textquotesingle arquitectura Big Data es capaç de recopilar dades de dispositius IoT, gateways IoT, plataformes IoT i espais de dades virtuals en entorns industrials. Així mateix, l\textquotesingle arquitectura brinda el suport per a la generació de serveis innovadors basats en les tendències actuals en l\textquotesingle àrea de la Intel·ligència Artificial. Finalment, l\textquotesingle arquitectura aprofita els recents avanços en la tecnologia de \textit{fog computing} i els models de serveis de \textit{cloud computing} per a implementar les seues funcionalitats. L\textquotesingle arquitectura presentada ha sigut aplicada a tres casos d\textquotesingle usos derivats dels projectes europeus ACTIVAGE i PixelPort finançats per la Unió Europea. El primer d\textquotesingle ells té l\textquotesingle objectiu de monitoritzar, controlar i guiar durant el tractament de la apnea del somni en adults majors. El segon persegueix la detecció primerenca de caigudes en adults majors basat en algoritmes de Intel·ligència Artificial. I l\textquotesingle Últim té l\textquotesingle objectiu de explotar el Big Data compartint en l\textquotesingle espai de dades industrials per a entorns marítims amb el fi de proporcionar informació rellevant per a la planificació de les operacions dels vaixells de contenidors. / Al Estado Ecuatoriano y a la Secretaría de Educación Superior, Ciencia, Tecnología e Innovación (SENESCYT) por haber apoyado la realización de esta tesis doctoral a través de su programa de Becas. / Sarabia Jácome, DF. (2020). Arquitectura de análisis de datos generados por el internet de las cosas IoT en tiempo real [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/149398 / TESIS
18

Estudio de atipia celular utilizando redes neuronales convolucionales: aplicación en tejidos de cáncer de mama

Yacolca Huamán, Karla Lucía 15 February 2021 (has links)
La escala de Nottingham (NGS) se emplea para poder determinar el grado del cáncer de mama, y tiene 3 criterios a considerar: formación tubular, atipia nuclear y conteo de mitosis. A partir de los puntajes parciales de cada criterio se obtiene el grado del cáncer. Para poder asignar cada puntaje, el patólogo analiza, de forma manual, cada una de las muestras de tejido. La patología computacional surge como una alternativa para simplificar la tarea de análisis de tejido, pues integra la tecnología WSI (Whole Side Imaging), la cual permite obtener imágenes de tejido en formato digital, con herramientas de análisis de imágenes. El procesamiento de imágenes se realiza de dos formas: por medio de algoritmos de procesamiento clásico y algoritmos de aprendizaje profundo. Estos últimos emplean redes neuronales, las cuales automatizan el proceso de análisis de imágenes, y permiten generalizar el modelo ante variantes en las imágenes de entrada. En el presente trabajo se muestra el estudio del criterio de atipia nuclear empleando redes neuronales convolucionales, las cuales son un tipo de arquitectura de aprendizaje profundo, aplicado a tejidos de cáncer de mama. Además, se presenta el modelo de solución para poder asignar el puntaje al tejido según el criterio mencionado.
19

Localización y clasificación de árboles y edificaciones en imágenes aéreas empleando aprendizaje profundo

Enriquez Rodriguez, Pamela 01 July 2024 (has links)
La presente tesis muestra el diseño de un detector de árboles y edificaciones en imágenes aéreas elaborado en base a algoritmos de aprendizaje profundo, cuyas redes troncales para la extracción de características son redes neuronales convolucionales. Este trabajo es parte de la tarea de automatización de un sistema de inspección de fajas de servidumbre que recibe imágenes capturadas por drones. Inicialmente, el trabajo se ha centrado en el etiquetado de árboles y edificaciones en imágenes aéreas para la elaboración del dataset; para ello, se ha utilizado la herramienta Image Labeler de Matlab. Posteriormente, se dividió dicho conjunto de datos en data de entrenamiento (80%), validación (10%) y evaluación (10%); además de emplear la función imageDataAugmenter para incrementar la cantidad de imágenes disponible. Seguidamente, se procedió con el entrenamiento de la red bajo ciertos valores de hiperparámetros y; finalmente, se evaluó la eficacia del detector bajo ciertas métricas como precisión, sensibilidad y precisión promedio media. Los resultados obtenidos muestran que el detector diseñado e implementado en Pytorch delimita correctamente la ubicación de los árboles y edificaciones en imágenes aéreas; además de etiquetarlos con su clase correspondiente. Esto se evidencia en los valores de precisión promedio del 70% para la clase árboles y del 63% para la clase edificaciones, logrando una precisión promedio media del 67%.
20

Modeling Uncertainty for Reliable Probabilistic Modeling in Deep Learning and Beyond

Maroñas Molano, Juan 28 February 2022 (has links)
[ES] Esta tesis se enmarca en la intersección entre las técnicas modernas de Machine Learning, como las Redes Neuronales Profundas, y el modelado probabilístico confiable. En muchas aplicaciones, no solo nos importa la predicción hecha por un modelo (por ejemplo esta imagen de pulmón presenta cáncer) sino también la confianza que tiene el modelo para hacer esta predicción (por ejemplo esta imagen de pulmón presenta cáncer con 67% probabilidad). En tales aplicaciones, el modelo ayuda al tomador de decisiones (en este caso un médico) a tomar la decisión final. Como consecuencia, es necesario que las probabilidades proporcionadas por un modelo reflejen las proporciones reales presentes en el conjunto al que se ha asignado dichas probabilidades; de lo contrario, el modelo es inútil en la práctica. Cuando esto sucede, decimos que un modelo está perfectamente calibrado. En esta tesis se exploran tres vias para proveer modelos más calibrados. Primero se muestra como calibrar modelos de manera implicita, que son descalibrados por técnicas de aumentación de datos. Se introduce una función de coste que resuelve esta descalibración tomando como partida las ideas derivadas de la toma de decisiones con la regla de Bayes. Segundo, se muestra como calibrar modelos utilizando una etapa de post calibración implementada con una red neuronal Bayesiana. Finalmente, y en base a las limitaciones estudiadas en la red neuronal Bayesiana, que hipotetizamos que se basan en un prior mispecificado, se introduce un nuevo proceso estocástico que sirve como distribución a priori en un problema de inferencia Bayesiana. / [CA] Aquesta tesi s'emmarca en la intersecció entre les tècniques modernes de Machine Learning, com ara les Xarxes Neuronals Profundes, i el modelatge probabilístic fiable. En moltes aplicacions, no només ens importa la predicció feta per un model (per ejemplem aquesta imatge de pulmó presenta càncer) sinó també la confiança que té el model per fer aquesta predicció (per exemple aquesta imatge de pulmó presenta càncer amb 67% probabilitat). En aquestes aplicacions, el model ajuda el prenedor de decisions (en aquest cas un metge) a prendre la decisió final. Com a conseqüència, cal que les probabilitats proporcionades per un model reflecteixin les proporcions reals presents en el conjunt a què s'han assignat aquestes probabilitats; altrament, el model és inútil a la pràctica. Quan això passa, diem que un model està perfectament calibrat. En aquesta tesi s'exploren tres vies per proveir models més calibrats. Primer es mostra com calibrar models de manera implícita, que són descalibrats per tècniques d'augmentació de dades. S'introdueix una funció de cost que resol aquesta descalibració prenent com a partida les idees derivades de la presa de decisions amb la regla de Bayes. Segon, es mostra com calibrar models utilitzant una etapa de post calibratge implementada amb una xarxa neuronal Bayesiana. Finalment, i segons les limitacions estudiades a la xarxa neuronal Bayesiana, que es basen en un prior mispecificat, s'introdueix un nou procés estocàstic que serveix com a distribució a priori en un problema d'inferència Bayesiana. / [EN] This thesis is framed at the intersection between modern Machine Learning techniques, such as Deep Neural Networks, and reliable probabilistic modeling. In many machine learning applications, we do not only care about the prediction made by a model (e.g. this lung image presents cancer) but also in how confident is the model in making this prediction (e.g. this lung image presents cancer with 67% probability). In such applications, the model assists the decision-maker (in this case a doctor) towards making the final decision. As a consequence, one needs that the probabilities provided by a model reflects the true underlying set of outcomes, otherwise the model is useless in practice. When this happens, we say that a model is perfectly calibrated. In this thesis three ways are explored to provide more calibrated models. First, it is shown how to calibrate models implicitly, which are decalibrated by data augmentation techniques. A cost function is introduced that solves this decalibration taking as a starting point the ideas derived from decision making with Bayes' rule. Second, it shows how to calibrate models using a post-calibration stage implemented with a Bayesian neural network. Finally, and based on the limitations studied in the Bayesian neural network, which we hypothesize that came from a mispecified prior, a new stochastic process is introduced that serves as a priori distribution in a Bayesian inference problem. / Maroñas Molano, J. (2022). Modeling Uncertainty for Reliable Probabilistic Modeling in Deep Learning and Beyond [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181582 / TESIS

Page generated in 0.0662 seconds