Spelling suggestions: "subject:"aprendizaje profunda"" "subject:"aprendizaje profundas""
11 |
Estrategias de aprendizaje profundo aplicadas al descubrimiento de fármacos : representación molecular, modelado de bioactividad y analítica visual para cribado virtualSabando, Vir January 2024 (has links)
El desarrollo de nuevos fármacos constituye un área de investigación fundamental en la medicina moderna. Más allá de los vertiginosos avances científicos en informática molecular y bioquímica que abonan a su mejora continua, la inversión en tiempo y recursos es sumamente elevada, en contraste a su exigua tasa de éxito. Las estrategias computacionales juegan un rol clave en la optimización y eficiencia de las múltiples tareas involucradas en el desarrollo de medicamentos, que abarcan desde la representación molecular y el modelado predictivo de bioactividad hasta el cribado virtual de fármacos y el diseño de nuevas estructuras químicas.
El objetivo de esta tesis se centró en el desarrollo y aplicación de estrategias computacionales novedosas basadas en aprendizaje profundo para contribuir a la optimización de las diversas etapas del descubrimiento de nuevos medicamentos. Las contribuciones de la presente tesis parten de un análisis crítico y permanente del estado del arte en informática molecular e involucran el diseño de nuevas estrategias aplicando conceptos y desarrollos de vanguardia en aprendizaje profundo. Como resultado de este trabajo, se lograron propuestas novedosas alineadas en tres ejes fundamentales del proceso de desarrollo de fármacos: representaciones moleculares, modelado predictivo de bioactividad, y analítica visual aplicada a cribado virtual de fármacos.
En materia de modelado predictivo de bioactividad, desarrollamos enfoques de modelado QSAR capaces de alcanzar rendimientos predictivos superiores a los previamente reportados para un gran número de propiedades de relevancia en el área, sin necesidad de realizar selección de características. Propusimos un enfoque de definición del dominio de aplicabilidad químico para dichos modelos eficaz en la determinación del rango de confiabilidad de las predicciones, y desarrollamos una estrategia para brindar interpretabilidad a modelos QSAR basados en redes neuronales. Además, experimentamos con aprendizaje profundo multi-tarea, logrando un enfoque pionero para el modelado de mutagenicidad de Ames, que permite el aprendizaje conjunto de información de diferentes blancos farmacológicos, superando en rendimiento a los resultados previamente publicados.
En el área de representación molecular, desarrollamos un riguroso trabajo de investigación y análisis comparativo de diversas estrategias de representación molecular tradicionales y basadas
en aprendizaje profundo. Propusimos un diseño experimental para la comparación y evaluación del desempeño de dichas representaciones en modelado QSAR, cuyos resultados evidenciaron la importancia de la selección cuidadosa de la representación elegida y proporcionan un marco de referencia para posteriores estudios similares. Por último, presentamos una herramienta integral de analítica visual para cribado virtual que integra diferentes fuentes de información química y representaciones moleculares complementarias. Esta herramienta interactiva demostró ser eficaz en la asistencia a expertxs de química medicinal para la exploración visual de patrones de similitud estructural en grandes conjuntos de datos químicos y para el diseño de nuevos compuestos candidatos. / The development of new drugs constitutes a fundamental research area in modern medicine. Beyond the rapid scientific advances in molecular informatics and biochemistry, which contribute to its continuous improvement, the investment in time and resources is extremely high, in contrast to its limited success rate. Computational strategies play a key role in optimizing and streamlining the multiple tasks involved in drug development, ranging from molecular representation and predictive modeling of bioactivity profiles, to virtual drug screening and the design of novel chemical structures.
The goal of this thesis focused on the development and application of novel computational strategies based on deep learning to contribute to the optimization of the many stages involved
in the drug discovery process. The contributions of this thesis stem from a critical and ongoing analysis of the state of the art in molecular informatics and involve the design of new strategies by
applying recent concepts and developments in deep learning. As a result of this work, we achieved a series of innovative proposals which align to three fundamental cornerstones of the drug development process: molecular representation, predictive modeling of bioactivity profiles, and visual analytics applied to virtual drug screening.
In the field of predictive bioactivity modeling, we developed QSAR modeling approaches that achieved higher predictive performances than those previously reported for numerous relevant
biochemical properties, while at the same time overcoming the need for a feature selection step. We proposed an approach to define the chemical applicability domain for these models, effectively determining the reliability range of predictions, and developed a strategy to provide interpretability to QSAR models based on neural networks. Additionally, we experimented with multi-task deep learning, achieving a pioneering approach for modeling Ames mutagenicity that allows the joint learning of information from different pharmacological targets, which outperformed previously published results.
In the field of molecular representation, we conducted a rigorous research and comparative analysis of various traditional and deep learning-based molecular representation strategies. We proposed an experimental design for the comparison and evaluation of the performance of these representations in QSAR modeling, and the results highlighted the importance of carefully selecting the molecular representation for each task, while also providing a reference framework for subsequent similar studies. Finally, we introduced a comprehensive visual analytics tool for virtual screening that integrates different sources of chemical information and complementary molecular representations. This interactive tool proved to be effective in assisting medicinal chemistry experts in visually exploring structural similarity patterns in large chemical datasets and in the design of new candidate compounds.
|
12 |
Predicción de un tiro penal de fútbol basado en la estimación de postura del jugadorMauricio Salazar, Josue Angel 24 June 2024 (has links)
En este artículo se presenta una metodología innovadora para predecir un tiro penal
en fútbol basado en la estimación de postura del jugador que ejecuta el disparo
haciendo uso de dos herramientas de visión computacional como segmentación
semántica en videos y la estimación de postura 3D mediante los métodos TAM y
MMPose, respectivamente. Para ello, se construyó un corpus de videos de tiros
penales y se han entrenado modelos de aprendizaje profundo para predecir la región
del arco a la cual llegará el disparo.
Los resultados muestran que el modelo llamado CNN 3D logra una mejor precisión
con respecto a los otros modelos entrenados. Además, se ha medido la influencia de
distintas partes del cuerpo con respecto a la tarea de predicción, mostrando que las
piernas son las partes más influyentes. Por último, implementamos una herramienta
web para el entrenamiento de porteros y jugadores de fútbol en tiros penales,
ofreciendo de esta manera posibles mejoras en las tácticas de un disparo de tiro penal
mediante el uso de la visión computacional. / This paper presents an innovative methodology for predicting a penalty kick in football
based on the kicker’s pose estimation using two computer vision tools, such as
semantic segmentation in videos and 3D pose estimation using the TAM and MMPose
methods, respectively. For this purpose, a corpus of penalty kick videos was built and
deep learning models were trained to predict the region of the goal where the kick
should arrive.
The results show that the CNN 3D model achieves better accuracy than the other
trained models. Furthermore, the influence of different body parts on the prediction
task was measured, showing that the legs are the most influential parts. Finally, we
implemented a web-based tool to train goalkeepers and footballers in penalty kicks.
This offers potential improvements in penalty kick tactics using computer vision.
|
13 |
Autonomous control of a mobile robot with incremental deep learning neural networksGlöde, Isabella 29 March 2021 (has links)
Over the last few years autonomous driving had an increasingly strong impact on the automotive industry. This created an increased need for artificial intelligence algo- rithms which allow for computers to make human-like decisions. However, a compro- mise between the computational power drawn by these algorithms and their subsequent performance must be found to fulfil production requirements.
In this thesis incremental deep learning strategies are used for the control of a mobile robot such as a four wheel steering vehicle. This strategy is similar to the human approach of learning. In many small steps the vehicle learns to achieve a specific goal. The usage of incremental training leads to growing knowledge-base within the system. It also provides the opportunity to use older training achievements to improve the system, when more training data is available.
To demonstrate the capabilities of such an algorithm, two different models have been formulated. First, a more simple model with counter wheel steering, and second, a more complex, nonlinear model with independent steering. These two models are trained incrementally to follow different types of trajectories. Therefore an algorithm was established to generate useful initial points. The incremental steps allow the robot to be positioned further and further away from the desired trajectory in the environ- ment.
Afterwards, the effects of different trajectory types on model behaviour are investigated by over one thousand simulation runs. To do this, path planning for straight lines and circles are introduced. This work demonstrates that even simulations with simple network structures can have high performance. / Tesis
|
14 |
Propuesta de un modelo de predicción de cáncer de mama utilizando deep learningPáez Cumpa, Jorge Antonio, Palomino Delgado, Henry Edward, Rosado Farfán, Christian Paul, Salazar Huamanjulca, Elmer Ronald 03 November 2023 (has links)
En la presente tesis, queremos demostrar y proponer como la tecnología puede ser
utilizada por los genetistas y especialistas en oncología como una herramienta para agilizar la
detección de cáncer de mama, siendo este el más común en Perú. El diagnóstico temprano es un
mecanismo efectivo que ayuda a la reducción de la mortalidad en este tipo de cáncer de tal
manera que se pueda seguir un tratamiento adecuado.
Actualmente una forma de detectarlo es a través de una prueba genética para identificar
mutaciones en los genes BRCA 1 y BRCA 2, sin embargo, este camino contiene pruebas que son
difíciles, costosas y lentas, que a su vez requieren una carga de trabajo excesiva por parte de un
biólogo o genetista. por tal motivo se tiene como objetivo combinar los factores de riesgo
asociados con el cáncer de mamá, incluidas las variaciones genéticas para diseñar un modelo
predictivo basados en la inteligencia artificial para determinar si el tumor asociado al cáncer es
benigno o maligno. El modelo se diseñó utilizando un algoritmo de redes neuronales logrando
obtener un rendimiento de 92% precisión con datos de prueba en tan solo unos minutos.
Esta propuesta de modelo de predicción es única en el Perú y puede ser ofrecida por una
Gerencia de TI dentro de una organización del sector salud para que posteriormente pueda ser
implementada y desplegada por un equipo de científicos de datos. / In the present thesis, we are looking for a demonstration and proposal how the
technology can be so useful for the genetic and oncology Scientifics as a tool for quick detection
of the breast cancer, which ones is the most common in Peru. Early diagnosis is the most
effective way for a treatment to help people to prevent the mortality in this kind of cancer.
At this moment, the best way for an early detection is a genetical test to look for
mutations in BRCA 1 and BRCA 2 gen, however this way is so hard, because this requires a lot
of difficult, expensive, and slowly tests remark a lot of work of the genetic and oncology
Scientifics. That is the reason our thesis has as the principal goal to combine all the risk factors
associated with breast cancer, including genetical mutations, for generate a predictive model
based in artificial intelligence for determinate if a kind of tumor is associated with benign or
pathogenic. This designed model has a 92% of precision with open-source test data in a few
minutes.
This predictive model is unique in Peru and can be offered by an IT Management within
a health sector organization so that it can later be implemented and deployed by a team of
data scientists.
|
15 |
Predicción temporal de calidad del aire en Lima a partir de datos de estaciones de bajo costo y Aprendizaje Automático: una revisión de literaturaParedes Salazar, Diego José 23 August 2021 (has links)
El presente trabajo explora los estudios en los cuales se utilizan técnicas de aprendizaje profundo
para realizar predicción temporal de calidad del aire, de manera que se pueda comprender que
características tendrían los modelos de aprendizaje profundo que tienen un mejor rendimiento con
para realizar esta tarea y puedan utilizarse como línea base para desarrollar modelos similares en el
contexto de la ciudad de lima. Esta revisión de literatura se realiza con el objetivo de poder obtener
los modelos de aprendizaje profundo que estén teniendo un mejor rendimiento en la actualidad al
predecir temporalmente la calidad del aire mediante un procedimiento que garantice objetividad y
reproducción de resultados. Para ello, se realiza una revisión sistemática de literatura que garantiza
el uso de procedimientos estructurados y definidos para conocer las preguntas de investigación que
guían la exploración de los estudios de predicción temporal de calidad del aire, los motores de
búsqueda considerados para la revisión y las cadenas de búsqueda asociadas tanto a las preguntas
de investigación como los motores de búsqueda, de manera que estas se puedan ejecutar y reproducir
la obtención de estudios. Las respuestas se reportan en un formulario de extracción con datos
relacionados a las arquitecturas de aprendizaje profundo, limitaciones de los modelos empleados y el
rendimiento obtenido por cada modelo en cada estudio. Al finalizar el estudio, se concluye que se
puede desarrollar un modelo basado en una arquitectura adecuada de aprendizaje profundo para
poder atacar el problema de la predicción inadecuada de calidad del aire en Lima al percatar su
efectividad reportada en la literatura para otras localidades en el mundo, considerando que dichos
modelos deben tomarse únicamente como una línea base y que deben ajustarse a la localidad de
Lima para obtener predicciones adecuadas a su entorno.
|
16 |
Learning from limited labelled data: contributions to weak, few-shot, and unsupervised learningSilva Rodríguez, Julio José 12 December 2022 (has links)
Tesis por compendio / [ES] En la última década, el aprendizaje profundo (DL) se ha convertido en la principal herramienta para las tareas de visión por ordenador (CV). Bajo el paradigma de aprendizaje supervisado, y gracias a la recopilación de grandes conjuntos de datos, el DL ha alcanzado resultados impresionantes utilizando redes neuronales convolucionales (CNNs). Sin embargo, el rendimiento de las CNNs disminuye cuando no se dispone de suficientes datos, lo cual dificulta su uso en aplicaciones de CV en las que sólo se dispone de unas pocas muestras de entrenamiento, o cuando el etiquetado de imágenes es una tarea costosa. Estos escenarios motivan la investigación de estrategias de aprendizaje menos supervisadas.
En esta tesis, hemos explorado diferentes paradigmas de aprendizaje menos supervisados. Concretamente, proponemos novedosas estrategias de aprendizaje autosupervisado en la clasificación débilmente supervisada de imágenes histológicas gigapixel. Por otro lado, estudiamos el uso del aprendizaje por contraste en escenarios de aprendizaje de pocos disparos para la vigilancia automática de cruces de ferrocarril. Por último, se estudia la localización de lesiones cerebrales en el contexto de la segmentación no supervisada de anomalías. Asimismo, prestamos especial atención a la incorporación de conocimiento previo durante el entrenamiento que pueda mejorar los resultados en escenarios menos supervisados. En particular, introducimos proporciones de clase en el aprendizaje débilmente supervisado en forma de restricciones de desigualdad. Además, se incorpora la homogeneización de la atención para la localización de anomalías mediante términos de regularización de tamaño y entropía.
A lo largo de esta tesis se presentan diferentes métodos menos supervisados de DL para CV, con aportaciones sustanciales que promueven el uso de DL en escenarios con datos limitados. Los resultados obtenidos son prometedores y proporcionan a los investigadores nuevas herramientas que podrían evitar la anotación de cantidades masivas de datos de forma totalmente supervisada. / [CA] En l'última dècada, l'aprenentatge profund (DL) s'ha convertit en la principal eina per a les tasques de visió per ordinador (CV). Sota el paradigma d'aprenentatge supervisat, i gràcies a la recopilació de grans conjunts de dades, el DL ha aconseguit resultats impressionants utilitzant xarxes neuronals convolucionals (CNNs). No obstant això, el rendiment de les CNNs disminueix quan no es disposa de suficients dades, la qual cosa dificulta el seu ús en aplicacions de CV en les quals només es disposa d'unes poques mostres d'entrenament, o quan l'etiquetatge d'imatges és una tasca costosa. Aquests escenaris motiven la investigació d'estratègies d'aprenentatge menys supervisades.
En aquesta tesi, hem explorat diferents paradigmes d'aprenentatge menys supervisats. Concretament, proposem noves estratègies d'aprenentatge autosupervisat en la classificació feblement supervisada d'imatges histològiques gigapixel. D'altra banda, estudiem l'ús de l'aprenentatge per contrast en escenaris d'aprenentatge de pocs trets per a la vigilància automàtica d'encreuaments de ferrocarril. Finalment, s'estudia la localització de lesions cerebrals en el context de la segmentació no supervisada d'anomalies. Així mateix, prestem especial atenció a la incorporació de coneixement previ durant l'entrenament que puga millorar els resultats en escenaris menys supervisats. En particular, introduïm proporcions de classe en l'aprenentatge feblement supervisat en forma de restriccions de desigualtat. A més, s'incorpora l'homogeneïtzació de l'atenció per a la localització d'anomalies mitjançant termes de regularització de grandària i entropia.
Al llarg d'aquesta tesi es presenten diferents mètodes menys supervisats de DL per a CV, amb aportacions substancials que promouen l'ús de DL en escenaris amb dades limitades. Els resultats obtinguts són prometedors i proporcionen als investigadors noves eines que podrien evitar l'anotació de quantitats massives de dades de forma totalment supervisada. / [EN] In the last decade, deep learning (DL) has become the main tool for computer vision (CV) tasks. Under the standard supervised learnng paradigm, and thanks to the progressive collection of large datasets, DL has reached impressive results on different CV applications using convolutional neural networks (CNNs). Nevertheless, CNNs performance drops when sufficient data is unavailable, which creates challenging scenarios in CV applications where only few training samples are available, or when labeling images is a costly task, that require expert knowledge. Those scenarios motivate the research of not-so-supervised learning strategies to develop DL solutions on CV.
In this thesis, we have explored different less-supervised learning paradigms on different applications. Concretely, we first propose novel self-supervised learning strategies on weakly supervised classification of gigapixel histology images. Then, we study the use of contrastive learning on few-shot learning scenarios for automatic railway crossing surveying. Finally, brain lesion segmentation is studied in the context of unsupervised anomaly segmentation, using only healthy samples during training. Along this thesis, we pay special attention to the incorporation of tasks-specific prior knowledge during model training, which may be easily obtained, but which can substantially improve the results in less-supervised scenarios. In particular, we introduce relative class proportions in weakly supervised learning in the form of inequality constraints. Also, attention homogenization in VAEs for anomaly localization is incorporated using size and entropy regularization terms, to make the CNN to focus on all patterns for normal samples. The different methods are compared, when possible, with their supervised counterparts.
In short, different not-so-supervised DL methods for CV are presented along this thesis, with substantial contributions that promote the use of DL in data-limited scenarios. The obtained results are promising, and provide researchers with new tools that could avoid annotating massive amounts of data in a fully supervised manner. / The work of Julio Silva Rodríguez to carry out this research and to elaborate
this dissertation has been supported by the Spanish Government under the
FPI Grant PRE2018-083443. / Silva Rodríguez, JJ. (2022). Learning from limited labelled data: contributions to weak, few-shot, and unsupervised learning [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/190633 / Compendio
|
17 |
Arquitectura de análisis de datos generados por el internet de las cosas IoT en tiempo realSarabia Jácome, David Fernando 02 September 2020 (has links)
[ES] El Internet de las cosas (IoT, del inglés, \textit{Internet of Things}) está revolucionando la manera en que percibimos todo lo que nos rodea. La gran cantidad de objetos conectados a Internet diariamente revela el grado de aceptación de las tecnologías habilitadoras de IoT en los diferentes entornos de aplicación. De la misma manera, el gran volumen de datos generado por estos objetos, conocidos como dispositivos IoT, está llegando a valores inimaginables. Como resultado, las metodologías y técnicas tradicionales presentan limitaciones para la gestión de los datos recolectados por los dispositivos IoT. Este problema es conocido como Big Data y ha sido analizado en las dos últimas décadas en otro tipo de ámbitos (buscadores de páginas web, redes sociales, entre otros.). Sin embargo, la falta de conocimientos y estrategias claras para integrar las metodologías, técnicas y soluciones de Big Data con entornos de IoT está afectando directamente a los potenciales beneficios de IoT.
La gestión del Big Data es uno de los desafíos que afrontan actualmente los entornos de IoT. La presente tesis doctoral especifica una arquitectura para la gestión del Big Data generado por entornos IoT. La arquitectura fue diseñada utilizando los requerimientos planteados en las recomendaciones de la Unión Internacional de Telecomunicaciones (ITU-T) y el Instituto Nacional de Estándares y Tecnologías (NIST) para la implementación de ecosistemas IoT y la interoperabilidad de \textit{frameworks} de Big Data, respectivamente. De esta manera, la arquitectura es lo suficientemente genérica para adaptarse a cualquier entorno IoT. La arquitectura Big Data es capaz de recopilar datos de dispositivos IoT, \textit{gateways} IoT, plataformas IoT y espacios de datos virtuales en entornos industriales. Además, la arquitectura brinda el soporte para la generación de servicios innovadores basados en las tendencias actuales en el área de la Inteligencia Artificial. Finalmente, la arquitectura aprovecha los recientes avances en la tecnología de \textit{fog computing} y los modelos de servicios de \textit{cloud computing} para implementar sus funcionalidades.
La arquitectura presentada ha sido aplicada en tres casos de uso derivados de los proyectos Europeos ACTIVAGE y PixelPort financiados por la Unión Europea. El primero de ellos tiene el objetivo de monitorizar, controlar y guiar durante el tratamiento de la apnea del sueño en adultos mayores. El segundo persigue la detección temprana de caídas en adultos mayores basado en algoritmos de Inteligencia Artificial. Y el último tiene el objetivo de explotar el Big Data compartido en el espacio de datos industriales para entornos marítimos con el fin de proporcionar información relevante para la planificación de las operaciones de los buques de contenedores. / [EN] The Internet of Things (IoT) is revolutionizing the way we perceive everything around us. The large number of objects connected to the Internet reveals the degree of acceptance of IoT-enabling technologies in several domain applications. In the same way, the large volume of data generated by these objects, also known as IoT devices, is reaching unimaginable values. As a result, traditional methodologies and techniques are not capable of managing the large amount of data collected by IoT devices. This problem is known as Big Data, and it has been analyzed in the last two decades in other applications contexts (i.e., web page search engines, social networks, among others). However, the lack of clear knowledge and strategies to integrate Big Data methodologies, techniques and solutions with IoT environments is directly affecting the potential benefits of IoT.
Nowadays, Big Data management is one of the challenges that IoT environments are facing. For this reason, this doctoral thesis specifies an architecture for the management of Big Data generated by IoT environments. The Big Data architecture proposed was designed using the requirements outlined in the recommendations of the International Telecommunication Union (ITU-T) and the National Institute of Standards and Technologies (NIST) for the implementation of IoT ecosystems and the interoperability of Big Data frameworks. In this way, the architecture is generic enough for adapting to any IoT environment. Big Data architecture is capable of collecting data from IoT devices, IoT gateways, IoT platforms, and the industrial virtual data spaces. Also, the architecture provides support for the generation of innovative services based on current trends in Artificial Intelligence. Finally, the architecture takes advantage of the recent advances in fog computing technology and the cloud computing model services for implementing its functionalities.
The architecture presented has been applied in three use cases derived from the European ACTIVAGE and PixelPort projects funded by the European Union. The first of these uses cases aims to monitor, control, and guide during the treatment of sleep apnea in elderly. The second one pursues the early detection of the elderly's fall based on Artificial Intelligence algorithms. The last one has the objective of exploiting shared Big Data in industrial data space for maritime environments to provide relevant information for the planning of shipping container operations. / [CA] La Internet de les coses (IoT, del anglès, Internet of Things) està revolucionant la manera en que percebem tot el que ens rodeja. La gran quantitat d\textquotesingle objectes connectats diàriament a Internet revela el grau de acceptació de les tecnologies facilitadores de IoT en els diferents entorns de la aplicació. De la mateixa manera, el gran volum de dades generades per aquests objectes, coneguts com dispositius IoT, està arribant a valors inimaginables. Com a resultat, les metodologies i tècniques tradicionals presenten limitacions per a la gestió de les dades recol·lectades pels dispositius IoT. Aquest problema es conegut com a Big Data i ha sigut analitzat durant les dos últimes dècades en tot tipus d\textquotesingle àmbits (buscadors de pàgines web i xarxes socials entre altres). No obstant, la falta de coneixements i estratègies clares per a integrar les metodologies, tècniques i solucions de Big Data en entorns de IoT està afectant directament als potencials beneficis de IoT. La gestió del Big Data es un dels desafius que afronten actualment els entorns de IoT. Aquesta tesis doctoral especifica una arquitectura per a la gestió del Big Data generat pels entorns IoT. L\textquotesingle arquitectura ha sigut dissenyada utilitzant els requeriments plantejats en les recomanacions de la Unió Internacional de Telecomunicacions (ITU-T) i el Institut Nacional d\textquotesingle Estàndards i Tecnologies (NIST) per a la implementació d\textquotesingle ecosistemes IoT i la interoperabilitat de frameworks de Big Data. D\textquotesingle aquesta manera, l\textquotesingle arquitectura es lo suficientment genèrica per a adaptar-se a qualsevol entorn IoT. L\textquotesingle arquitectura Big Data es capaç de recopilar dades de dispositius IoT, gateways IoT, plataformes IoT i espais de dades virtuals en entorns industrials. Així mateix, l\textquotesingle arquitectura brinda el suport per a la generació de serveis innovadors basats en les tendències actuals en l\textquotesingle àrea de la Intel·ligència Artificial. Finalment, l\textquotesingle arquitectura aprofita els recents avanços en la tecnologia de \textit{fog computing} i els models de serveis de \textit{cloud computing} per a implementar les seues funcionalitats. L\textquotesingle arquitectura presentada ha sigut aplicada a tres casos d\textquotesingle usos derivats dels projectes europeus ACTIVAGE i PixelPort finançats per la Unió Europea. El primer d\textquotesingle ells té l\textquotesingle objectiu de monitoritzar, controlar i guiar durant el tractament de la apnea del somni en adults majors. El segon persegueix la detecció primerenca de caigudes en adults majors basat en algoritmes de Intel·ligència Artificial. I l\textquotesingle Últim té l\textquotesingle objectiu de explotar el Big Data compartint en l\textquotesingle espai de dades industrials per a entorns marítims amb el fi de proporcionar informació rellevant per a la planificació de les operacions dels vaixells de contenidors. / Al Estado Ecuatoriano y a la Secretaría de Educación Superior, Ciencia,
Tecnología e Innovación (SENESCYT) por haber apoyado la realización de
esta tesis doctoral a través de su programa de Becas. / Sarabia Jácome, DF. (2020). Arquitectura de análisis de datos generados por el internet de las cosas IoT en tiempo real [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/149398
|
18 |
Segmentación de cultivos de uva de mesa a partir de imágenes aéreas y satelitales usando algoritmos de aprendizaje profundoVillarroel Segovia, Jamir Enrique 29 October 2024 (has links)
La teledetección ha ayudado a mejorar la gestión y el riego de los cultivos en los últimos años.
A través de esta técnica, se ha logrado identificar aquellos cultivos de interés y extraer
información de estos para el diagnóstico de enfermedades, la predicción de rendimiento de
lotes de cultivos, el mapeo de cultivos y en la planificación de actividades de exportación. La
uva es uno de los productos de agroexportación más importantes de Perú, generando grandes
ingresos y aumentando anualmente. Si bien, la identificación de cultivos empezó a realizarse a
partir de encuestas agrarias, luego se desarrolló técnicas basadas en algoritmos de aprendizaje
automático tales como Random Forest (RF), Support Vector Machine (SVM), Artificial Neural
Networks (ANN) para identificar diversos tipos de cultivos, entre ellos la uva, a nivel mundial.
Estas técnicas presentaban buenos resultados; no obstante, el uso de algoritmos de aprendizaje
profundo basados en segmentación semántica se popularizó por obtener mejores resultados que
los anteriores y se comenzaron a emplear en los últimos años para la identificación de muchos
cultivos. En esta tesis, se planteó identificar de forma automatizada los cultivos de uva de mesa.
Para ello, se realizó la comparación de las arquitecturas U-Net, SegNet y DeepLabV3+ que
realizan técnicas de segmentación semántica. Cada red fue entrenada y evaluada utilizando dos
conjuntos de datos conformados por imágenes aéreas y satelitales de las zonas de interés.
Asimismo, se calcularon los índices NDVI y SAVI en cada imagen aérea y satelital del
conjunto de datos de entrenamiento, validación y prueba. Posteriormente, se añadió a cada
imagen ambas bandas calculadas como una sexta y séptima capa adicional, ya que las imágenes
aéreas y satelitales del conjunto de datos formado solo presentan 5 bandas espectrales: rojo,
verde, azul, infrarrojo cercano y borde rojo. Se realizó el proceso de etiquetado, gracias a la
información brindada por la empresa Vitícola S.A.C, con ayuda del NDVI para separar aquellas
imágenes que presentan cultivos de uva en una etapa fenológica tardía y temprana en cada
conjunto de datos. Con el fin de incrementar la cantidad de datos de entrada a la red, se utilizó
la técnica de extracción de parches aleatorios, y se aplicaron procesos de reflexión y rotación
para el entrenamiento de las 3 redes mencionadas. Finalmente, se compararon los resultados de
prueba de estos algoritmos de clasificación y se determinó que tanto en los conjuntos de datos
de imágenes aéreas con una etapa fenológica temprana y tardía, las redes SegNet y DeeplabV3+
fueron las que obtuvieron mejor desempeño con una precisión global de 95.21% y una mIoU
de 0.8280, y una precisión global de 93.40 % y una mIoU de 0.7555 respectivamente.
Asimismo, la red DeepLabV3+ obtuvo mejor desempeño promedio en el conjunto de datos de
imágenes satelitales con una precisión global de 93.84 % y un mIoU de 0.8389.
|
19 |
Forecasting volcanic eruptions based on massive seismic data processing. Application to Peruvian volcanoesMachacca Puma, Roger 08 November 2024 (has links)
This dissertation investigates the potential improvement of volcanic eruption understanding
and forecasting methods by using advanced data processing techniques to analyze large datasets
at three target volcanoes (Piton de la Fournaise (PdlF) (France), Sabancaya, and Ubinas (Peru)).
The central objective of this study is to search for possible empirical relationships between the
pre-eruptive behavior of the accelerated increase in seismic activity using the Failure Forecast
Method (FFM) and velocity variations measured by Coda Wave Interferometry (CWI), since both
observations are reported to be independently associated with medium damage. The FFM is a deterministic
method used to forecast volcanic eruptions using an empirical relationship of increased
and accelerated evolution of an observable (e.g., volcano-seismic event rates). The event rates
used with FFM in this study were generated using two Deep Learning (DL) based models. The
detection model (VSDdeep) is based on EQTransformer and the classification model (VSCdeep)
consists of a simple convolutional neural network that uses the short-time Fourier transform of
the detected signals as input data. VSDdeep, trained on ∼16.3 k volcano-seismic events, outperforms
previous DL-based models, achieving an accuracy of 97.68%. The VSCdeep model was
trained on two datasets, one for effusive volcano (7 classes) and a second for explosive volcanoes
(10 classes), and achieved accuracies of 96.55% and 90.5%, respectively. The combination of the
two DL-based models detects and classifies 1.5 times more volcano-tectonic (VT) events than the
catalog provided by the local observatories.
A Bayesian approach of FFM was applied to study the 27 eruptions recorded between 2014-
2021 at PdlF volcano. The analysis shows that 23 (85.2%) of the precursory sequences are suitable
for retrospective application of the FFM. Eight eruptions fulfilled the reliability criteria. Only
seven eruptions (25.93%) were successfully predicted in the real-time scenario, but when the reliability
criteria are met, the successful prediction rate increases to 87.5%. For Sabancaya volcano,
the FFM cannot be applied because the explosions are not preceded by significant increases in
seismicity. In the case of Ubinas volcano, LP event rates were used, with a successful forecasting
rate of 4.55% with real-time criteria of the 330 explosions analyzed, showing a low forecasting
rate for these two Peruvian volcanoes.
We report long-term (over 22 years) apparent velocity variations (AVV) that appear to be related
to the frequency of occurrence of magmatic intrusions. However, the simple dike-intrusion
model tested in this study does not explain this long-term pattern. The short-term pre-eruptive velocity variations generally show two phases: A first phase corresponding to a slight velocity decrease
∼5 days before the eruption, and a second phase of sudden velocity decrease one day before
the eruption. The precursory behavior of AVV indicates that 12 eruptions (44.4%) were preceded
by AVV ≥ 0.15% observed at least one day before the eruption. Two models were tested to explain
the pre-eruptive velocity variations. One is based on the cumulative rock damage associated
with VT activity. The other one takes the effect of the dike intrusions into account. However, in
both cases, the comparison of the observed and modeled AVV amplitudes shows low regression
coefficients. This indicates that the generation of velocity variations is complex and that these
simple models alone cannot explain the observations.
The statistical analysis of accelerated VT event rates and AVV precursors at PdlF volcano
indicates that 37% of the eruptions were preceded by both precursors, 48.2% by one of the two
precursors, and 14.8% were not preceded by either. These findings suggest that both precursors,
accelerated VT event rates and AVV, can serve as potential tools for early detection of volcanic
unrest at this volcano. / Cette thèse étudie l’amélioration potentielle de la compréhension et des méthodes de prévision
des éruptions volcaniques en utilisant des techniques avancées de traitement des données
sismiques pour analyser de grands ensembles de données sur trois volcans cibles (Piton de la
Fournaise (PdlF) (France), Sabancaya et Ubinas (Pérou)). L’objectif central de cette étude est de
rechercher des relations empiriques possibles entre le comportement pré-éruptif de l’augmentation
accélérée de l’activité sismique en utilisant la méthode de prévision de la rupture (FFM) et les variations
de vitesse sismique mesurées par l’interférométrie d’ondes de coda. Les deux observations
sont signalées comme étant indépendamment associées à des dommages moyens. La FFM est
une méthode déterministe utilisée pour prévoir les éruptions volcaniques en utilisant une relation
empirique de l’augmentation et de l’évolution accélérée d’un observable (par exemple, les taux
d’événements volcanosismiques). Les taux d’événements utilisés avec la FFM dans cette étude
ont été générés à l’aide de deux modèles basés sur l’apprentissage profond (DL). Le modèle de détection
(VSDdeep) est basé sur EQTransformer et le modèle de classification (VSCdeep) consiste
en un simple réseau de neurones convolutionnel qui utilise la transformée de Fourier à court terme
des signaux. VSDdeep, entraîné sur ∼16,3 k événements volcanosismiques, surpasse les modèles
précédents basés sur le DL, atteignant une précision de 97,68%. Le modèle VSCdeep a été
entraîné sur deux ensembles de données, l’un pour les volcans effusifs (7 classes) et l’autre pour
les volcans explosifs (10 classes), et a atteint des précisions de 96,55% et 90,5%, respectivement.
La combinaison des deux modèles basés sur le DL détecte et classe 1,5 fois plus d’événements
volcano-tectonique (VT) que le catalogue fourni par les observatoires locaux.
Une approche bayésienne de la FFM a été appliquée pour étudier les 27 éruptions enregistrées
entre 2014 et 2021 au volcan PdlF. L’analyse montre que 23 (85,2%) des séquences précurseurs
sont adaptées à l’application rétrospective de la FFM. Huit éruptions ont satisfait aux critères de fiabilité.
Seules sept éruptions (25,93%) ont été prédites avec succès dans le scénario en temps réel,
mais lorsque les critères de fiabilité sont remplis, le taux de réussite de la prédiction augmente à
87,5%. Pour le volcan Sabancaya, la FFM ne peut pas être appliquée car les explosions ne sont pas
précédées d’augmentations significatives de la sismicité. Dans le cas du volcan Ubinas, les taux
d’événements de longue-période ont été utilisés, avec un taux de prévision réussi de 4,55% avec
des critères en temps réel pour les 330 explosions analysées, montrant un faible taux de prévision
pour ces deux volcans péruviens. Nous rapportons des variations de vitesse apparentes (AVV) à long terme (plus de 22 ans)
qui semblent être liées à la fréquence des intrusions magmatiques. Cependant, le modèle simple
d’intrusion de dyke testé dans cette étude n’explique pas ce schéma à long terme. Les variations
de vitesse pré-éruptives à court terme montrent généralement deux phases: Une première phase
correspondant à une légère diminution de la vitesse ∼5 jours avant l’éruption, et une deuxième
phase de diminution soudaine de la vitesse un jour avant l’éruption. Le comportement précurseur
des AVV indique que 12 éruptions (44,4%) ont été précédées par des AVV ≥0,15% observées
au moins un jour avant l’éruption. Deux modèles ont été testés pour expliquer les variations de
vitesse pré-éruptives. L’un est basé sur l’endommagement cumulé des roches, associé à l’activité
des séismes VT. L’autre prend en compte l’effet des intrusions de dykes. Cependant, dans les deux
cas, la comparaison des amplitudes AVV observées et modélisées montre de faibles coefficients
de régression. Cela indique que la génération de variations de vitesse est complexe et que ces
modèles simples ne peuvent pas expliquer seuls les observations.
L’analyse statistique des taux d’événements VT accélérés et des précurseurs AVV au volcan
PdlF indique que 37% des éruptions ont été précédées par les deux précurseurs, 48,2% par l’un
des deux précurseurs, et 14,8% n’ont été précédées par aucun. Ces résultats suggèrent que les
deux précurseurs, les taux d’événements VT accélérés et les AVV, peuvent servir d’outils potentiels
pour la détection précoce des éruptions volcaniques sur ce volcan. / Esta tesis investiga la posible mejora en la comprensión de las erupciones volcánicas y en los
métodos de pronóstico de erupciones a través del uso de técnicas avanzadas de procesamiento de
datos sísmicos para el análisis de grandes volúmenes de datos de tres volcanes objetivo (Piton de
la Fournaise (PdlF) (Francia), Sabancaya y Ubinas (Perú)). El objetivo central de este estudio
es buscar posibles relaciones empíricas entre el patrón pre-eruptivo del incremento acelerado de
la actividad sísmica utilizando el método de pronóstico del fallo de material (FFM) y cambios
de velocidad sísmica medidos por la técnica de interferometría sísmica de ondas de coda (CWI).
Ambas observaciones se reportan de forma independiente como asociadas a procesos de daño del
medio. El FFM es un método determinístico empleado para pronosticar el inicio de las erupciones
volcánicas, basándose en una relación empírica entre la tasa de cambio y aceleración de un observable
(por ejemplo, tasas de eventos sismo-volcánicos). Las tasas de eventos utilizadas por
FFM en este estudio se generaron utilizando dos modelos automáticos basados en Deep Learning
(DL). El modelo de detección (VSDdeep) está basado en EQTransformer y el modelo de clasificación
(VSCdeep) consiste en una red neuronal convolucional simple que utiliza la transformada
de Fourier de corto tiempo de las señales detectadas. VSDdeep, entrenado en ∼16.3 k eventos
sismo-volcánicos, supera a los modelos anteriores basados en DL, alcanzando una exactitud del
97.68%. El modelo VSCdeep fue entrenado en dos conjuntos de datos: uno para el volcán PdlF
(con 7 clases) y otro para volcanes explosivos (con 10 clases), alcanzando exactitudes del 96.55%
y 90.5%, respectivamente. La combinación de estos dos modelos permite detectar y clasificar 1.5
veces más eventos volcano-tectónicos (VT) que los catálogos proporcionados por los observatorios
locales.
Se aplicó el enfoque bayesiano del FFM para estudiar las 27 erupciones registradas entre 2014
y 2021 en el volcán PdlF. El análisis muestra que 23 (85.2%) de las secuencias precursoras son
adecuadas para la aplicación retrospectiva del FFM. Ocho erupciones cumplieron los criterios de
fiabilidad. Sólo siete erupciones (25.93%) se pronosticaron con éxito en un escenario en tiempo
real, pero cuando se cumplen los criterios de fiabilidad, la tasa de pronóstico éxito aumenta a
87.5%. En el caso del volcán Sabancaya, el FFM no puede aplicarse, ya que las explosiones no
son precedidas por incrementos significativos de actividad sísmica. Para el volcán Ubinas, se utilizó
el incremento de la tasa de eventos LP para analizar 330 explosiones, alcanzando una tasa de pronóstico exitoso del 4.55% con los criterios de tiempo real, lo que refleja una baja efectividad
de pronóstico del FFM para estos dos volcanes peruano.
Las variaciones de velocidad sísmica durante los periodos pre-eruptivos se estimaron utilizando
CWI. Reportamos variaciones de velocidad aparente (AVV) de largo plazo (más de 22
años) que parecen estar relacionadas con la frecuencia de ocurrencia de intrusiones magmáticas.
Sin embargo, el modelo de intrusión de dique probados en este estudio no explica este patrón a
largo plazo. Las variaciones de velocidad pre-eruptivas a corto plazo muestran generalmente dos
fases: Una primera fase correspondiente a una ligera disminución de la velocidad ∼5 días antes
de la erupción, y una segunda fase de disminución repentina de la velocidad un día antes de la
erupción. El comportamiento precursor de los AVV indica que 12 erupciones (44.4%) fueron precedidas
por AVV ≥ 0.15% observadas al menos un día antes de la erupción. Se probaron dos
modelos para explicar las variaciones de velocidad pre-eruptivas a corto plazo. Uno basado en el
daño acumulado en la roca asociado a la actividad VT. El segundo tiene en cuenta el efecto de las
intrusiones de diques. Sin embargo, en ambos casos, la comparación de las amplitudes observadas
y modeladas de los AVV muestra coeficientes de regresión bajos. Esto sugiere que las fuentes de
generación de los cambios de velocidad sísmica son complejas y que estos modelos simples no
pueden explicar por sí solos estas observaciones.
El análisis estadístico de la tasa acelerada de eventos VT y los AVV pre-eruptivos en el volcán
PdlF indica que el 37.0% de las erupciones fueron precedidas por ambos precursores, el 48.2%
por uno de los dos precursores, y el 14.8% no fueron precedidas por ninguno. Estos resultados
sugieren que ambos precursores, las tasas aceleradas de eventos VT y AVV, pueden servir como
herramientas potenciales para la detección temprana de disturbios volcánicos en este volcán.
|
20 |
Estudio de atipia celular utilizando redes neuronales convolucionales: aplicación en tejidos de cáncer de mamaYacolca Huamán, Karla Lucía 15 February 2021 (has links)
La escala de Nottingham (NGS) se emplea para poder determinar el grado del cáncer de mama, y tiene 3 criterios a considerar: formación tubular, atipia nuclear y conteo de mitosis. A partir de los puntajes parciales de cada criterio se obtiene el grado del cáncer. Para poder asignar cada puntaje, el patólogo analiza, de forma manual, cada una de las muestras de tejido. La patología computacional surge como una alternativa para simplificar la tarea de análisis de tejido, pues integra la tecnología WSI (Whole Side Imaging), la cual permite obtener imágenes de tejido en formato digital, con herramientas de análisis de imágenes.
El procesamiento de imágenes se realiza de dos formas: por medio de algoritmos de procesamiento clásico y algoritmos de aprendizaje profundo. Estos últimos emplean redes neuronales, las cuales automatizan el proceso de análisis de imágenes, y permiten generalizar el modelo ante variantes en las imágenes de entrada. En el presente trabajo se muestra el estudio del criterio de atipia nuclear empleando redes neuronales convolucionales, las cuales son un tipo de arquitectura de aprendizaje profundo, aplicado a tejidos de cáncer de mama. Además, se presenta el modelo de solución para poder asignar el puntaje al tejido según el criterio mencionado.
|
Page generated in 0.1385 seconds