• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 77
  • 39
  • Tagged with
  • 116
  • 116
  • 58
  • 55
  • 49
  • 46
  • 43
  • 43
  • 43
  • 43
  • 43
  • 36
  • 32
  • 27
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Aplicación de aprendizaje profundo para la detección y clasificación automática de insectos agrícolas en trampas pegantes: una revisión de literatura

Córdova Pérez, Claudia Sofía 02 February 2021 (has links)
El presente trabajo de investigación busca hacer una revisión sistemática sobre las técnicas actuales que se usan para solucionar problemas de identificación y clasificación de plagas de insectos, los cuales pueden ser para detectar uno o más tipos de insectos. Dentro de esta revisión, se encontró soluciones como algoritmos de segmentación con cambio de espacio de color, lo cual permite remover el fondo de una imagen y centrarse únicamente en el objeto de interés; también, el uso de modelos de detección, por ejemplo YOLO y Faster R-CNN, los cuales están conformados por redes neuronales convolucionales para lograr la identificación de insectos plaga; además, se encontraron soluciones que hacían uso de SLIC (Simple Linear Iterative Clustering), así como el uso de un análisis multifractal. Un aspecto relevante a tomar en cuenta para saber qué tan eficientes están siendo estas soluciones son las métricas de evaluación con sus respectivos valores obtenidos; sin embargo, estos resultados solo pueden ser comparables si se usa el mismo dataset para entrenamiento y validación. Por consiguiente y dado que la mayoría de estudios recopilados usa un conjunto de datos propio, los resultados mostrados nos sirven para tener una idea de la eficacia de sus soluciones, mas no para comparar los valores de las métricas de evaluación de los distintos aproximamientos tomados en cada estudio revisado. Finalmente, el único insecto plaga que afecta los campos de hortalizas en el Perú y fue encontrado dentro de los estudios fue la mosca blanca. Los demás estudios abordan el problema de detección con otros tipos de insectos, los cuales no son relevantes para el problema de plagas en Perú, sin embargo, sus soluciones son consideradas pues el cambio que se tendría que hacer es en el conjunto de datos que alimenta a las soluciones presentadas en los estudios encontrados.
32

Clasificación de proteínas repetidas basado en su información estructural utilizando aprendizaje de máquina

Tenorio Ku, Luiggi Gianpiere 12 February 2021 (has links)
En los últimos años, las proteínas repetidas, las cuales son caracterizadas por poseer regiones que se repiten a lo largo de su estructura, han demostrado poseer un rol fundamental dentro de la naturaleza. Esta importancia se debe a sus propiedades funcionales que toman relevancia dentro de varios procesos biológicos como la salud, el desarrollo neuronal y la ingeniería de proteínas. Debido a ello, una tarea, dentro del área de estudio de estas proteínas, es la identificación y clasificación de estas, lo que permite identificar las propiedades funcionales que posee. Asimismo, en la actualidad, existen métodos complejos para la clasificación e identificación de proteínas repetidas a partir de su estructura, los cuales implican un uso intenso y costoso de recursos computacionales. Además, por la aparición de nuevos procesos experimentales, las proteínas recientemente descubiertas por año se incrementan de forma exponencial. En consecuencia, ello obliga que estos procesos realicen una gran cantidad ejecuciones y generen una gran cantidad de archivos que se traducen en grandes costos de procesamiento y almacenamiento. En este proyecto se busca implementar un modelo de aprendizaje de máquina con la capacidad de detectar la presencia de regiones repetidas dentro de una cadena proteica con el fin de que esta información sea útil para procesos más complejos como ReUPred para que eviten procesar grandes cantidades de datos irrelevantes. Dicho objetivo, implica la construcción de un proceso de transformación de datos necesaria para extraer las características estructurales de la cadena de proteína y formar la representación de datos a utilizar como entrada para el desarrollo, entrenamiento y validación del modelo. Adicionalmente, se plantea desplegar dicho modelo mediante un servicio web para que pueda ser utilizado por otros investigadores del área.
33

Incremento de la actividad digital y facturación de los clientes para el producto de tarjeta de crédito en una entidad bancaria mediante el uso de Machine Learning

Diestra Ñañez, Joselin Rosemary 19 February 2024 (has links)
En los últimos años, el comercio electrónico y la transformación digital han presentado un auge, han experimentado un crecimiento exponencial impulsado por la pandemia del COVID-19 debido a que en todo el mundo se vivieron las restricciones de movilidad que generaron que tanto las empresas como las personas se “digitalicen” y por lo tanto proporcionen y compren, respectivamente, cada vez más productos y servicios en línea (UNCTAD, 2021). Es así que las entidades bancarias, vieron aquí una oportunidad de crecimiento, ya que ellas brindan a los clientes tarjetas de crédito con las que se pueden realizar consumos de forma digital y con las que, a su vez, por cada consumo ganan una comisión. Diferentes empresas han logrado incrementar sus ventas o los consumos de sus clientes significativamente gracias a la implementación de estrategias de comercio electrónico efectivas utilizando la herramienta de Machine Learning. Según Vlačić et al. (2021), la Inteligencia artificial (IA) se utiliza cada vez más para enriquecer las estrategias de marketing mediante el análisis de las relaciones entre los consumidores y las marcas. Una gran variedad de empresas utiliza la IA y Machine Learning (ML) con el fin de buscar entender mejor las necesidades de los consumidores, predecir la demanda a futuro y optimizar el servicio que se brinda a los clientes (De Mauro et al., 2022). El presente informe describe un proyecto en el que se utilizó la tecnología de Machine Learning para predecir la propensión al consumo e-commerce con tarjeta de crédito de los clientes de una entidad bancaria. El objetivo del proyecto es incrementar dos indicadores clave del negocio: el porcentaje de clientes que consumen de forma digital con su tarjeta de crédito en el mes y la facturación, es decir, el monto total consumido por los clientes; para ello, se desarrollaron modelos de Machine Learning con los que se predice qué clientes son los más propensos al consumo e-commerce con tarjeta de crédito (TC) y quienes los menos propensos, logrando así que el negocio pueda usar esta valiosa información para el rediseño, mejora y optimización de sus estrategias de incentivo y lanzamiento de campañas a los clientes TC.
34

Diseño de un sistema de sensado de bajo costo para una red de monitoreo en tiempo real de contaminantes atmosféricos presentes en zonas urbanas

Mendoza Jacinto, Juan Manuel 12 November 2020 (has links)
La expansión de las ciudades producto del desarrollo de la industria y la explosión demográfica viene afectando la calidad de vida de sus habitantes. Por un lado, la mayoría de actividades industriales como parte de sus procesos desecha contaminantes que afectan el medio ambiente. Por otro lado, el crecimiento de la ciudad ha fomentado el desarrollo de actividades que responden a satisfacer necesidades ciudadanas siendo una de las principales el transporte, que presenta problemas tales como la informalidad y la obsolescencia del parque automotor, cuya principal consecuencia es el incremento del nivel de contaminación. Siguiendo las recomendaciones de la OMS para material contaminante suspendido en aire urbano, diversas instituciones gubernamentales en el Perú han establecido límites para la concentración de una serie de contaminantes, así como, ha realizado el monitoreo de los mismos en puntos estratégicos de la ciudad de Lima. Sin embargo, las soluciones empleadas en la actualidad son alternativas costosas y requieren de personal especializado para su operación, por lo que son escasas e insuficientes. Acorde a esta problemática, la presente tesis describe el desarrollo de un nodo sensorial de costo inferior a 800 USD, de dimensiones inferiores a 1m3 y peso menor a 25kg, capaz de determinar la concentración de gases contaminantes tales como el CO, NO2 y PM2.5 dentro de los rangos recomendados por el MINSA. El sistema desarrollado minimiza su costo de operación al abastecerse de energía mediante paneles solares funcionando al 25% de su capacidad de captación lumínica, además de contar con la capacidad para funcionamiento de emergencia de 12h y los equipos necesarios para determinar las principales variables meteorológicas. Durante el presente trabajo, se siguió la metodología de diseño mecatrónico planteada por la norma VD2206 adaptada a sistemas ciber-físicos comprobándose su pertinencia en procesos de desarrollo similares. Así mismo, se comprobó con un prototipo de baja fidelidad la capacidad del sistema para enviar datos en tiempo real a través de internet hacia la plataforma IOT de IBM (Watson). Finalmente, se elaboró la propuesta de un modelo para la ubicación de una red de estos nodos sensoriales y su optimización mediante algoritmos de aprendizaje automático.
35

Aplicaciones de visión artificial para ayuda a personas con dificultades visuales

Alashhab, Samer 01 July 2022 (has links)
La discapacidad visual es considerada la mayor discapacidad sensorial, la cual determina en gran medida la vida de una persona tanto en la interacción con su entorno como con la sociedad. La Organización Mundial de la Salud (OMS) informa de que al menos 2.200 millones de personas en todo el mundo padecen deficiencia visual o ceguera, lo cual convierte en una cuestión prioritaria la investigación en soluciones que sirvan de ayuda para que estas personas superen los retos con los que se enfrentan en su día a día. Existen ayudas para las personas ciegas o con dificultades visuales, como los perros guía, los bastones, el sistema braille, etc. Sin embargo, aún así, hay multitud de tareas que les resultan difíciles o incluso imposibles, como por ejemplo orientarse en entornos desconocidos o leer textos no adaptados, entre otros. Para estas tareas también podemos encontrar herramientas basadas en la tecnología, como por ejemplo aplicaciones de teléfonos móviles de ayuda a la lectura o a la orientación, aunque habitualmente estas aplicaciones resultan muy básicas y están desarrolladas para un solo propósito, por ejemplo, ampliar un texto, detectar un color, etc. Los recientes avances producidos en el campo de la Inteligencia Artificial y, más concretamente, en el Deep Learning, han creado nuevas posibilidades para el desarrollo de aplicaciones avanzadas de ayuda en tareas en las que antes no era posible. Estos avances se han unido al incremento en la capacidad hardware de los teléfonos móviles, los cuales han pasado de ser simples medios de comunicación a tener una potencia de cálculo casi equivalente a la de un ordenador. Todo esto ha producido que estos dispositivos constituyan en la actualidad una herramienta muy importante para la ayuda a este colectivo. La cuestión central que se aborda en esta tesis doctoral es la investigación en métodos de visión artificial que permitan el reconocimiento de gestos realizados con las manos y, en función del gesto, facilitar diferentes tipos de información. El objetivo es el desarrollo de un sistema eficiente y de bajo coste destinado a dispositivos móviles que permita interactuar mediante gestos con el dispositivo y sea capaz de realizar múltiples acciones de ayuda a personas con discapacidad visual. Se busca con ello un método de interacción humano-máquina que resulte natural, rápido, intuitivo y accesible, y que integre diferentes acciones sin necesidad de utilizar la pantalla táctil para activarlas o cambiar de aplicación. Para ello se define un conjunto de gestos con los que interactuar con la aplicación, cada uno de los cuales desencadena una acción diferente, por ejemplo apuntar a un objeto para obtener una descripción del mismo, apuntar con dos dedos para centrar y arrastrar a la posición señalada, hacer la forma de una lupa con la mano para obtener la descripción de la escena, o hacer un gesto de tipo "Pellizco" para hacer zoom. En este último caso tendríamos un gesto dinámico, ya que abriendo y cerrando los dedos podremos ajustar el nivel de zoom, mientras que los otros casos son ejemplos de gestos estáticos. Para gestionar todas estas acciones se propone un método eficiente que realiza de forma conjunta tanto la clasificación y la localización de gestos como las acciones asociadas a cada gesto. Este método se basa en una red multi-head compuesta por un backbone común al que se conectan diferentes cabezas (heads) para realizar las tareas especializadas (como por ejemplo la descripción del objeto o la escena, el control de los niveles de zoom, etc.). Las cabezas aprovechan las características comunes extraídas por el backbone y además solo se activan si se detecta su correspondiente gesto, lo que resulta en una arquitectura altamente eficiente. Además, para la tarea de la localización de los gestos se propone un nuevo enfoque débilmente supervisado que permite transformar una red de clasificación en un método para la localización de objetos, resultando también en una solución eficiente al no requerir una nueva arquitectura. Para evaluar la metodología propuesta se han creado tres conjuntos de datos diferentes con un total de unas 44 mil imágenes, incluyendo imágenes reales y sintéticas de gestos, y un conjunto de datos que contiene descripciones de las escenas. Todas estas imágenes se han etiquetado a varios niveles, indicando la categoría de toda la imagen, la posición de la mano y de la punta del dedo índice, y la posición y descripción de los objetos señalados. Para cada uno de los pasos del método propuesto se ha realizado un conjunto de experimentos, tanto para ajustar sus parámetros como para compararlo con alternativas del estado del arte, incluyendo redes neuronales convolucionales, redes de detección de objetos, redes de segmentación, así como la evaluación de diferentes tamaños de entrada, técnicas de inicialización y de aumentado de datos. La experimentación realizada muestra buenos resultados tanto a nivel de precisión como de eficiencia del método. Al comparar los resultados de cada una de las cabezas especializadas con otros enfoques del estado del arte, incluyendo opciones específicas para esas mismas tareas, los mejores resultados (o casi los mejores) se obtienen en todos los casos mediante la arquitectura propuesta. Además, este método también ha mostrado un buen desempeño en los dispositivos móviles actuales reportando tiempos de procesamiento promedio de entre 3-4 FPS en pruebas realizadas en dispositivos Samsung A51 y Huawei P30 lite.
36

Desarrollo de técnicas de computación evolutiva : multiobjetivo y aprendizaje automático para la inferencia, modelado y simulación de redes regulatorias

Gallo, Cristian Andrés 19 March 2014 (has links)
Durante las últimas décadas el desarrollo de la bioinformática nos ha permitido lograr una mayor comprensión de los procesos biológicos que ocurren con nuestras células a nivel molecular. Al respecto, las mejoras e innovaciones en la tecnología continúan estimulando la mejora en la calidad de los datos biológicos que pueden ser obtenidos a nivel genómico. En tal sentido, grandes volúmenes de información pueden ser encontrados en formas de anotaciones o bases de datos computacionales. Estos conjuntos de datos, apropiadamente combinados, tienen el potencial de posibilitar descubrimientos novedosos que lleven a avances en campos tan relevantes para el desarrollo nacional como son la biotecnología o la medicina post-genómica. En particular, esta tesis se centra en la investigación de técnicas de aprendizaje automático y computación evolutiva para la inferencia de redes regulatorias de genes a partir de datos de expresión de genes, a nivel de genomas completos. Una red regulatoria de genes es una colección de segmentos de ADN (ácido desoxirribonucleico) en una célula que interactúan unos con otros (indirectamente a través del producto de su expresión) y con otras sustancias en la célula, gobernando así las tasas de transcripción de los genes de la red en ARNm (ácido ribonucleico mensajero). La principal contribución de esta tesis esta relacionada con el desarrollo de metodologías computacionales que asistan, a expertos en bioinformática, en la ingeniería inversa de las redes regulatorias de genes. En tal sentido, se desarrollaron algoritmos de computación evolutiva que permiten la identificación de grupos de genes co-expresados bajo ciertos subconjuntos de condiciones experimentales. Estos algoritmos se aplican sobre datos de expresión de genes, y optimizan características deseables desde el punto de vista biológico, posibilitando la obtención de relaciones de co-expresión relevantes. Tales algoritmos fueron cuidadosamente validados por medio de comparaciones con otras técnicas similares disponibles en la literatura, realizando estudios con datos reales y sintéticos a fin de mostrar la utilidad de la información extraída. Además, se desarrolló un algoritmo de inferencia que permite la extracción de potenciales relaciones causa-efecto entre genes, tanto simultáneas como también aquellas diferidas en el tiempo. Este algoritmo es una evolución de una técnica presentada con anterioridad, e incorpora características novedosas como la posibilidad de inferir reglas con múltiples retardos en el tiempo, a nivel genoma completo, e integrando múltiples conjuntos de datos. La técnica se validó mostrando su eficacia respecto de otros enfoques relevantes de la literatura. También se estudiaron los resultados obtenidos a partir de conjuntos de datos reales en términos de su relevancia biológica, exponiendo la viabilidad de la información inferida. Finalmente, estos algoritmos se integraron en una plataforma de software que facilita la utilización de estas técnicas permitiendo la inferencia, manipulación y visualización de redes regulatorias de genes. / In recent decades, the development of bioinformatics has allowed us to achieve a greater understanding of the biological processes that occur at the molecular level in our cells. In this regard, the improvements and innovations in technology continue to boost the improvement in the quality of the biological data that can be obtained at the genomic level. In this regard, large volumes of information can be found in forms of ontology's or computer databases. These datasets, appropriately combined, have the potential to enable novel discoveries that lead to progress in relevant fields to national development such as biotechnology and post-genomic medicine. In particular, this thesis focuses on the research of machine learning techniques and evolutionary computation for the inference of gene regulatory networks from gene expression data at genome-wide levels. A gene regulatory network is a collection of segments of DNA (deoxyribonucleic acid) in a cell which interact with each other (indirectly through their products of expression) and with other substances in the cell, thereby governing the rates of network genes transcription into mRNA (messenger ribonucleic acid). The main contribution of this thesis is related to the development of computational methodologies to attend experts in bioinformatics in the reverse engineering of gene regulatory networks. In this sense, evolutionary algorithms that allow the identification of groups of coexpressed genes under certain subsets of experimental conditions were developed. These algorithms are applied to gene expression data, and optimize desirable characteristics from the biological point of view, allowing the inference of relevant co-expression relationships. Such algorithms were carefully validated by the comparison with other similar techniques available in the literature, conducting studies with real and synthetic data in order to show the usefulness of the information extracted. Furthermore, an inference algorithm that allows the extraction of potential cause-effect relationships between genes, both simultaneous and time-delayed, were developed. This algorithm is an evolution of a previous approach, and incorporates new features such as the ability to infer rules with multiple time delays, at genome-wide level, and integrating multiple datasets. The technique was validated by showing its effectiveness over other relevant approaches in the literature. The results obtained from real datasets were also studied in terms of their biological relevance by exposing the viability of the inferred information. Finally, these algorithms were integrated into a software platform that facilitates the use of these techniques allowing the inference, manipulation and visualization of gene regulatory networks.
37

Desarrollo de métodos analíticos y de predicción para informática molecular basados en técnicas de aprendizaje automático y visualización

Martínez, María Jimena 06 July 2017 (has links)
Los distintos procesos involucrados en la industria química deben ser estudiados cuidadosamente con el fin de obtener productos de calidad al menor costo y causando el mínimo daño al medio ambiente (ej. industria de polímeros sintéticos y diseño racional de fármacos). Hace ya varios años que distintos métodos computacionales son utilizados en la industria química con el fin de lograr esos objetivos. En particular, el modelado QSAR/QSPR es una técnica de gran interés dentro del área de la informática molecular, ya que permite correlacionar de manera cuantitativa características estructurales de una entidad química con una determinada propiedad físico-química o actividad biológica. El objetivo de esa tesis fue desarrollar distintas metodologías para asistir a expertos en informática molecular en el proceso de predicción de propiedades fisicoquímicas o de actividad biológica. Más específicamente, las técnicas desarrolladas se enfocan en incorporar al proceso de modelado predictivo QSAR/QSPR, el conocimiento del experto en el dominio. De esta manera se logran mejorar ciertas características de los modelos, tales como su interpretación en términos físicos-químicos, las cuales permite aumentar la generalidad del modelo. Al respecto, se ha implementado una herramienta de analítica visual, denominada VIDEAN, que combina métodos estadísticos con visualizaciones interactivas para elegir un conjunto de descriptores que predigan una determinada propiedad objetivo. Otro de los aportes de esta tesis está relacionado con el dominio de aplicación de un modelo QSAR/QSPR. En este sentido, se ha implementado una técnica para determinar el dominio de aplicación de modelos de clasificación. Esto representa una novedad dado que la mayoría de las técnicas desarrolladas para este fin apuntan exclusivamente a los modelos de regresión. Los métodos implementados han sido evaluados mediante el estudio de propiedades de relevancia para tres campos de aplicación: el diseño racional de fármacos, el diseño de materiales poliméricos (plásticos) y las ciencias ambientales. Con este fin, se han desarrollado numerosos modelos predictivos de regresión y clasificación. En el área de diseño racional de fármacos, las propiedades que se estudiaron están relacionadas con el comportamiento ADMET (absorción, distribución, metabolismo, excreción y toxicidad) de los mismos: absorción intestinal humana (Human Intestinal Absorption, HIA) y el pasaje de la barrera hemato-encefálica (Blood-Brain Barrier, BBB), ambas esenciales para el desarrollo de nuevos fármacos. En el campo de los materiales poliméricos, se exploraron varias propiedades mecánicas, que proporcionan información relacionada con la ductilidad, resistencia y rigidez del material polimérico; y que, junto con otras propiedades, definen su perfil de aplicación estructural. Estas propiedades son: elongación a la rotura (elongation at break), resistencia a tensión en la rotura (tensile strength at break) y módulo elástico (tensile modulus). En el área de medioambiente, la propiedad que se estudió fue el coeficiente de distribución sangre-hígado (log Pliver) en compuestos orgánicos volátiles (VOCs), que son gases que se emiten de ciertos sólidos o líquidos y que son ampliamente utilizados como ingredientes en productos para el hogar (pinturas, los barnices, productos de limpieza, desinfección, cosmética, entre otros). Los resultados de estudios de este tipo de propiedades brindan un panorama de cómo se distribuyen estos tipos de compuestos en el organismo y pueden emplearse para la evaluación de riesgos y toma de decisiones en materia de salud pública. / The various processes involved in the chemical industry must be carefully studied in order to obtain quality products at the lowest cost and causing the least damage to the environment (e.g. synthetic polymer industry and rational drug design). During the last two decades, different computational methods have been used in the chemical industry in order to achieve these objectives. In particular, QSAR/QSPR modeling is a technique of great interest in the area of molecular informatics, since it allows to quantitatively correlate structural characteristics of a chemical entity with a given physical-chemical or biological activity. The objective of this thesis was to develop different methodologies to assist molecular computing experts in the process of predicting physicochemical or biological activity properties. More specifically, the techniques developed focus on incorporating domain expert's knowledge into the traditional automated predictive modeling process. In this way, certain characteristics of the models can be improved, such as their interpretation in physical-chemical terms, which allow to increase the generality on the model. In this sense, a visual analytics tool, called VIDEAN, has been implemented to combine statistical methods with interactive visualizations to choose a set of molecular descriptors that predict a specific target property. Another contribution of this thesis focuses on the implementation of a technique to determine the applicability domain of QSAR/QSPR classification models. In this regard, a technique has been implemented to determine the applicability domain of classification models. This represents a novelty given that most of the techniques developed for this purpose are exclusively intended for regression models. Implemented methods have been evaluated using target properties of relevance in three application areas: rational drug design, design of polymeric materials (plastics) and environmental sciences. To this end, different predictive regression and classification models were proposed that overcome in performance and interpretability to other traditional models have been developed. To this end, numerous regression and classification models have been developed. In rational drug design, the properties that were studied are related to the ADMET behavior (absorption, distribution, metabolism, excretion and toxicity): Human Intestinal Absorption (HIA) and Blood-brain barrier (BBB), both essential for the development of new drugs. In the field of polymeric materials, various mechanical properties, which provide information related to the ductility, strength and rigidity of the polymeric material were explored, and which, along with other properties define its structural application profile. These properties are: elongation at break, tensile strength at break and tensile modulus. In environment area, the property studied was the blood - liver distribution coefficient (log Pliver) in volatile organic compounds (VOCs), which are gases that are emitted from certain solids or liquids and are widely used as ingredients in products for the home (paints, varnishes, cleaning products, disinfection, cosmetics, among others). The results obtained from this studies provide an overview of how these types of compounds are distributed in the body and can be used for risk assessment and public health decision making.
38

Caracterización y clasificación automática de ríos en imágenes satelitales

Brown Manrique, Kevin 16 June 2017 (has links)
En los últimos años, el fenómeno conocido como cambio climático se está volviendo cada vez más notorio. Como resultado de este fenómeno, uno de los sectores que se verá más afectado será el de los recursos hídricos debido al impacto que se tendrá sobre el ciclo hidrológico y en los sistemas de gestión de agua, y a través de estos, en los sistemas socioeconómicos. Uno de los impactos conocidos es el conjunto de modificaciones en los patrones de precipitación y caudal de los ríos que afectarán a todos sus usuarios. Los caudales de ríos se forman por sedimentos que han sido y están siendo transportados por agua que fluye y por lo general se pueden clasificar en 4 formas básicas: rectos, meandros, trenzados y anastomosados. Es importante el tener reconocidos los distintos ríos y para ello no basta con conocer su localización sino además tener mapeadas las características de estos según su canal aluvial. Uno de los métodos tradicionales para caracterizar la morfología de un río (anchura, sinuosidad, características de inundación, etc.) es a través de trabajo de campo, que es costoso y demanda tiempo. Estos métodos no sólo consumen tiempo, sino que además, son extremadamente difíciles de llevar a cabo debido a que están sujetos a factores como inundaciones, mareas y tormentas que pueden hacer el lugar inaccesible y peligroso para recolectar información. El presente proyecto de fin de carrera propone una solución ante el problema de la dificultad y alto costo que supone la realización del trabajo de campo que permita caracterizar la morfología de un río. La solución planteada es una nueva técnica computacional para la caracterización automática de la morfología de los ríos, Dimensión Fractal Multi-escala, el cual aprovecha las características fractales de formación de elementos naturales como los ríos. El proyecto inicia con un proceso de limpieza de ruido a los datos de entrada que son esqueletos de ríos, para luego, por cada uno, aplicar el método de Crossing Number para obtener la multiplicidad de canal. Seguidamente, se elaborará una Curva Fractal aplicando el método de Dimensión Fractal Multiescala y de la curva obtenida se extraerán puntos de interés para generar un vector de características necesario para la clasificación. A continuación, se entrenará un clasificador empleando los vectores de características para generar un modelo predictivo. Finalmente, el modelo será evaluado mediante la clasificación de un nuevo esqueleto de río.
39

Automatic lymphocyte detection on gastric cancer IHC images using deep learning

García Ríos, Emilio Rafael 19 January 2018 (has links)
Tumor-infiltrating lymphocytes (TILs) have received considerable attention in recent years, as evidence suggests they are related to cancer prognosis. Distribution and localization of these and other types of immune cells are of special interest for pathologists, and frequently involve manual examination on Immunohistochemistry (IHC) Images. We present a model based on Deep Convolutional Neural Networks for Automatic lymphocyte detection on IHC images of gastric cancer. The dataset created as part of this work is publicly available for future research. / Tesis
40

Método semi-supervisado para detectar, clasificar y anotar en un corpus de suicidio textos extraídos de entornos digitales

Acuña Caicedo, Roberto Wellington 31 January 2023 (has links)
La presente tesis doctoral, con un enfoque cualicuantitativo (mixto), se enmarca en la línea del análisis de sentimientos en redes sociales, forma parte del proyecto Life, que busca crear una plataforma integral para detectar y brindar apoyo especializado a usuarios de redes sociales que publican textos con contenido suicida. Por ello se desarrolló el Corpus Life para realizar experimentos con algoritmos de aprendizaje automático, mismo que originalmente constaba de 102 mensajes suicidas (71 textos en inglés y 31 textos en español), 70 de estas muestras Sin Riesgo y 32 con Riesgo. Pero debido al escaso número de muestras y al desbalance entre ellas, los resultados generados no eran confiables. Por ello esta investigación tuvo como objetivo general desarrollar un método semi-supervisado para detectar, clasificar y anotar en el Corpus Life, textos extraídos de entornos digitales, con el fin de incrementar su número de anotaciones, mediante un proceso de evaluación automática de su calidad, previo a su inclusión o exclusión. Anotaciones que fueron evaluadas manualmente, utilizando para ello la medida de concordancia Cohen´s Kappa, con la participación de anotadores especializados quienes evaluaron los textos, alcanzando un nivel de acuerdo entre anotadores de 0,86, cercano al 0,78-0,81 de significancia estadística alcanzado automáticamente por medio del índice macro f1, con el método semi-supervisado. Lo que conllevo a alcanzar experimentos de un mayor grado de confiabilidad, por medio de un método estructurado con actividades, roles y procesos bien definidos y enlazados. / This doctoral thesis with a qualitative-quantitative (mixed) approach is part of the analysis of feelings in social networks that publish texts with suicidal content. For this reason, Corpus life was developed to carry out experiments with machine learning algorithms, which originally consisted of 102 suicide messages (71 texts in English and 31 texts in Spanish), 70 of these samples without risk and 32 with risk. But due to the small number of samples and the imbalance between them, the generated outcome was not reliable. Therefore, this research had the general objective of developing a semi-supervised method to detect, classify and annotate in the Corpus Life, texts extracted from digital environments, in order to increase their number of annotations, through a process of automatic assessments of their quality, prior to their inclusion or exclusion. Records which were tested manually, using the Cohen's Kappa concordance measure, with the participation of specialized annotators who evaluated the texts, reaching a level of agreement between annotators of 0.86, close to 0.78-0.81 of statistically significant reaching automatically by means of the f1 macro index, with the semi-supervised method. This led to achieving experiments with a higher degree of reliability, through a structured method with well-defined and linked activities, roles and processes.

Page generated in 0.131 seconds