• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 135
  • 38
  • 3
  • Tagged with
  • 176
  • 42
  • 36
  • 32
  • 26
  • 25
  • 19
  • 19
  • 17
  • 16
  • 14
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Estudio de atipia celular utilizando redes neuronales convolucionales: aplicación en tejidos de cáncer de mama

Yacolca Huamán, Karla Lucía 15 February 2021 (has links)
La escala de Nottingham (NGS) se emplea para poder determinar el grado del cáncer de mama, y tiene 3 criterios a considerar: formación tubular, atipia nuclear y conteo de mitosis. A partir de los puntajes parciales de cada criterio se obtiene el grado del cáncer. Para poder asignar cada puntaje, el patólogo analiza, de forma manual, cada una de las muestras de tejido. La patología computacional surge como una alternativa para simplificar la tarea de análisis de tejido, pues integra la tecnología WSI (Whole Side Imaging), la cual permite obtener imágenes de tejido en formato digital, con herramientas de análisis de imágenes. El procesamiento de imágenes se realiza de dos formas: por medio de algoritmos de procesamiento clásico y algoritmos de aprendizaje profundo. Estos últimos emplean redes neuronales, las cuales automatizan el proceso de análisis de imágenes, y permiten generalizar el modelo ante variantes en las imágenes de entrada. En el presente trabajo se muestra el estudio del criterio de atipia nuclear empleando redes neuronales convolucionales, las cuales son un tipo de arquitectura de aprendizaje profundo, aplicado a tejidos de cáncer de mama. Además, se presenta el modelo de solución para poder asignar el puntaje al tejido según el criterio mencionado.
62

Information Retrieval Based on DOM Trees

Alarte Aleixandre, Julián 14 September 2023 (has links)
[ES] Desde hace varios años, la cantidad de información disponible en la web crece de manera exponencial. Cada día se genera una gran cantidad de información que prácticamente de inmediato está disponible en la web. Los buscadores e indexadores recorren diariamente la web para encontrar toda esa información que se ha ido añadiendo y así, ponerla a disposición del usuario devolviéndola en los resultados de las búsquedas. Sin embargo, la cantidad de información es tan grande que debe ser preprocesada con anterioridad. Dado que el usuario que realiza una búsqueda de información solamente está interesado en la información relevante, no tiene sentido que los buscadores e indexadores procesen el resto de elementos de las páginas web. El procesado de elementos irrelevantes de páginas web supone un gasto de recursos innecesario, como por ejemplo espacio de almacenamiento, tiempo de procesamiento, uso de ancho de banda, etc. Se estima que entre el 40% y el 50% del contenido de las páginas web son elementos irrelevantes. Por eso, en los últimos 20 años se han desarrollado técnicas para la detección de elementos tanto relevantes como irrelevantes de páginas web. Este objetivo se puede abordar de diversas maneras, por lo que existen técnicas diametralmente distintas para afrontar el problema. Esta tesis se centra en el desarrollo de técnicas basadas en árboles DOM para la detección de diversas partes de las páginas web, como son el contenido principal, la plantilla, y el menú. La mayoría de técnicas existentes se centran en la detección de texto dentro del contenido principal de las páginas web, ya sea eliminando la plantilla de dichas páginas o detectando directamente el contenido principal. Las técnicas que proponemos no sólo son capaces de realizar la extracción de texto, sino que, bien por eliminación de plantilla o bien por detección del contenido principal, son capaces de aislar cualquier elemento relevante de las páginas web, como por ejemplo imágenes, animaciones, videos, etc. Dichas técnicas no sólo son útiles para buscadores y rastreadores, sino que también pueden ser útiles directamente para el usuario que navega por la web. Por ejemplo, en el caso de usuarios con diversidad funcional (como sería una ceguera) puede ser interesante la eliminación de elementos irrelevantes para facilitar la lectura (o escucha) de las páginas web. Para hacer las técnicas accesibles a todo el mundo, las hemos implementado como extensiones del navegador, y son compatibles con navegadores basados en Mozilla o en Chromium. Además, estas herramientas están públicamente disponibles para que cualquier persona interesada pueda acceder a ellas y continuar con la investigación si así lo deseara. / [CA] Des de fa diversos anys, la quantitat d'informació disponible en la web creix de manera exponencial. Cada dia es genera una gran quantitat d'informació que immediatament es posa disponible en la web. Els cercadors i indexadors recorren diàriament la web per a trobar tota aqueixa informació que s'ha anat afegint i així, posar-la a la disposició de l'usuari retornant-la en els resultats de les cerques. No obstant això, la quantitat d'informació és tan gran que aquesta ha de ser preprocessada. Atés que l'usuari que realitza una cerca d'informació solament es troba interessat en la informació rellevant, no té sentit que els cercadors i indexadors processen la resta d'elements de les pàgines web. El processament d'elements irrellevants de pàgines web suposa una despesa de recursos innecessària, com per exemple espai d'emmagatzematge, temps de processament, ús d'amplada de banda, etc. S'estima que entre el 40% i el 50% del contingut de les pàgines web són elements irrellevants. Precisament per això, en els últims 20 anys s'han desenvolupat tècniques per a la detecció d'elements tant rellevants com irrellevants de pàgines web. Aquest objectiu es pot afrontar de diverses maneres, per la qual cosa existeixen tècniques diametralment diferents per a afrontar el problema. Aquesta tesi se centra en el desenvolupament de tècniques basades en arbres DOM per a la detecció de diverses parts de les pàgines web, com són el contingut principal, la plantilla, i el menú. La majoria de tècniques existents se centren en la detecció de text dins del contingut principal de les pàgines web, ja siga eliminant la plantilla d'aquestes pàgines o detectant directament el contingut principal. Les tècniques que hi proposem no sols són capaces de realitzar l'extracció de text, sinó que, bé per eliminació de plantilla o bé per detecció del contingut principal, són capaços d'aïllar qualsevol element rellevant de les pàgines web, com per exemple imatges, animacions, vídeos, etc. Aquestes tècniques no sols són útils per a cercadors i rastrejadors, sinó també poden ser útils directament per a l'usuari que navega per la web. Per exemple, en el cas d'usuaris amb diversitat funcional (com ara una ceguera) pot ser interessant l'eliminació d'elements irrellevants per a facilitar-ne la lectura (o l'escolta) de les pàgines web. Per a fer les tècniques accessibles a tothom, les hem implementades com a extensions del navegador, i són compatibles amb navegadors basats en Mozilla i en Chromium. A més, aquestes eines estan públicament disponibles perquè qualsevol persona interessada puga accedir a elles i continuar amb la investigació si així ho desitjara. / [EN] For several years, the amount of information available on the Web has been growing exponentially. Every day, a huge amount of data is generated and it is made immediately available on the Web. Indexers and crawlers browse the Web daily to find the new information that has been added, and they make it available to answer the users' search queries. However, the amount of information is so huge that it must be preprocessed. Given that users are only interested in the relevant information, it is not necessary for indexers and crawlers to process other boilerplate, redundant or useless elements of the web pages. Processing such irrelevant elements lead to an unnecessary waste of resources, such as storage space, runtime, bandwidth, etc. Different studies have shown that between 40% and 50% of the data on the Web are noisy elements. For this reason, several techniques focused on the detection of both, relevant and irrelevant data, have been developed over the last 20 years. The problems of identifying the relevant content of a web page, its template, its menu, etc. can be faced in various ways, and for this reason, there exist completely different techniques to address those problems. This thesis is focused on the development of information retrieval techniques based on DOM trees. Its goal is to detect different parts of a web page, such as the main content, the template, and the main menu. Most of the existing techniques are focused on the detection of text inside the main content of the web pages, mainly by removing the template of the web page or by inferring the main content. The techniques proposed in this thesis do not only extract text by eliminating the template or inferring the main content, but also extract any other relevant information from web pages such as images, animations, videos, etc. Our techniques are not only useful for indexers and crawlers but also for the user browsing the Web. For instance, in the case of users with functional diversity problems (such as blindness), removing noisy elements can facilitate them to read (or listen to) the web pages. To make the techniques broadly accessible to everybody, we have implemented them as browser extensions, which are compatible with Mozilla-based and Chromium-based browsers. In addition, these tools are publicly available, so any interested person can access them and continue with the research if they wish to do so. / Alarte Aleixandre, J. (2023). Information Retrieval Based on DOM Trees [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196679
63

Teclado Controlado por Posición Ocular Utilizando Referencias Propias del Rostro

Cament Riveros, Leonardo January 2008 (has links)
No description available.
64

Diseño e implementación de un sistema supervisor con modelos basados en similitud para la detección y aislamiento de fallas en turbina a gas natural

Fuentealba Toro, Sebastián Felipe January 2012 (has links)
Ingeniero Civil Electricista / Debido al constante aumento en los estándares de producción y calidad, así como las exigencias impuestas por estrictas normativas ambientales y de seguridad, existe en la industria moderna la necesidad de incrementar la eficiencia y complejidad de los sistemas de control asociados. Sin embargo, existen perturbaciones que no pueden ser eficazmente manejadas por los controladores a menos que exista una adecuada caracterización del modo de operación. He ahí la necesidad de incorporar sistemas de monitoreo para detección y aislamiento de anomalías que pudiesen condicionar el funcionamiento del proceso. En este sentido, el objetivo general de este trabajo es diseñar e implementar un sistema supervisor en línea con modelos basados en similitud (SBM) que permita la detección y el aislamiento de anomalías en procesos industriales multivariados y en particular, en el caso de una turbina a gas natural. El diseño del sistema supervisor incluye una etapa preliminar fuera de línea y de tres etapas que operan en tiempo real. La etapa preliminar corresponde al análisis del proceso en estudio y de los modos de falla de interés, así como la generación de los modelos SBM que serán utilizados en la etapa de implementación en línea. A través de esta metodología de estudio de eventos se determinan las variables más relevantes en cada anomalía con el fin de optimizar el procedimiento de generación de modelos. Las etapas asociadas a la implementación en línea se han denominado fases . Fase I genera una señal de alarma si la salida estimada por un modelo clasificador SBM, diseñado en la etapa preliminar, supera un umbral determinado en la etapa preliminar. Si se produce una alarma, entonces se ejecuta la Fase II que determina el vector de residuos entre las salidas medidas y las salidas estimadas por el modelo SBM, para cada posible anomalía en gestación. Fase III calcula el indicador de Hotelling de cada vector de residuos. Se genera una alarma de anomalía si este indicador supera un umbral determinado en la etapa preliminar. Este sistema es aplicado en una turbina a gas natural para el estudio de dos anomalías que ocasionan una disminución significativa en la potencia: (i) temperatura de un álabe fuera de rango (Anomalía #1) y, (ii) suciedad excesiva en el compresor (Anomalía #2). Los porcentajes de detección de las Anomalías #1 y #2 son 96% y 76%, respectivamente. Estos porcentajes se estiman en función del número de datos. Debido al tamaño de los conjuntos de datos disponibles, es imposible en esta aplicación utilizar probabilidades para caracterizar al sistema supervisor. Las principales ventajas de disponer de este sistema supervisor son: (1) con una metodología de estudio de eventos, se obtienen aquellas variables que son más relevantes en cada anomalía, (2) con la Fase I se logran descartar del análisis aquellas observaciones que representan un modo normal de operación y (3) a través de señales binarias Normal o Alarma se logra centralizar la información que entregan todos los modelos.
65

Evaluación y mejora de un sistema de reconocimiento de iris a distancia utilizando cámara de alta resolución

Yonekura Baeza, Sebastián January 2014 (has links)
Ingeniero Civil Eléctrico / Los sistemas biométricos corresponden a sistemas que realizan el reconocomiento automático de individuos a través de atributos únicos. Para que un patrón biométrico sea utilizable, debe cumplir ciertas propiedades, entre ellas las más importantes son: universalidad; invarianza en el tiempo; fácil recolección y almacenamiento. Se considera que el iris cumple con todas estas características y ha sido utilizado en sistemas de reconocimiento por más de una década. A medida que ha transcurrido el tiempo, los sistemas basados en reconocimiento de iris han mejorado considerablemente con respecto a su exactitud, sin embargo, aún se utilizan sistemas altamente cooperativos y en particular en condiciones de iluminación dañinas para la salud, por lo que la comunidad de investigadores se ha volcado en torno a relajar las restricciones en las que operan estos sistemas, con el fin de mejorar la experiencia de uso y la calidad de vida de los usufructuarios. En este trabajo se evalúa un sistema de reconocimiento de iris a distancia, en donde se utilizan las características de color y textura del mismo para llevar a cabo la clasificación. El trabajo abarca el estudio de distintos algoritmos de preprocesamiento de imágenes, esquemas de codificación y comparación propuestos durante los últimos años, los cuales se evalúan cada uno por separado y finalmente se utilizan en conjunto, además de describir el método propuesto para computar la desición final del sistema. El algoritmo se evalúa en una base de datos que consta de 1505 imágenes correspondientes a 54 sujetos, tomadas a una distancia aproximada de 1.5 [m] de distancia de la cámara utilizando iluminación de espectro visible. A partir de esta base de datos se seleccionan las mejores imágenes de iris utilizando distintos sistemas de evaluación de enfoque, luego se particiona en una base de datos de entrenamiento de parámetros y otra de validación, y finalmente se muestran los resultados con respecto a la base de datos de validación. Se utilizaron kernels para evaluar el enfoque de las imágenes capturadas, en particular los propuestos por Daugman, Kang y Wei y se observó que el kernel de Daugman resulta ser más efectivo. Se utilizaron distintos métodos de corrección de enfoque, reducción de ruido y ecualización de imágenes combinados para mejorar la tasa de reconocimiento del sistema, y se concluyó que el filtro de Wiener para reducir el ruido otorga los mejores resultados. Se implementó un sistema de codificación generalizada para aumentar arbitrariamente la cantidad de bits que se obtienen por cada pixel de la imagen, concluyendo que el mejor tamaño de codificación fue de 4 bits por pixel luego de reducir el ruido en las imágenes utilizando el filtro de Wiener. Se implementó un mapa de pesos por cada usuario registrado en la base de datos, la cual se encarga de otorgarle mayor peso a los bits que a priori son menos variables entre muestras, lo que aumentó la exactitud promedio desde 17.72% a 26.6% utilizando sólo esta mejora, con 5 imágenes por usuario enrolado. Se evaluaron dos métodos para clasificar el iris de acuerdo a su coloración, diferencia promedio y distancia de difusión, en donde se concluyó que la diferencia promedio otorga mejores resultados, sin embargo esta característica no es lo suficientemente discriminadora como para ser utilizada por sí sola. El resultado final del índice de reconocimiento del sistema al utilizar todas las mejoras antes mencionadas y fusionando las características de textura iridal y color de iris de ambos ojos es del 90.77%, con una tasa de aceptación de impostores del 0% en promedio.
66

Sistema estático y de flujo con detección fotométrica en análisis catalítico mediante adición continua de catalizador a una disolución de referencia

Grané Teruel, Nuria 19 September 1989 (has links)
CAICYT (proyecto 955/84)
67

Formación de imágenes para detección de cáncer de mama empleando tecnología microondas

Villavicencio Paz, Arantxa 21 February 2019 (has links)
El presente trabajo consiste en la formación de imágenes que permitan detectar tempranamente los tumores mamarios. Para ello, se hará uso de un sistema de recolección de datos físico, haciendo uso de la tecnología microondas por medio de antenas y un equipo Analizador de Redes Vectoriales (VNA). Estos datos serán procesados con algoritmos computacionales para lo obtención de las imágenes. El primer capítulo presenta una descripción del marco problemático actual, donde se considera tanto la incidencia como la mortalidad por cáncer de mama en relación con la importancia de la detección temprana. Luego, se hace una mención breve sobre alguna de las tecnologías actuales que se encuentran destinadas a la imagenología de la mama, lo cual brinda una visión de en qué campos puede desenvolverse la presente investigación y los parámetros a evaluar que se contemplan para una útil formación de imágenes. Por último, con todo lo anterior se plantea la justificación y los objetivos de estas tesis. En el segundo capítulo se expone qué son las propiedades dieléctricas y cómo es que las propiedades de los componentes de una mama brindan información suficiente para la formación de imágenes en base a tecnología microondas. Además, se mencionan las distintas técnicas microondas para formación de imágenes y se logra enfatizar en las basadas en radar, ya que estas competen a la aplicación en este trabajo. Finalmente, se explica brevemente lo que son los parámetros de dispersión, datos base de información para el procesamiento que son brindados por el equipo VNA. El tercer capítulo consiste en el planteamiento de distintos puntos requeridos para el sistema final. Por un lado, se plantea el desarrollo del fantoma de pruebas que simula las propiedades eléctricas de una mama, para lo cual se emplea una técnica basada en cavidades resonantes que permite medir la permitividad de los materiales a usar. Esta medición de permitividad permite comprobar si los valores de los materiales corresponden a los esperados. Por otro lado, se describen dos sistemas para formación de imágenes basados en radar: Confocal y Holográfico. Para ello, se considera el mecanismo de sus algoritmos, los requerimientos para la recolección de pruebas experimentales y, finalmente, las pruebas de factibilidad de estos en la detección de objetos. Las imágenes obtenidas permiten comparar ambos métodos. Además, se realiza una prueba adicional de distribución espacial de antenas para el sistema holográfico, buscando distinguir la distribución con mejores resultados. / Tesis
68

Modelo físico de la corrección atmosférica en las imágenes de satélite

Xu, Han January 2014 (has links)
Publicación a texto completo no autorizada por el autor / Aplica un modelo físico de corrección atmosférica a los datos imágenes del sensor AVHRR/3 (Advanced Very High Resolution Radiometer) a bordo del satélite NOAA-16 (National Oceanic and Atmospheric Administration) para el área de estudio que abarca el Perú. El territorio peruano se ubica en las latitudes de 0° 02' 00" S a 18°21'03" S y las longitudes de 81°19'35" W a 68°39'00" W. Los datos imágenes AVHRR/3 – NOAA-16 utilizados son de formato LAC (Local Area Coverage) de Level 1b que contiene dos cabeceros auxiliares y las imágenes originales de los 5 canales en 10 bits. El primer cabecero consiste de 512 bytes y está en ASCII (American Standard Code for Information Interchange), el segundo cabecero consiste de 15872 bytes y está en binario. El procesamiento inicial de los datos imágenes de los canales 1 y 2 del sensor AVHRR/3 consiste en la calibración radiométrica, corrección atmosférica y corrección geométrica. Los coeficientes de calibración radiométrica se encuentran disponibles en el cabecero del archivo de datos LAC. La corrección atmosférica para los canales 1 y 2 es aplicada usando el modelo físico SMAC (Simplified Method for the Atmospheric Correction of Satellite Measurements in the Solar Spectrum). El algoritmo SMAC, originalmente en lenguaje C, ha sido obtenido y compilado en el lenguaje de programación IDL. Se ha estimado la reflectancia fuera de la atmósfera o reflectancia TOA (Top of Atmosphere,), luego la reflectancia de la superficie del suelo y finalmente se ha estimado el NDVI del área de estudio, usando la técnica de Compuesto de Valores Máximos (CVM). Se ha comparado el valor promedio del NDVI–AVHRR/3 y del NDVI–MODIS/TERRA, ambos de 32 días, obteniéndose porcentajes de errores menores que 35% y son aceptables. Los resultados de este trabajo servirán para el desarrollo del sistema de vigilancia de la sequía usando datos imágenes de satélites. Es decir, los algoritmos de calibración, corrección atmosférica y geométrica se aplicarán a toda la base de datos imágenes AVHRR-NOAA en el periodo 1981-2012. / Tesis
69

Estrategias para identificar oclusiones y planificación monocular para una mejora de la percepción visual de la escena

Gil, Pablo 17 April 2008 (has links)
Esta Tesis doctoral está orientada al estudio de estrategias y técnicas para el tratamiento de oclusiones. Las oclusiones suponen uno de los principales problemas en la percepción de una escena mediante visión por computador. Las condiciones de luz, los puntos de vista con los que se captura información de la escena, las posiciones y orientaciones de los objetos presentes en la escena son algunas de las causas que provocan que los objetos puedan quedar ocluidos parcialmente. Las investigaciones expuestas en esta Tesis se pueden agrupar en función de su objetivo en dos grupos: técnicas cuya finalidad es detectar la presencia de oclusiones y estrategias que permiten mejorar la percepción de un sistema de visión por computador, aun en el caso de la presencia de oclusiones. En primer lugar, se han desarrollado una serie de técnicas orientadas a la detección de oclusiones a partir de procesos de extracción de características y de segmentación color en imágenes. Estas técnicas permiten definir qué regiones en la imagen son susceptibles de considerarse zonas de oclusión, debido a una mala percepción de la escena, como consecuencia de observarla con un mal punto de vista. Como aplicación de estas técnicas se han desarrollado algoritmos basados en la segmentación color de la imagen y en la detección de discontinuidades mediante luz estructurada. Estos algoritmos se caracterizan por no incluir conocimiento previo de la escena. En segundo lugar, se han presentado una serie de estrategias que permiten corregir y/o modificar el punto de vista de la cámara con la que se observa la escena. De esta manera, las oclusiones identificadas, mediante los métodos expuestos en la primera parte de la Tesis, y que generalmente son debidas a una mala localización de la cámara pueden ser eliminadas o atenuadas cambiando el punto de vista con el que se produce la observación. En esta misma línea se presentan dos estrategias para mejorar la posición y orientación espacial de la cámara cuando ésta se emplea para la captura de imágenes en procesos de reconocimiento. La primera de ellas se basa en la retroproyección de características obtenidas de una imagen real, a partir de una posición cualquiera, en imágenes virtuales correspondientes a las posibles posiciones que puede adoptar la cámara. Este algoritmo lleva a cabo la evaluación de un mapa de distancias entre estas características buscando en todo momento, maximizar estas distancias para garantizar un mejor punto de vista. La ventaja radica en que en ningún caso se hace necesario mover la cámara para determinar una nueva posición que mejore la percepción de la escena. La segunda de estas estrategias, busca corregir la posición de la cámara buscando la ortogonalidad. En este caso, se ha partido de la hipótesis inicial de que la mayor superficie visible siempre se suele conseguir situando la cámara ortogonalmente al plano en el que se sitúa el objeto.
70

Análisis de series de datos de teledetección de índices de vegetación

García Ferrández, Miguel Antonio 26 February 2015 (has links)
No description available.

Page generated in 0.0371 seconds