• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 37
  • 3
  • Tagged with
  • 174
  • 41
  • 36
  • 31
  • 26
  • 24
  • 19
  • 18
  • 17
  • 16
  • 14
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Seguimiento de Objetos Utilizando Información Multi-Sensorial y Cooperación entre Múltiples Robots

Marchant Matus, Román January 2011 (has links)
Ingeniero Civil Electricista / En esta memoria de título se desarrolla una metodología que permite realizar la estimación del estado cinemático de múltiples robots utilizando información de variados sensores y cooperación entre robots compañeros. Para que ello sea posible, se crea un sistema capaz de detectar robots en un ambiente dinámico y estimar su posición relativa. Además, se genera un sistema externo de detección y seguimiento de robots que permite evaluar las metodologías propuestas debido a su alta precisión. Esta memoria apunta a una mejora importante de la estimación del entorno utilizando información de otros agentes, fundamentalmente debido a la ampliación de la porción observable del entorno. El primer tema abordado es la detección y la estimación de la posición de robots detectados. La información proveniente de una cámara se procesa en cada robot para generar detecciones de los objetos de interés. Además, se integran mediciones de sensores ultrasónicos para utilizar múltiples fuentes de información. Luego, se presenta una metodología de estimación de la posición relativa de objetos donde se utiliza la información proveniente de las percepciones propias y estimaciones realizadas por otros robots. Esta metodología utiliza como herramienta un algoritmo Bayesiano recursivo llamado Filtro de Kalman. Además, se soluciona el calce entre una nueva percepción recibida y un estimador, cuando se poseen objetos idénticos. En la siguiente etapa, se crea un sistema que permite generar datos precisos acerca del estado real del entorno utilizando un sensor láser y un computador externo. De esta manera, se generan datos que permiten validar la metodología propuesta para la estimación cooperativa. El correcto funcionamiento del sistema está sujeto al marco de trabajo actual, donde se poseen robots con un sistema visual ruidoso y con un campo visual limitado. Además, los robots poseen una baja capacidad de cómputo que no permite implementar algoritmos con alto consumo de recursos computacionales. Asimismo, se supone que los objetos se mueven sobre un plano geométrico y que el ruido existente se puede aproximar por una función de densidad de probabilidad Gaussiana. Los resultados indican que el perceptor visual de robots utilizando estimadores geométricos de distancia posee un error de estimación media de $14[cm]$. De igual manera, el sistema de generación de datos de validación entrega datos de muy bajo error y desviación estándar, por lo que permite evaluar las metodologías propuestas. Los resultados del método de estimación cinemática indican una mejora de la estimación al integrar múltiples fuentes de información. Se logra realizar dos publicaciones a nivel internacional, una publicación aceptada en la conferencia RoboCup 2011 y otra en proceso de revisión en una de las conferencias más importante de robótica a nivel mundial IROS 2011. Como trabajo futuro se propone generalizar el perceptor visual para situaciones más complejas donde se pueda detectar la orientación de los objetos. Además, se propone perfeccionar el sistema de generación de datos de validación para lograr una evaluación aun más confiable. Por último, se propone estimar y considerar la velocidad de los objetos para completar y mejorar la estimación del estado cinemático.
12

Valoración de la citología y la colposcopia como pruebas de detección precoz del cáncer de cuello uterino en pacientes del Instituto Nacional Materno Perinatal

Valerio Ventocilla, Gabriela Ingrid January 2016 (has links)
OBJETIVOS: El objetivo de este trabajo es evaluar la validez de la citología convencional y la colposcopía como pruebas de detección precoz de displasia moderada, severa, carcinoma in situ o carcinoma invasivo de cérvix. MÉTODOS: Se realizó un estudio tranversal de tipo retrospectivo. La población estuvo conformada por pacientes que requirieron ser sometidas a CONO LEEP durante el periodo 2012 a 2015 en el INMP. Se realizó una revisión las historias clínicas para obtener una muestra siguiendo los criterios de inclusión y exclusión. Para poder evaluar la validez de ambas pruebas, se realizó el cálculo de la sensibilidad, especificidad, valor predictivo positivo y valor predictivo negativo de las pruebas. Para ello se tomó como punto de corte a la displasia moderada (NIC II) o una lesión mayor para considerar un resultado positivo. Para comparar ambas pruebas, se realizó una comparación del área bajo la curva de ROC (AUC) de dichas pruebas. RESULTADOS: La citología presenta una sensibilidad de 39.66%, una especificidad de 91.38%, un valor predictivo positivo de 82.14%, un valor predictivo negativo de 60.23%. La colposcopía presenta una sensibilidad de 77.59%, una especificidad de 63.79%, un valor predicitivo positivo de 68.18% y un valor predictivo negativo 74%. El área bajo la curva de ROC de la colposcopía con un valor de 0.7201 fue mayor al área bajo la curva de ROC de la citología con valor de 0.6892, lo que sugiere una mejor capacidad de discriminación de la enfermedad. CONCLUSIONES: La citología y la colposcopía son pruebas con utilidad clínica para la detección de displasia moderada, displasia severa, carcinoma in situ y carcinoma invasor. La citología presenta una baja sensibilidad por el alto índice de falsos negativos posiblemente por una baja calidad en el procedimiento de la prueba. Palabras clave: Citología cervical, colposcopía, lesiones intraepiteliales de alto grado, validez diagnóstica. / --- OBJECTIVES: To assess the validity of Pap smear and colposcopy as screening tests for moderate dysplasia, severe dysplasia, carcinoma in situ or cervical cancer. METHODS: A cross-sectional retrospective study was performed. The population consisted of patients who required treatment under LEEP conization in the period 2012-2015. A review of medical records was conducted to obtain a sample by following the criteria of inclusion and exclusion. The estimation of sensitivity, specificity, positive and negative predictive value of the tests were performed in order to assess the validity of both tests. For this purpose it was taken as a cutpoint to moderate dysplasia (CIN II) or a greater injury to consider a positive result. To compare both tests, a comparison of the area under the ROC curve (AUC) of such tests was developed. RESULTS: Sensibility, specificity, positive predictive value and negative predictive value of Pap smear were 39.66%, 91.38%, 82.14%, 60.23% respectively. Sensibility, specificity, positive predictive value and negative predictive value of colposcopy were 77.59%, 63.79%, 68.18%, 74% respectively. The area under ROC curve of colposcopy was 0.7201 was greater than the area under ROC curve of cytology which had a value of 0.6892, suggesting a better ability of discrimination of the disease. CONCLUSIONS: Pap smear and colposcopy are clinically useful tests for detecting moderate dysplasia, severe dysplasia, carcinoma in situ and invasive carcinoma. Cytology has a low sensitivity for the high rate of false negatives possibly because of a low quality in the test procedure. Keywords: Pap smear, colposcopy , high-grade intraepithelial lesions , diagnostic validity. / Tesis
13

Comparación de dos métodos de detección de celo en vacas Holstein americano de alta producción

Carroza Valencia, Paulina Elizabeth January 2010 (has links)
Memoria para optar al Título Profesional de Ingeniero Agrónomo / La presente investigación tuvo como objetivo comparar el método tradicional de detección de celo (Observación visual) con la nueva tecnología desarrollada por DeLaval (Sistema de Medición de Actividad) en vacas de alta producción durante la temporada de encaste. Este estudio se llevo a cabo en la lechería de la Sociedad Agrícola Las Mercedes, XIV Región. Se utilizaron 240 vacas de la raza Holstein Americano, cuyo último parto fue normal, entre el 1° de febrero y el 15 de abril, los cuales fueron asignados al azar a 2 tratamientos: Observación visual (T1) y Sistema de Medición de Actividad (T2). Durante la temporada de encaste, se registró el signo de celo, nivel de actividad, método que detectó el celo, hora y fecha de inseminación y cubierta. Una vez finalizada la temporada, 40 días después, se realizó el diagnóstico de preñez por un médico veterinario. La eficiencia de detección de celo, alcanzó valores de 70,8 y 57,7%, respectivamente para cada tratamiento. Los resultados indican que la eficiencia de detección de celo del Sistema de Medición de Actividad fue la menor del ensayo. Sin embargo, este método no hace distinción entre el día y la noche, para detectar los celos. En cambio, la observación visual (OV) detectó el 72,1% de los celos durante el día. Al analizar los días abiertos en función de la eficiencia de detección de celo, se observa que al aumentar la eficiencia de detección de celo, el lapso parto-concepción disminuye. Por ende, el Sistema de medición de actividad obtiene el mayor lapso parto-concepción (187 días). La tasa de preñez se expresó como el producto entre la tasa de detección de celo y la tasa de concepción. La tasa de detección de celo del Sistema de Medición de Actividad (34%) fue superada por la obtenida por la observación visual (70%). Al analizar la tasa de concepción, no se encontraron diferencias significativas entre los tratamientos (P≥ 0,05), pero la tasa del Sistema de Medición de Actividad superó a la registrada por la observación visual. A pesar que el Sistema de Medición de Actividad presentó la mayor tasa de concepción, no obtuvo la mejor tasa de preñez (14,7%). No obstante, los tratamientos no presentaron diferencias significativas (P≥ 0,05) al analizar las tasas de preñez. Al comparar el índice coital del tratamiento T1 versus el tratamiento T2, no se observaron diferencia significativas (P≥ 0,05). Además, el Sistema de Medición de Actividad superó en un 28% a la observación visual, al ser analizadas las tasas de concepción al primer servicio. Cabe mencionar que los animales antes de los 60 días postparto presentaron el mismo porcentaje de concepción al primer servicio, independiente el método de detección de celo utilizado. Durante dicho periodo los animales expresan con menor intensidad los signos externos de celo, pero esta situación cambia al aumentar los días postparto. La tasa de concepción al primer servicio determinada después de los 60 días postparto presentó los siguientes valores: 55,0 y 78,0 %, respectivamente para cada tratamiento. De acuerdo a los resultados obtenidos, se puede concluir que al evaluar la eficiencia de detección de celo de cada método, el Sistema de medición de actividad es menos eficiente que la observación visual. Además, al utilizar este método de detección de celo, la mayoría de los parámetros reproductivos se ven afectados. / This study had as objective to compare the traditional method of heat detection (visual observation), with the new technology of Delaval (Activities Meter System), in high producing cows during the mating period. This investigate was realized at the Agricultural Society Las Mercedes, XIV Region. 240 American Holstein cows were used, whose last delivery was normal, between February 1st and April 15th, which were randomly assigned to two treatments: Visual observation (T1) and Activity Meter System (T2). During mating season, the sign of heat, activity level, a method that detected the heat, time and date of insemination and cover were registered. Once the season was over, 40 days later, pregnancy was diagnosed by a veterinarian. The efficiency of heat detection reached values of 70.8 and 57.7% respectively for each treatment. The results show that the efficiency of heat detection of the activity meter system was the lowest of the test. However, this method does not distinguish between day and night to detect the heats. Instead, visual observation (VO) detected 72.1% of heats during the day. When to analyze the open days depending on the efficiency of heat detection, it is observed that increasing the efficiency of heat detection, the time from labor to conception decreases. Therefore, the activity meter system obtains the highest period from labor to conception (187 days). The pregnancy rate was expressed as the product between the rate of heat detection and the conception rate. The heat detection rate of activity meter system (34%) was exceeded by that obtained by visual observation (70%). By analyzing the conception rate, no significant differences among treatments were found (P ≥ 0.05), but the rate of Activity Meter System exceeded that recorded by visual observation. Although the Activity Meter System had the highest rate of conception, it did not obtain the best pregnancy rate (14.7%). Nevertheless, the treatments did not present significant differences (P ≥ 0.05) to analyze pregnancy rates. By comparing the coital rate of the treatment T1 versus the treatment T2, no significant differences were observed (P ≥ 0.05). In addition, the Activity Meter System exceeded 28% of visual observation, when analyzed conception rates at first service. It is important to mention that the animals before 60 days postpartum had the same conception rate to first service, independent to the method of heat detection used. During that period, the animals express less intensively the external signs of heat, but this situation changes when the postpartum days are increased. The conception rate to first service determined after 60 days postpartum, presented the following values: 55.0 and 78.0%, respectively for each treatment. According to the results obtained, we conclude that when evaluating the efficiency of heat detection of each method, the activity meter system is less efficient than the visual observation. Additionally, using this method of heat detection, most reproductive parameters are affected.
14

Detección de daños en una viga simple mediante anti-resonancias y redes neuronales

Mahu Sinclair, Javier Antonio January 2012 (has links)
Ingeniero Civil Mecánico / El objetivo de este trabajo es desarrollar un algoritmo capaz de detectar, localizar y cuantificar daños en una estructura simple en tiempo real, considerando como daño la disminución en la rigidez en uno o más elementos. Para ello se propuso utilizar Redes Neuronales Artificiales (RNA), que son métodos no explícitos utilizados en problemas de aproximación de curvas, clasificación e identificación de parámetros. Se plantea utilizar como información de entrada del algoritmo las frecuencias de antiresonancia, obteniendo como resultado la disminución de rigidez efectiva para cada elemento de la estructura. El entrenamiento y validación de la red neuronal se realiza en cuatro etapas, las que se señalan a continuación: La determinación de las frecuencias características, resonantes y antiresonantes. Generación de patrones de entrenamiento. El diseño y entrenamiento de la RNA. La validación analítica y experimental, del algoritmo de detección de daños. En la realización de este trabajo se ha conseguido entrenar redes neuronales capaces de detectar hasta 2 daños simultáneos entre 20 posibles ubicaciones a lo largo de una viga. Los resultados fueron validados con datos de vigas experimentales, a las que se les introdujo daño de forma artificial. La red utilizada es una red neuronal multicapa de una capa oculta, que presenta un 32,64% de falsos negativos, 8,36% de falsos positivos y un 7.96% de daños mal cuantificados a nivel global. Los posibles usos de redes neuronales en aplicaciones de detección de daños en tiempo real y los resultados obtenidos, motivan futuros estudios que se pueden centrar en la búsqueda de mejores resultados haciendo uso de mejores diseños de redes neuronales o mejores formas de modelar el ruido experimental. También es necesario explorar los modos en que estos algoritmos se puedan aplicar a estructuras más grandes y complejas.
15

Gender classification using pair group feature selection based on mutual information from frontal faces and iris images

Tapia Farías, Juan Eduardo January 2015 (has links)
Doctor en Ingeniería Eléctrica / El uso de imágenes de rostros o iris para estimar información demográfica, tal como género, raza, edad y emociones se denomina Soft Biometrics . En un marco de reconocimiento biométrico, la información de género nos puede ayudar a buscar solo en la mitad de la base de datos. La mayoría de los métodos reportados en la literatura usan todas las características disponibles para la clasificación de imágenes. En el procesamiento de imágenes, el ingreso directo de los datos a los clasificadores tiene una alta dimensionalidad y un limitado número de ejemplos. En este escenario la selección de características juega un rol importante mejorando la tasa de clasificación, la eficiencia y la escalabilidad de las imágenes en el proceso de identificación. Un manera de realizar esta tarea, es mediante la selección de características usando información mutua (IM) y ordenándolas en un ranking de acuerdo a su valor individual de relevancia usando métodos de filtros. Los métodos de ranking se caracterizan por ser rápidos y efectivos, particularmente cuando el número de características es grande y el número de ejemplos disponibles para entrenamiento es comparativamente pequeño, como en el caso de los bases de datos benchmark (Sonar, Spambase, Ionosphere y Madelon). Sin embargo, el ranking reduce la capacidad de selección debido a que no estima ningún tipo de complementariedad entre las variables, lo cual es poco adecuado para la función de selección de conjuntos de datos que tienen altos niveles de complementariedad. Las posibles redundancias entre más de dos variables no se tienen en cuenta. Dos métodos fueron desarrollados en esta tesis, el primero selecciona características en pares y el segundo en grupos. En el primer método, usamos selección de características basados en la información mutua en pares, aplicada al problema de clasificación de género usando rostros frontales e iris. Se fusionaron las características seleccionadas obtenidas desde la intensidad de los píxeles, forma y textura en varias escalas espaciales. Los resultados fueron evaluados y comparados con los publicados anteriormente en bases de datos estándares tales como las bases de datos FERET y UND usadas para ambientes controlados y la base de datos Labeled Faces in the Wild (LFW) para ambientes no controlados. Este método fue también aplicado a imágenes de iris de bandas espectrales cercanas al infrarrojo de la Universidad de Notre Dame, llamada Gender From Iris (GFI). El segundo método es basado en filtros y envolventes (filtrappers), para la selección de características en grupo en vez de pares usando información mutua. Este método fue aplicado a la clasificación de género usando rostros e imágenes de iris. La selección de grupos basadas en características relevantes y redundantes fue realizada asignándole un peso a cada característica en relación a sus vecinos. El método fue aplicado a imágenes de rostros usando las bases de datos UND, LFW, MORPH II y en iris usando la base de datos GFI. Los resultados del primer método de selección de características usando rostros, fueron obtenidos con la fusión de 18.900 características seleccionadas alcanzando una tasa de clasificación de 99.13% en la base de datos FERET. Para la base de datos UND, la mejor tasa de clasificación de género fue obtenida por la fusión de 14.200 características seleccionadas con 94.01%. Para la base de datos LFW la mejor tasa de clasificación fue obtenida con la fusión de 10.400 características seleccionadas, usando 3 escalas espaciales diferentes con un 98.01%. A nuestro entender estos resultados son los mejores resultados reportados para la clasificación de género usando estas bases de datos. Dependiendo del tamaño de la imagen, el número total de características seleccionadas fue reducido a lo menos en 70% en FERET, 73% en UND y 90% en LFW. En iris, el mejor resultado usando ventanas de 10x10 con un solapamiento del 50% usando histogramas de LBP(8,1) fue de 91.33%, Este nivel de precisión superar los resultados previamente publicados. Para el segundo método, la mejor tasa de clasificación fue obtenida para la base de datos UND en la fusión de 2.100 características seleccionadas y 30 vecinos cercanos con un 98.25%. El mejor resultado para la base de datos MORPH II fue obtenida con 1.300 características y 25 vecinos cercanos con un 95.50%. Para la base de datos LFW el mejor resultado fue obtenido con 900 características y 25 vecinos cercanos con un 97%, usando validación cruzada de cinco grupos. Nuestros resultados muestran que la clasificación de género puede ser mejorada significativamente mediante el uso de la selección de características en grupos. La mejor tasa de clasificación para el uso de benchmark fue obtenida por la base de datos Sonar, obteniendo 95.68% usando 55 características y 35 vecinos cercanos. En la selección de características para iris, nuestra propuesta obtiene una precisión de 89% basada en la fusión de la información de las mejores características provenientes del iris derecho e izquierdo.
16

Aplicación para Neurorrehabilitación Basada en Detección de Movimiento

Bustamante Filoza, Iván Pablo January 2011 (has links)
No description available.
17

Clasificación y comparación de métodos de detección de colisiones de fase amplia para imágenes sintéticas en 2D+tiempo

Moraga Aros, Héctor Marcelo January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias, Mención Computación / La detección de colisiones ha sido un tópico de extenso estudio en computación gráfica y geometría computacional. Sus campos de aplicación incluyen la robótica, biología computacional, juegos, y simulaciones en cirugía, física y biología. Un entorno real complejo para la detección de colisiones corresponde a imágenes biomédicas y astronómicas: imágenes en series de tiempo, de gran tamaño, a veces con gran cantidad de objetos, que se mueven y se deforman, y que pueden aparecer o desaparecer de la escena, o experimentar autocolisiones, aspectos que pueden hacer la detección de colisiones un trabajo demasiado lento de calcular sin las estrategias apropiadas. Este trabajo realiza un contraste entre dos enfoques de detección de colisiones de fase amplia en 2D+tiempo: usando los métodos estáticos sweep and prune directo, que funcionan cuadro a cuadro, y el método sweep and prune incremental, que mantiene las estructuras a lo largo de la simulación, contra el enfoque cinético del algoritmo sweep and prune cinético. Ambos enfoques fueron probados en simulaciones de objetos con movimiento rectilíneo en direcciones aleatorias. La comparación se hizo siguiendo los lineamientos de experimentación en algoritmos establecidos por Moret [26] respecto a qué parámetros es pertinente medir, las diez sugerencias de Johnson [22] para realizar un experimento con algoritmos y las sugerencias de Sanders [31] para mostrar los resultados en forma de gráficos. Los resultados muestran que el uso del algoritmo sweep and prune cinético es un orden de magnitud más rápido que los algoritmos sweep and prune estáticos en simulaciones que involucran una distribución aleatoria de objetos en movimiento, sin importar la densidad de objetos en la simulación. También se estudia el efecto de colisiones múltiples dentro de las simulaciones, un suceso que no fue investigado por Coming & Staad [11]. Esto permite hacer sugerencias sobre las instancias en las que un algoritmo es más apropiado que otro.
18

Abordando el tratamiento automático de la desinformación: modelado de la confiabilidad en noticias mediante Procesamiento del Lenguaje Natural

Bonet-Jover, Alba 20 March 2023 (has links)
La llegada de Internet y de las nuevas tecnologías dio lugar al nacimiento de la era de la información, una era que ha conectado a la sociedad de forma global y le ha permitido acceder libremente a la información digital. Con esta facilidad de acceso, cualquier persona, aún sin ser experta en la materia, puede publicar y acceder a la información sin ningún coste, lo que ha ocasionado un exceso de información no contrastada que muchas veces oculta intenciones como el engaño, la manipulación o los fines económicos. De esa forma, la era de la información se ha transformado en la era de la desinformación. La incesante necesidad de estar informados ha motivado que el consumo de la información se convierta en una rutina, ya sea siguiendo las últimas noticias en portales digitales o leyendo a diario publicaciones de personas afines. Antes, la información viajaba en forma de sonido a través de la radio o en forma de tinta a través de los periódicos, pero ahora una desmedida cantidad de información se propaga a través de algoritmos. Las tecnologías han propiciado la sobreabundancia de información, así como la propagación de noticias falsas y bulos, hasta tal punto que resulta imposible contrastar y procesar manualmente tales volúmenes de desinformación en tiempo real. No obstante, lo que se considera un problema puede convertirse en una solución, pues igual que los algoritmos y el entorno digital son los causantes de la viralización de la información falsa, estos pueden ser a su vez los detectores de la desinformación. Es aquí donde el Procesamiento del Lenguaje Natural desempeña un papel clave en la relación humano-máquina, modelando el lenguaje humano a través de la comprensión y generación automática del lenguaje, y entrenando modelos a través de la retroalimentación del experto. El trabajo coordinado entre la ingeniería computacional y la lingüística es decisivo a la hora de frenar el fenómeno de la desinformación. Son necesarias las dos perspectivas para abordar la detección automática de la forma más completa y precisa posible, pues el análisis lingüístico permite detectar y estudiar patrones textuales que hacen que la información de una noticia sea o no sea confiable, mientras que el entorno tecnológico se encarga de automatizar la detección de los patrones anotados mediante el entrenamiento de algoritmos de aprendizaje automático. Específicamente para esta tarea, donde la noticia es el objeto de estudio, el análisis a nivel periodístico también es fundamental. La noticia suele presentar una estructura determinada, técnica conocida como la Pirámide Invertida, donde la información sigue un orden de relevancia concreto con el fin de captar la atención del lector. Además, suele organizar el contenido de forma precisa y completa respondiendo a seis preguntas clave, conocidas como las 5W1H. Estas dos técnicas periodísticas permiten construir una noticia siguiendo unos estándares de calidad y son la base de la anotación de la presente investigación. Para contribuir a la tarea de la detección de desinformación, la presente investigación presenta dos guías de anotación de grano fino diseñadas para anotar tanto la veracidad (guía FNDeepML) como la confiabilidad (guía RUN- AS) de las noticias. Además, se presentan los dos corpus obtenidos y anotados con las guías de anotación, uno de ellos compuesto por 200 noticias verdaderas y falsas (corpus FNDeep) y otro que incluye 170 noticias confiables y no confiables (corpus RUN), ambos en español. Un extenso marco de evaluación se lleva a cabo para validar tanto la calidad de la anotación como la de los recursos, obteniendo resultados prometedores que muestran que el entrenamiento con las características de la anotación mejoran notablemente los modelos de predicción. Asimismo, otras dos aportaciones de la tesis relacionadas más bien con el proceso de anotación y de detección son, por un lado, la propuesta de una metodología semiautomática de anotación que agiliza la tarea del experto anotador y, por otro lado, una arquitectura para la detección de desinformación basada en una capa de estructura y otra de predicción. Las aportaciones de este trabajo permiten abordar una parte del problema de la detección de la desinformación aplicando técnicas de Procesamiento del Lenguaje Natural, pero desde un enfoque lingüístico, lo que permite profundizar en el estudio del problema desde su raíz. El conocimiento profundo del lenguaje de las noticias, y específicamente el modelado de un lenguaje propio de la desinformación, permite no solo dar un paso más en su detección, sino además justificar la confiabilidad de la noticia. / Tesis financiada por la Generalitat Valenciana a través del Programa para la promoción de la investigación científica, el desarrollo tecnológico y la innovación en la Comunitat Valenciana (ACIF/2020/177).
19

Percepción y comprensión autónoma del área transitable

Moreyra, Marcelo Leandro 27 June 2013 (has links)
El diseño y desarrollo de vehículos inteligentes ha sido motivo de investigación durante más de tres décadas mostrando un enorme progreso en los últimos años. La existencia de proyectos a largo plazo impulsados por iniciativas gubernamentales en conjunto con grupos de investigación de la industria automotriz y de la academia, ha permitido que en algunos lugares del mundo los vehículos autónomos ya hayan demostrado con éxito que pueden circular por las calles de una ciudad. Para que un vehículo de este tipo pueda interactuar en forma segura con otros vehículos conducidos por humanos es necesario que tenga la capacidad de percibir fielmente su entorno, identificando al resto de los participantes del tráfico y los lugares por donde es posible transitar. Actualmente, los proyectos más maduros se basan en modalidades de sensado aún demasiado costosas como para permitir que un producto de este tipo tenga un alcance masivo para la población. Siendo la visión el principal elemento de navegación que utilizan los humanos para conducir un vehículo, resulta algo sorprendente que las cámaras no sean aún protagonistas fundamentales de los actuales sistemas automáticos para la percepción del ambiente, más aún si se tienen en cuenta su bajo costo y su bajo requerimiento de energía para funcionar. Uno de los problemas donde la visión sí ha permitido un gran avance es la detección del camino por el que puede transitar un vehículo. Para ésto se suele utilizar el conocimiento acerca de la apariencia y la forma geométrica del camino para proponer un modelo que se ajustará en función de las características extraídas de una imagen. Las técnicas modernas del filtrado estadístico son utilizadas para dar seguimiento al modelo a través de tiempo aumentando el rechazo al ruido y las mediciones erróneas, y reduciendo el costo computacional que implica calcular los parámetros. Estos enfoques han permitido alcanzar soluciones con alto grado de robustez ante los cambios climáticos y los cambios drásticos en la iluminación de la imagen. Sin embargo, estos sistemas fallan cuando la forma del camino cambia de una manera tal que el modelo considerado pierde validez. Para poder detectar automáticamente un cambio de este tipo hacen falta nuevas estrategias con un mayor poder de abstracción y que permitan una mayor comprensión de la escena. Dada la enorme robustez del sistema visual humano y su eficiencia en la utilización de los recursos de procesamiento, resulta de primordial interés aprender acerca de cómo las personas resuelven este problema. Con este objetivo, esta tesis propone estudiar y analizar los patrones de atención visual de las personas cuando reconocen diferentes tipos de topologías como intersecciones, bifurcaciones y uniones de caminos, entre otras. A lo largo de los capítulos se introducen los fundamentos necesarios para comprender el tema abordado y se presentan resultados experimentales que dan soporte a las hipótesis planteadas. Las evidencias encontradas sentarán la base para el desarrollo de nuevos algoritmos para la detección automática de la topología del camino. / The design and development of intelligent vehicles has been an active research area for more than 30 years, showing tremendous progress in the last few years. The existence of long-term projects promoted by government initiatives in conjunction with research groups of the automotive industry and academia, has allowed autonomous vehicles to show in some places of the world successful results while driving across urban scenarios. To be possible for a vehicle of this kind to safely interact with other human-driven cars it is neccessary to have the ability to perceive accurately the environment, identifying all other participants of the trafic and detecting the drivable areas. Currently, the most mature projects are based on sensing modalities still too expensive to allow a product of this type to massively reach the common users. While vision is the primary navigation element that humans use to drive a vehicle, it remains quite surprising that cameras are not yet essential for the current environment perception automatic systems, even more taking into account their low cost and low power requirements for operation. Road detection is one of the problems where vision has effectively had an important impact. The knowledge about the road appearance and its shape is usually considered to propose a road model that will be fitted according to the features extracted from the image. Modern statistical filtering techniques are used to track the model through time, increasing rejection to noise and erroneous measurements, and reducing the computational cost involved in estimating its parameters. These approaches have achieved solutions with a high degree of robustness to climate changes and drastic illumination variations in the image intensity. However, these systems fail to adapt when road's shape changes in a way that the considered model is no longer valid. New strategies with higher power of abstraction that allow greater understanding of the scene are needed to detect this type of changes. Given the great robustness of human visual system and its e cient use of processing resources, it results of primary interest to learn about how people solve this kind of problem. To this end, this thesis proposes to study and analize people visual attention patterns when recognizing dfferent types of topologies like road intersections, road splits and road junctions, among others. Throughout the chapters the basics needed to understand the topic addressed are introduced and experimental results that support the hypotheses are presented. The evidence found will provide the foundations for the development of new algorithms for the automatic detection of the topology of the road.
20

Detección ecográfica de macrosomia fetal y resultados perinatales de enero a diciembre del 2014. Hospital Marino Molina Scippa – Comas

Llacsa Chacon, Henry Arturo January 2015 (has links)
Objetivo: Determinar el porcentaje de recién nacidos macrosómicos diagnosticados ecográficamente durante enero a diciembre del 2014 en el Hospital Marino Molina Scippa (HIMMS) y detectar los principales problemas perinatales. Materiales y métodos: Se realizó un estudio descriptivo, retrospectivo en el servicio de gineco-obstetricia del HIMMS. De 484 recién nacidos macrosómicos, sólo 264 cumplieron con los criterios de inclusión. Los datos fueron recogidos en la ficha de recolección de datos (ver anexo 1) y luego ingresados a una hoja de cálculo en MS – Excel 2010, para ser procesados a través del Programa Epi Info versión 7. Resultados: La prevalencia de macrosomía fetal y la detección ecográfica de macrosomía en el HIMMS durante el año 2014 fueron 11.32% y 34.85% respectivamente. La precisión de la ecografía tuvo relación directa con el peso al nacer y dicha precisión mejoró además si la ultrasonografía era realizada dentro de las 72 horas previas al parto (de 15.45% hasta 51.77%). La principal complicación durante el periodo del parto fue la depresión leve a moderada con una frecuencia de 2.89% (14 casos). Conclusiones: La detección ecográfica de macrosomía fetal en el HIMMS durante el 2014 fue del 34.85%. La depresión leve a moderada fue la complicación perinatal más frecuente. PALABRAS CLAVE: macrosomía fetal, detección precoz, diagnóstico ecográfico, resultados perinatales.

Page generated in 0.0569 seconds