• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1079
  • 99
  • 7
  • 1
  • Tagged with
  • 1187
  • 513
  • 368
  • 368
  • 368
  • 368
  • 368
  • 328
  • 325
  • 311
  • 264
  • 233
  • 169
  • 146
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Estudio de la representación 3D de regiones del iris a partir de imágenes digitales bidimensionales

Bastías Grunwald, Diego January 2016 (has links)
Ingeniero Civil Eléctrico / Actualmente se utilizan diversos métodos de reconocimiento de individuos mediante la biometría, es decir, identificando patrones de características físicas o de comportamiento. Específicamente la biometría basada en el iris es ampliamente usada en el mundo, por ejemplo en reconocimiento de ciudadanos o control fronterizo. Sin embargo, hoy en día se utilizan imágenes bidimensionales del iris para extraer la información de éste. En este trabajo se propone utilizar información tridimensional del iris, para lo que se construirá un modelo 3D a partir de un conjunto de imágenes bidimensionales del ojo. En primer lugar, se realizó la construcción de un sistema de captura de imágenes bidimensionales del ojo desde diferentes ángulos, utilizando como hardware del sistema un computador, un computador de placa reducida Raspberry Pi y una cámara Raspberry Pi NoIR. Además, se diseñó e implementó una estructura de soporte que permite la toma de imágenes desde diferentes ángulos, con una iluminación y encuadre adecuados para enfocar el iris a corta distancia. El montaje experimental permitió además eliminar el reflejo de las fuentes luminosas sobre el iris. Luego se tomaron 17 imágenes de un ojo, abarcando un arco de encuadre de 40°. A continuación se procesaron las imágenes capturadas para permitir la generación de modelos 3D. Se incluyó en el procesamiento: encuadre del iris, borrado de la pupila, ecualización del histograma y suavizado gaussiano. Fue posible determinar que la mejor secuencia para la construcción del modelo 3D incluyó encuadre, suavizado gaussiano, borrado de pupila y ecualización. Finalmente, se construyeron los modelos tridimensionales utilizando el software Python Photogrametry Toolbox. Con el objetivo de mejorar los resultados se variaron parámetros de entrada del algoritmo, tales como, el número de imágenes y el CCD width (ancho del sensor de la cámara). De lo que se concluyó que con 6 imágenes y un CCD width igual a 3, se obtiene un modelo del iris bien formado en el que se aprecian texturas y patrones. Por otra parte, se analizó la capacidad de generalización del método, capturando y modelando 12 nuevos conjuntos de imágenes del iris. Concluyendo que el método funciona de forma parcial con conjuntos de imágenes nuevos, y por tanto debe ser mejorado en términos de su capacidad de generalización. En base a la revisión bibliográfica se concluye que este es el primer sistema desarrollado que permite generar un modelo 3D del iris a partir de imágenes 2D de este. Los modelos resultantes pueden ser mejorados, ya que presentan ruido y este podría ser eliminado mediante la aplicación de un filtro gaussiano tridimensional, la utilización de un equipo fotográfico de mejores características, o el uso de múltiples cámaras.
72

Point spread function subtraction in integral field spectroscopy

Salinas Poblete, Vachail Nicolás January 2013 (has links)
Magíster en Ciencias, Mención Astronomía / Direct Imaging of circumstellar material and forming exoplanets around young stellar objects (YSO's) is a challenging task. Several techniques have been developed for this purpose, among them we focused on the spectral deconvolution technique(SD). Our goal is to create an algorithm that improves the current state of the art of the SD technique, using principal component analysis (PCA) to create an orthogonal basis set in annular regions centred on the star. A selection criterion for the wavelength channels used to estimate the basis set, ensures that the model PSF is minimally contaminated by a possible faint companion. We test our algorithm using SINFONI data of HD 142527, HD 100546 and T Cha, obtaining a high-resolution image of the surrounding disks in the H+K band. l-SDI gets roughly twice the amount of throughput of its non-localized version. Using l-SDI we give new upper limit detection curves on the selected sources, we confirm the structure of HD 142527 in the literature and report a new spiral-arm structure in the outer disk.
73

Estudio de técnicas de compresión de imágenes astronómicas

Valenzuela León, César Fernando January 2013 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Esta tesis presenta un estudio acerca de la compresión, con pérdidas, de imágenes astronómicas mediante el estándar JPEG2000. La principal motivación de esta investigación surge al comparar los desempeños de compresión para diversas morfologías de imágenes, se observa que para una misma tasa de bits, el nivel de PSNR de las imágenes naturales es mayor que el de las imágenes astronómicas, es decir la compresión de dichas imágenes presenta menos pérdidas. Debido a esto, es necesario realizar ajustes sobre JPEG2000 de manera que ambos desempeños puedan equipararse. El primer enfoque utilizado se basa en la implementación de la wavelet Haar, aquella de mayor compresibilidad sobre imágenes astronómicas, en JPEG2000. Sin embargo, al realizar esta modificación se aprecia que los resultados obtenidos no son mejores a los que proporciona la versión original del estándar, con la base CDF 9/7. A partir del análisis de dependencias intraescala en el dominio Wavelet, se logra verificar que la característica que tiene mayor repercusión en el desempeño de la compresión es la presencia de estructura. Razón que explica el por qué la base CDF 9/7, a pesar de no presentar mejor compresibilidad que la base de Haar, permite alcanzar mejores niveles de compresión. Finalmente, se propone dividir las imágenes astronómicas en dos partes: "Background" y "Cartoon", esta última contiene los pixeles de mayor intensidad y al ser una señal sparse, es decir con muy pocos coeficientes distintos a cero, su alto nivel compresibilidad en base de Haar (reconstrucción perfecta con aproximadamente un 20% de coeficientes) permite soslayar la carencia de estructura. La compresión del "Cartoon"', mediante JPEG2000 con la base de Haar, entrega resultados superiores a los obtenidos por la base CDF 9/7, por lo que se puede concluir que este enfoque puede ser aprovechado en aplicaciones que puedan prescindir de la totalidad de los pixeles y que hagan énfasis en aquellos valores más significativos. La investigación presentada en esta memoria complementa los resultados encontrados en la literatura y abre una nueva línea que deberá seguir siendo explorada en el futuro.
74

La calidad de los datos como un valor de activo diferencial

Carrasco Chanamé, Victor Eduardo January 2018 (has links)
Publicación a texto completo no autorizada por el autor / El documento digital no refiere asesor / Propone un modelo de calidad de datos que permita evaluar y mejorar la calidad de los datos en aquellas organizaciones en las que se utilizan diferentes fuentes de base de datos con la misma información, pero con contenido diferente, lo cual no les permite tomar decisiones en forma correcta y oportuna. Específicamente se busca desarrollar un enfoque sistemático, disciplinado y estructurado que se apoye en el modelo propuesto, y que provea las pautas y guías para que la aplicación del modelo de calidad de datos pueda ser repetible y generalizable sobre los datos de cualquier organización. Otro objetivo planteado es mostrar que producto del creciente avance tecnológico relacionado con los datos y la información las organizaciones que deseen estar a la vanguardia deben utilizar un mecanismo que garantice la calidad de los datos apoyados en un modelo como el propuesto en este trabajo. Para la realización del presente trabajo hemos utilizado el método científico, y el tipo de investigación utilizado es de tipo aplicada, que se caracteriza por su interés en la aplicación, utilización y consecuencias prácticas de los conocimientos. La investigación aplicada busca el conocer para hacer, para actuar, para construir, para modificar. / Trabajo de suficiencia profesional
75

Gestión del conocimiento en el proceso de desarrollo de software

Pillman Sumari, Renzo Guido, Pillman Sumari, Renzo Guido January 2016 (has links)
Publicación a texto completo no autorizada por el autor. / Describe el papel actual del conocimiento en la ingeniería de software: es dinámico y evoluciona con la tecnología, la cultura organizacional y las necesidades cambiantes de las prácticas de desarrollo de software en las organizaciones. Realiza un estudio comparativo de los framework para gestión del conocimiento desarrollado hasta la actualidad; y posteriormente se eligió la WIKI MediaWiki (MediaWiki, 2015) como herramienta a implementar como sistema de gestión del conocimiento. Una vez descrito los conceptos teóricos pertinentes para tener un entendimiento; explica el desarrollo de la implantación de un sistema de gestión del conocimiento basado en el modelo SECI propuesto por Nonaka y Takeuchi (Nonaka & Takeuchi, The Knowledge-Creating Company, 1995), adaptando la arquitectura del sistema a las características y filosofía de trabajo de media WIki (MediaWiki, 2015), una de las herramientas Wiki más famosas y de mayor uso a nivel mundial (Nélida, 2012) ; finalmente, resume los resultados del trabajo en las conclusiones obtenidas. / Tesis
76

Detección de eventos respiratorios en señales polisomnográficas

Feller Goudie, Jaime José January 2017 (has links)
Ingeniero Civil Eléctrico / Las enfermedades respiratorias son un grupo de enfermedades que afectan, como su nombre lo indica, el sistema respiratorio de las personas. En chile, estas están catalogadas como la tercera gran causa de muerte en Chile [1]. En particular, el Sindrome de Apnea e Hipopnea Obstructiva del Sueño (SAHOS) afecta al 4% de la población adulta [2] [3], y lleva consigo riesgos derivados de que interrumpe el ciclo normal de sueño. El siguiente trabajo plantea el modelamiento de un clasificador que sea capaz de identificar los distintos tipos de episodios respiratorios asociados al SAHOS, apneas de distinto tipo (central, mixta u obstructiva) o hipopnea. Como consecuencia directa, se pretende obtener los sensores más relevantes para construir un polisomnógrafo. Mediante el pre-procesamiento y obtención de datos estadísticos de exámenes de polisomnografía validados por personal médico, posterior entrenamiento y validación de distintos clasificadores; reglas difusas, arboles de decisión, redes neuronales y support vector machine; Se construye un clasificador que agrega un subconjunto de ellos para decidir a qué clase de episodio pertenece cada evento buscando un alto cociente de posibilidades de diagnóstico (DOR). Debido a la complejidad de procesar múltiples datos se plantea utilizar métodos de reducción de variables mediante random forest/tree ensemble, logrando reducir estas a un 10% con una varianza no superior al 22% en la exactitud de los clasificadores respecto al ejercicio realizado con todas las variables. Esto se traduce en proponer una reducción del número de sensores ocupados en un examen polisomnográfico desde más de 20 a un conjunto de 8 que contiene la mayor parte de la información para lo que respecta a la diferenciación de episodios. Estos sensores concuerdan con las señales que son de especial cuidado cuando se estudia el SAHOS. Se logra proponer un clasificador que diferencia entre los distintos episodios, pero no así uno que permita diferenciar entre la presencia o ausencia de estos, debido principalmente al hecho de no contar con una base de datos adecuada, esto último se deduce al comparar el desempeño de los clasificadores al introducir un grupo de control generado con estados de sueño normal de los mismos pacientes. El clasificador construido tiene un índice de acierto de sobre el 70%, con un error del tipo I cercano al 20% y error tipo II cercano 8%, la exactitud de este es sobre el 79% y el DOR superior a 10 para cada tipo de episodio. Debido a la dificultad de conseguir este tipo de exámenes, en parte dado por su costo, tanto monetario como en recursos, no se pudo trabajar con una base de datos extensa. Como trabajo futuro se recomienda realizar estos experimentos con una base de datos que contenga exámenes realizados a personas que no presentan SAHOS, para de esta manera se obtenga una base de datos limpia para caracterizar las diferencias entre un paciente sano y uno enfermo.
77

Avances hacia una clasificación sísmica de estaciones sismológicas chilenas

León Illanes, Jorge January 2017 (has links)
Ingeniero Civil / Este trabajo estudia una propuesta de clasificación sísmica de estaciones sismológicas en base a la velocidad de onda de corte de los 30 m superficiales Vs30 y el periodo predominante de vibración de los depósitos de suelo T0 medido mediante la técnica de las razones espectrales H/V (HVSR). El estudio considera registros de aceleración de 85 estaciones de las redes del Centro Sismológico Nacional y la Red de Cobertura Nacional de Acelerógrafos del Departamento de Ingeniería Civil, además de registros de vibraciones ambientales, para determinar razones espectrales H/V, espectros de Fourier (FAS) y espectros de respuesta normalizados por la aceleración máxima (Sa/PGA). Estas curvas se complementan con valores de Vs30 para 47 estaciones y 22 perfiles estratigráficos obtenidos mediante una revisión bibliográfica. Los resultados del procesamiento indican una buena correlación entre los periodos predominantes de HVSR calculados a partir de registros sísmicos (HVSR_S) y de vibraciones ambientales (HVSR_VA). También, algunas estaciones con cierto grado de degradación de rigidez, evidenciado por un aumento del periodo en las razones espectrales HVSR_S. En forma complementaria, se realiza un análisis de cluster con las curvas de HVSR_VA para agrupar estaciones con formas similares y contrastar sus curvas de espectros Fourier de registros sísmicos (FAS_S) y Sa/PGA. Los resultados muestran que las curvas HVSR_VA tienen formas similares a las de FAS_S en sus componentes horizontales, permitiendo predecir el periodo peak en el espectro. Además, se evidencia el efecto de filtro que tiene el espectro de respuesta Sa/PGA en comparación a la forma de FAS_S, ya que el espectro tiende a reducir la amplitud espectral para periodos largos y aumentar la amplitud en periodos bajos, generando inversiones de peaks y amplificación en banda. La propuesta de clasificación sísmica analizada en este trabajo degrada la clasificación de tipo de suelo de un tercio de las estaciones con peak identificable y valor de Vs30 reportado, debido a que presentan periodos mayores a los límites establecidos. Si bien esta propuesta incluye un parámetro relevante en la respuesta sísmica de suelos, como el período predominante de vibración, la clasificación no es consistente con los grupos de estaciones identificados con el análisis de cluster.
78

On the analysis of decision problems in astrometry and hypothesis testing

Espinosa Trujillo, Sebastián Andrés January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / La teoría de la información surgió gracias al trabajo realizado por Claude E. Shannon: ``A Mathematical Theory of Communication'', donde se modela y caracteriza el desempeño óptimo de los sistemas de comunicación digitales. La idea básica es la transmisión de información mediante un canal que introduce incertidumbre en la comunicación. La señal llega a un receptor que debe decodificar la información de forma confiable en el sentido de probabilidad de error. Estableciendo una conexión con problemas de inferencia estadística, vemos que están estrechamente conectados. Ambos problemas se encargan de trabajar con observaciones y la información contenida en ellos. El objetivo final es tomar una decisión correcta basada en las observaciones. El término decisión correcta implica establecer métricas de desempeño. La teoría de la información cumple un rol muy importante al establecer límites fundamentales para problemas de decisión estadísticos, es por esto que esta tesis hace uso de las herramientas en estadística y teoría de la información para resolver dos problemas de inferencia, en el contexto de la astronomía y detección con restricción de tasa. La primera parte de la tesis, estudia los límites fundamentales en astrometría. El foco del trabajo es estudiar la alcanzabilidad de los límites fundamentales con estimadores prácticos. El trabajo propone cotas de desempeño para estimadores clásicos (máxima verosimilitud y mínimos cuadrados) con estos resultados se verifica numéricamente la optimalidad del estimador de máxima verosimilitud en el sentido que éste alcanza la cota de Cramer-Rao en un gran espectro de regimenes observacionales. La segunda parte de la tesis propone una cota alcanzable del error asociado al problema de detección en un contexto de hipótesis bivariado cuando una de las fuentes es transmitida con restricciones en la tasa. Este problema radica en establecer velocidades de convergencia para el error de tipo II sujeto a un error de tipo I prescrito y cuando se tiene información limitada de una de las fuentes. Para ello este trabajo establece cotas para la discrepancia que existe entre el límite fundamental asintótico y una expresión no asintótica derivada como parte de éste trabajo.
79

Diseño y aplicación de un sistema de calidad para el proceso de fabricación de válvulas de paso termoplásticas

Tay Tay, Carlos Enrique 10 November 2011 (has links)
En la presente tesis se han descrito las actividades a considerar para el diseño, desarrollo e implementación de un Sistema de Calidad en una empresa manufacturera, en la que se han considerado tanto aspectos teóricos recibidos como parte de la formación académica, como también criterios técnicos obtenidos como parte de la experiencia en la organización en la que se realizó el estudio y que han permitido desarrollar mi formación profesional. Se han definido los principales conceptos relacionados a la calidad, aspectos organizacionales y terminologías empleados en los procesos evaluados. Con la finalidad de determinar la situación de la empresa antes de la implementación del sistema de calidad se presenta un diagnóstico de la situación inicial de la empresa en la que se han identificado los problemas existentes y se ha determinado la brecha con la situación que se desea alcanzar. La implementación del Sistema de Calidad cuenta con una serie de etapas que se han desarrollado a través de una metodología basados en algunos modelos de Gestión de Calidad, Sistemas de Calidad propios de empresas y de las normas de los productos que se han considerado en el presente estudio, todo esto adaptado a las exigencias de la industria nacional. El modelo también considerará las actividades operativas que se deben llevar a cabo para garantizar que los productos cumplan con las especificaciones requeridas. Para evaluar el funcionamiento del Sistema de Calidad se han definido una serie de indicadores que van a permitir monitorear el comportamiento de los procesos y productos, de manera que se pueda comparar los resultados obtenidos con los objetivos establecidos y efectuar los ajustes o correcciones que sean necesarios. Como resultado del presente estudio se ha podido demostrar que se puede implementar exitosamente un sistema de calidad si se logra el compromiso de la Alta Dirección, se cuenta con el personal adecuado y comprometido en las actividades planificadas para el desarrollo del sistema, así como si se dispone de los recursos necesarios, tanto económicos como tecnológicos, los cuales son importantes para cumplir los objetivos propuestos. Los procesos deben ser monitoreados y evaluados permanentemente con lo cual también pueden ser mejorados continuamente, como parte de ese análisis se ha propuesto una serie de recomendaciones que permitirán optimizar los procesos existentes. / Tesis
80

Herramienta cuantitativa de análisis de señales electroencefalográficas para apoyar al diagnóstico del TDAH en niños

Miranda Gutiérrez, Michael 21 March 2012 (has links)
El presente trabajo de tesis tiene como finalidad plantear una solución a la falta de una herramienta cuantitativa que apoye a la objetividad del diagnóstico del Trastorno de Déficit de Atención con Hiperactividad (TDAH) en niños mediante el uso de tecnología existente en el Perú. Para ello, se ha planteado como objetivo diseñar una herramienta de apoyo al diagnóstico del TDAH constituida por un sistema de procesamiento de señales electroencefalográficas que identifique patrones comunes y estime sus niveles de incidencia en forma cuantitativa. Esta herramienta ha sido desarrollada acorde a las necesidades del país en el sector de la salud mental, ya que permitirá a los médicos especialistas validar su análisis y brindar un mejor diagnóstico psiquiátrico mediante la cuantificación de las características de la enfermedad y la realización de un diagnóstico objetivo. El primer capítulo presenta una visión de la problemática actual del diagnóstico psiquiátrico en Lima-Perú, así como el estado del arte a nivel mundial y las tecnologías existentes. Se plantean los objetivos para dar solución a dicha problemática. El segundo capítulo muestra los conceptos referentes a los 3 pilares de la tesis: Neurociencias, Electroencefalografía y las investigaciones sobre el TDAH así como el marco teórico de los conocimientos necesarios para entender todo el proceso de diagnóstico del TDAH. El tercer capítulo muestra el diseño de la herramienta de apoyo al especialista, su estructura, funcionamiento, así como las técnicas utilizadas para el desarrollo de la misma. El cuarto capítulo muestra las pruebas realizadas a pacientes del Departamento de Pediatría del Policlínico Castilla, así como los resultados obtenidos, con los cuales se pudo corroborar el diagnóstico brindado por el especialista. / Tesis

Page generated in 0.2964 seconds