• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1098
  • 103
  • 7
  • 1
  • Tagged with
  • 1210
  • 522
  • 388
  • 388
  • 388
  • 388
  • 388
  • 343
  • 331
  • 318
  • 273
  • 241
  • 169
  • 151
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Nivel de Detalle Variable en Mallas Paralelas para Representación de Terrenos en Tiempo Real

Biedermann Camposano, Bernd January 2007 (has links)
No description available.
362

Minado de Relaciones de Conflicto en la Cámara de Diputados

Uribe Buzeta, Francisco Javier January 2008 (has links)
No description available.
363

Optimización de proceso de detección de partículas a partir de imágenes de video mediante paralelización

Silva Leal, Juan Sebastián January 2012 (has links)
Ingeniero Civil en Computación / La detección de objetos a partir de imágenes se ha convertido en una herramienta muy poderosa para diferentes disciplinas. El Laboratorio de Materia Fuera del Equilibrio del Departamento de Física de la Facultad cuenta con una implementación en C del Método χ^2 usando bibliotecas ad-hoc compatibles con Mac OSX para detectar partículas en sistemas granulares cuasi-bidimensionales compuestos por miles de partículas de acero de 1 mm de diámetro, pudiendo detectar partículas en una imagen de 1 MegaPixel en alrededor de 10 segundos. Sin embargo, estas imágenes provienen de videos que se desean analizar y en una sesión de trabajo se puede requerir analizar alrededor de unas 100.000 imágenes en total, por lo cual el procesamiento y posterior análisis de estas imágenes de video tiene una duración de varios días. Es por esto que fue necesario agilizar de alguna manera este procesamiento de imágenes y generar una solución robusta. El objetivo principal de la memoria consistió en reducir los tiempos de detección de partículas generando un nuevo software basado en el anterior, facilitando extensiones futuras, y utilizando el máximo poder de cómputo disponible en el laboratorio. El alumno ideó como solución un sistema distribuido haciendo uso de todos los computadores disponibles para el procesamiento de imágenes, reimplementando el código del software, en ese entonces utilizado, de C a C++ utilizando patrones de diseño para facilitar futuras extensiones del software y threads con el fin de aumentar el rendimiento de este. También se agregó tecnología CUDA para el procesamiento de datos reduciendo de forma considerable los tiempos de ejecución. Como resultado final de la memoria, se logró obtener un speedup de alrededor de 5x haciendo uso de distribución de carga computacional, uso de procesos en paralelo, hilos de ejecución y tecnología CUDA, además se logró una solución más robusta y extensible para futuros cambios o generación de nuevos algoritmos de procesamiento. Todo el proceso de investigación, desde la obtención de datos hasta la validación de la hipótesis, lleva mucho tiempo, en donde la detección de partículas es solo una parte de todo el calculo computacional que se debe realizar, por lo que se aconseja implementar en lenguajes no interpretados y más rápidos, como por ejemplo C++, otras etapas de cálculo de datos y además, en lo posible, distribuir el computo y usar CUDA.
364

Modelación estadística de canal satelital para aplicación en microsatélites

Rojas Milla, Camilo José January 2012 (has links)
Ingeniero Civil Electricista / La explosiva evolución de los sistemas de telecomunicaciones plantea una necesidad por construir esquemas con cada vez mejor rendimiento en tasa de datos y de errores. Un posible acercamiento para mejorar la tasa de error en los esquemas de comunicaciones es la adaptación de la señal en relación a las características del canal por el que viaja. Para realizar esta adaptación es necesario conocer la información instantánea del canal o sus propiedades estadísticas. En el presente trabajo de memoria se presenta un algoritmo de estimación lineal y otro algoritmo de estimación lineal secuencial capaces de caracterizar la información instantánea de un canal. Para la implementación y el desarrollo de los algoritmos de estimación se utiliza un modelo matemático en banda base discreto del canal (canal TDL) y se realizan suposiciones sobre el tiempo de coherencia y rango del modelo. Se desarrolló, a través del software Matlab y el toolbox de comunicaciones, una simulación para un canal real inalámbrico y se ajustaron algunos parámetros (como la tasa de datos, esquema de modulación, dispersión de Doppler) de la simulación de acuerdo al esquema de comunicaciones del proyecto SUCHAI, proyecto que tiene como objetivo diseñar y construir un satélite tipo cubesat y lanzarlo en órbita. Frente a estas simulaciones se hicieron múltiples realizaciones para medir el desempeño instantáneo y estadístico de los estimadores. Se desarrollaron métricas para evaluar el comportamiento de cada estimador. El rendimiento se evaluó obteniendo las características estadísticas del estimador: como la varianza y el error cuadrático medio entre la media del estimador y el valor real de la simulación; y las características estadísticas del canal estimado: como la correlación de estados y los parámetros K y Omega de la distribución Riciana. Se comparó el rendimiento de ambos estimadores, llegando a la conclusión que ambos son capaces de estimar un canal con las cualidades simuladas, sin embargo el estimador secuencial presenta ventajas en rendimiento e implementación por hardware. A través de las simulaciones se definieron límites, de tiempo de coherencia y relación señal a ruido, para los cuales cada estimador produce un buen resultado. Finalmente, se desarrollaron funciones de estimación directa (lineal y secuencial) capaces caracterizar un canal en función de las señales enviada y recibida, junto con algunos parámetros del canal como el tiempo de coherencia, rango del modelo y frecuencia de muestreo. Se desarrolló, también, una metodología para obtener los parámetros necesarios para las funciones.
365

Segmentación de iris en imágenes digitales en condiciones reales con oclusiones de pestañas y parpados

Contreras Schneider, Daniel Alfonso January 2012 (has links)
Ingeniero Civil Electricista / El reconocimiento de personas ha sido un área de estudio importante en el último siglo y se ha intentado utilizar todos los rasgos característicos humanos posibles para este propósito, dando paso a la ciencia de la biometría. En el último tiempo se han desarrollado varios trabajos que utilizan el iris como medida biométrica, lo que se ha visto posibilitado gracias al avance de la tecnología relacionada a la fotografía digital. Un sistema de reconocimiento de iris se compone de tres procesos esenciales: adquisición de imagen, segmentación del iris y clasificación del sujeto. La gran mayoría del estudio del iris se ha realizado utilizando imágenes adquiridas bajo condiciones muy ideales de iluminación y cooperación del usuario. Sin embargo en los últimos años esto se ha ampliado a considerar condiciones más reales de trabajo. Este trabajo tiene como objetivo el diseño de un método de segmentación de iris, que considere condiciones menos cooperativas. El método desarrollado se divide en seis procesos que se enfocan en segmentar diferentes secciones del ojo dentro de la imagen. Primero se eliminan todos los reflejos especulares que puedan haber y se busca la ubicación del centro del iris en la imagen. Luego se segmentan el límite límbico y la pupila, aprovechando su forma normalmente circular, finalizando con la segmentación del párpado y las pestañas. El resultado es una máscara binaria que muestra la posición del iris dentro de la imagen de entrada. Se utiliza la base de datos UBIRIS v.2 para el diseño y prueba de este método. Calculando la cantidad de pixeles mal detectados (FP+FN) sobre la cantidad total de pixeles de la imagen, se obtiene un error promedio de 1,68%. Mientras que a partir del promedio de los valores de FPR y FNR de cada imagen, el error se establece en 10%. Estos resultados son comparables con las mejores publicaciones enviadas al concurso NICE.I relativo al mismo tema. Un promedio de 2[s] requiere el algoritmo en procesar cada imagen, lo que permite creer que podrá ser utilizado en situaciones de tiempo real como parte de un sistema de reconocimiento automático de iris.
366

Evaluación y aplicación de estrategias para control de errores en canales satelitales mediante codificación algebraica

Troncoso Hernández, Felipe Iván January 2012 (has links)
Ingeniero Civil Electricista / En el contexto de las Ciencias Aeroespaciales, surge la necesidad de disponer al alcance de universidades y otros organismos la posibilidad de realizar investigación en el área sin requerir inversiones costosas y planificaciones de largo plazo. Esta idea se concreta actualmente en el lanzamiento de pequeños satélites agrupados bajo el estándar CubeSat. El proyecto SUCHAI, del Departamento de Ingeniería Eléctrica, busca poner en órbita el primer satélite de este tipo desarrollado por una Universidad chilena. Las severas limitaciones de peso, tamaño y recursos de estos satélites impone varios desafíos para mantenerlos funcionales en su órbita. La comunicación con la estación terrestre, desde donde se envían y reciben señales, es crítica para dicho fin. Varios elementos afectan el enlace, como son la alta velocidad de traslación del satélite y el ruido introducido por fenómenos climáticos y la ionosfera. Esto lleva a la necesidad de evaluar mecanismos para minimizar la corrupción en la información transmitida, entre los cuales son de amplia aplicación los esquemas de codificación. En el contexto del proyecto SUCHAI, este trabajo tiene por objetivos evaluar estrategias de control de errores adecuadas para el entorno descrito, acotando el estudio a los esquemas de codificación algebraica, e implementar aquella que se ajuste mejor a los requisitos impuestos. La evaluación realizada abarca la simulación de algunas estrategias de codificación, bajo esquemas de modulación en frecuencia y en fase binarios cuyos resultados indican que el código convolucional reduce significativamente los errores en la transmisión. Esto motiva la implementación de un esquema convolucional en un módulo FPGA Spartan-3E de Xilinx, la que se realizó parcialmente en el software ISE. Con los logros alcanzados, se presentan desafíos de implementación completa y eficiente del código convolucional, realización de pruebas bajo condiciones más realistas a las simuladas, o la evaluación de otros esquemas de codificación y modulación bajo modelos de canal más representativos.
367

Desarrollo de un sistema de apoyo a la gestión de fondos de investigación universitarios

Schmitt Rivera, Diego January 2013 (has links)
Ingeniero Civil en Computación / En el año 2011 se implementó un sitio Web llamado U-Papers que se encargaba de almacenar y consultar publicaciones científicas del Departamento de Ciencias de la Computación (D.C.C.) de la Universidad de Chile. Con la ayuda de este sitio, la administración del Departamento asignaba Fondos de Investigación Individual (FII) a los acádemicos que realizaban publicaciones. Luego los académicos podían usar estos fondos para realizar futuras investigaciones. La administración del D.C.C. percibió la necesidad de administrar correctamente esta asignación. El método que se usaba sufría problemas de pérdida de información y éste tenía un acceso muy limitado. Además en la administración se distribuía la información en distintos registros y podían tener diferencias entre sí. Para solucionar estos problemas se implementó un sistema de información administrativa. Este sistema se encargó de gestionar los flujos de trabajo (workflow) y de centralizar la información distribuida. Con la ayuda de la notación B.P.M.N. (Business Process Management Notation) se definieron dos procesos principales. También ayudó a encontrar los casos de uso y los casos excepcionales que se presentaban en los procesos. Como sistema administrador de workflow se utilizó una aplicación llamada Joget Workflow. Esta aplicación es de fuente abierta ("open source"), cuenta con muchas ventajas de un sistema de workflow y con facilidades para adaptar los procesos de negocio. Como resultado final, se construyó un sitio Web llamado U-Fondos que pudo funcionar en un servidor del D.C.C. y distribuir la información de forma remota. El desarrollo fue dividido en varias entregas incrementales. En cada una se implementaron prototipos del sitio y se realizaron pruebas de usabilidad para encontrar los principales errores. También se pudo descubrir el interés y la opinión de los usuarios respecto a la distribución de este tipo de información.
368

Diseño e implementación del software de vuelo para un nano-satélite tipo Cubesat

González Cortés, Carlos Eduardo January 2013 (has links)
Ingeniero Civil Eléctrico / El estándar de nanosatélites Cubesat fue pensado para facilitar el desarrollo de pequeños proyectos espaciales con fines científicos y educacionales, a un bajo costo y en cortos periodos de tiempo. Siguiendo esta línea, la Facultad de Ciencias Físicas y Matemáticas de la Uni- versidad de Chile ha impulsado el proyecto SUCHAI, que consiste en implementar, poner en órbita y operar el primer satélite desarrollado por una universidad del país. El computador a bordo de la aeronave, que consiste un sistema embebido de limitada capacidad de cómputo, escasa memoria y bajo consumo de energía, debe ejecutar el software de vuelo que controlará sus operaciones una vez en órbita. El objetivo de este trabajo es el diseño e implementación de este software para el satélite SUCHAI, como una solución confiable, flexible y extensible que sea la base para futuras misiones aeroespaciales. El diseño del software consiste en una estructura de tres capas, que consigue dividir el problema convenientemente. La de más bajo nivel considera los controladores de hardware, la capa intermedia alberga al sistema operativo, y la de nivel superior, contiene los detalles de la aplicación requerida específicamente para este sistema. Para la arquitectura de la capa de aplicación, se estudia y aplica el concepto de patrón de diseño, en específico, se realiza una adaptación de command pattern. De esta manera, el satélite se concibe como un ejecutor de comandos genéricos y se obtiene una solución mantenible, modificable y extensible en el tiempo, mediante la programación de los comandos concretos que sean requeridos. La implementación se realiza sobre un PIC24F y considera controladores para los periféricos I2C, RS232 y SPI, así como para los subsistemas de radiocomunicaciones y energía. Se decide utilizar el sistema operativo FreeRTOS, como capa intermedia, lo que permite contar con el procesamiento concurrente de tareas, herramientas de temporización y sincronización. Se ha puesto especial énfasis en la implementación de la arquitectura planteada para la capa de aplicación, consiguiendo un software capaz de ejecutar una serie de comandos, programados para cumplir los requerimientos operacionales del proyecto, lo cual representa el método principal para extender sus funcionalidades y adecuarse a futuras misiones. Para probar y verificar el sistema desarrollado, se ha utilizado la técnica denominada hardware on the loop simulation. Se han obteniendo datos de funcionamiento, bajo condiciones de operación hipotéticas, a través del registro generado por la consola serial. Con esto se verifican los requerimientos operacionales de la misión, con resultados exitosos, obteniendo el sistema base y funcional del satélite. Como trabajo futuro, se utilizará este software para integrar el resto de los sistemas del satélite SUCHAI, demostrando su capacidad de adaptación y extensión, en un paso previo a la prueba final: funcionar adecuadamente en el espacio exterior.
369

Evaluación Automática de Pronunciación de Frases para Hablantes No Nativos

Benavides Berrios, Leopoldo Felipe Andrés January 2011 (has links)
No description available.
370

Análisis espacial geólogico-minero para la definición de áreas de interés prospectivo en los municipios de Actopan y Pachuca, Estado de Hidalgo, México

Rodríguez Gómez, Catarino January 2012 (has links)
Magíster en Ciencias, Mención Geología / Esta tesis pretende desarrollar una metodología piloto para identificar áreas favorables para la búsqueda y prospección de nuevos depósitos minerales, mediante el análisis espacial de datos en un Sistema de Información Geográfica (SIG). La información base utilizada es la cartográfica geológico-minera regional, geoquímica, geofísica y temática especializada generada por el Servicio Geológico Mexicano (SGM) de la zona limítrofe entre los municipios de Pachuca-Actopan, estado de Hidalgo, México Se utilizaron capas de información georreferenciada, cuyas coberturas básicas fueron: geología regional, datos magnetométricos, geoquímicos (muestras de sedimento de arroyo activo), alteraciones, muestreos cuantitativos y cualitativos, teledetección satelital, estructural y topografía. Estas coberturas se integraron en un canevá geográfico, interpretados mediante análisis espacial, cada rasgo en base a los interpretaciones y resultados de trabajos de campo en combinación con los cartográficos y realces de imágenes, permitieron identificar y definir áreas geográficas de interés prospectivo en la zona de estudio. Toda esta información fue combinada con un método analítico llamado Proceso de Análisis Jerárquico (AHP). Este método descompone un problema de decisión complejo multi-criterios en una jerarquía basándose en una comparación por pares de importancia de diferentes criterios y subcriterios para cada nivel de información, que al final resultan pesos relativos por cada capa y fueron combinación con el SIG. La metodología utilizada para cada uno de los pesos calculados mediante el proceso analítico fue procesada de acuerdo a cada uno de los layers especificados mediante una matriz por pares, de tal manera que el resultado de ellos fue la intersección de cada una de las capas con sus pesos calculados, generando como resultado un mapa de influencia de las posibles áreas de prospección minera. En total se detectaron tres áreas de potencial interés, según la prioridad como se mencionan a continuación: Plomosas-Benito Juárez, Mineral del Chico-San Sebastián Capulines, San José Tepenené-El Arenal-Capula y Pachuca-Real del Monte. La metodología desarrollada en esta tesis ha demostrado la capacidad de generar áreas de interés, metodología que puede ser empleada a favor para otras áreas de estudio en México.

Page generated in 0.0837 seconds