• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1094
  • 101
  • 7
  • 1
  • Tagged with
  • 1204
  • 519
  • 382
  • 382
  • 382
  • 382
  • 382
  • 337
  • 330
  • 315
  • 270
  • 238
  • 169
  • 150
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Design and construction of a digital sideband separating spectrometer for the 1.2-meter southern radio telescope

Finger Camus, Ricardo January 2013 (has links)
Doctor en Ingeniería Eléctrica / Los receptores de doble banda lateral (2SB) son particularmente útiles para la observación de espectros astronómicos complejos en un amplio rango de frecuencias. Son extensamente utilizados en radio astronomía siendo sus principales ventajas el evitar la confusión espectral y disminuir la temperatura efectiva de sistema en un factor de dos con respecto a los receptores de doble banda lateral (DSB). Usando la actual tecnología analógica, los receptores 2SB de banda ancha obtienen generalmente cocientes de rechazo de banda lateral (SRR) de 10 a 15 dB, valores insuficientes para algunas aplicaciones astronómicas. En este trabajo se presenta la arquitectura típica de los receptores astronómicos de doble banda lateral y se describen las principales causas que limitan el rendimiento de la tecnología analógica actual. Se elabora sobre la necesidad de un alto rechazo de banda lateral para observaciones astronómicas y se propone un nuevo enfoque usando tecnología digital para superar los problemas que limitan el rechazo de banda lateral de los instrumentos actuales. Durante este trabajo se estudiaron técnicas digitales para mejorar el rendimiento de los receptores con separación de banda lateral. Se presenta el diseño e implementación de un espectrómetro de transformada de Fourier rápida (FFT) con separación de banda lateral digital incluyendo la implementación de un receptor analógico de 4 GHz construido para probar los diseños y medir el rechazo de banda lateral. La configuración utiliza una arquitectura clásica de receptor 2SB, excepto que las salidas de los mezcladores son directamente digitalizadas, antes del híbrido de IF, utilizando dos ADCs de 8 bits a 1 GSPS. El híbrido de IF está implementado en la FPGA junto con un conjunto de vectores de calibración que, debidamente elegidos, compensan los desequilibrios de amplitud y fase del receptor analógico. El receptor calibrado exhibe un cociente de rechazo banda lateral superior a 40 dB para todo el ancho de banda de recepción de 2 GHz. Esto representa una mejora de un factor de 100 a 1000 respecto a los actuales receptores radio astronómicos.
372

Generación de mapa de entorno para navegación de vehículo terrestre autónomo

Parra Tsunekawa, Sebastián Isao January 2014 (has links)
Doctor en Ingeniería Eléctrica / En la actualidad los sistemas de navegación autónoma de vehículos terrestres ya son una realidad. Estos sistemas son capaces de navegar de manera autónoma por caminos tanto estructurados como no estructurados. Para la adecuada interacción de estos sistemas autónomos con su entorno, la información perceptual debe ser integrada en un mapa para su posterior utilización. Esta integración puede tener distintos enfoques y representaciones dependiendo del origen de la información y del uso dado. Los sistemas autónomos de navegación han tenido éxito desde el punto de vista técnico gracias, entre otras cosas, a los sensores empleados; los cuales frecuentemente incluyen sensores LIDAR tridimensionales. Sin embargo, el uso de estos mismos sensores impiden su masificación debido a su alto costo. Este costo elevado se debe a que la gran mayoría de ellos son dispositivos de uso industrial y no tienen aplicaciones automotrices o de consumo masivo. Dentro de este ámbito, el Centro Avanzado de Tecnología para la Minería (AMTC) está desarrollando un vehículo autónomo terrestre para ser utilizado como plataforma de desarrollo para tecnología en la industria minera. Se busca generar un sistema que se pueda portar a la industria. Con este fin, este proyecto plantea el uso de un número limitado de sensores y unidades de computo. Este trabajo de tesis se enmarca dentro del proyecto de vehículo autónomo del AMTC. Esta tesis propone que un conjunto reducido de sensores de rango bidimensionales es suficiente para la generación de mapas de entorno en tiempo real, que puedan ser utilizados para la navegación autónoma de un vehículo terrestre. Se postula que las variaciones en la pose de los sensores de rango utilizados para construir los mapas de entorno, causadas por las vibraciones del vehículo debido a su naturaleza no-rígida y a las irregularidades del terreno, pueden ser estimadas y compensadas utilizando una unidad inercial y un sistema de estimación del estado del vehículo basado en el uso de un Filtro de Kalman Extendido. Este estimador de estado puede enriquecer su estimación mediante el uso de sensores internos del vehículo y de estimaciones de la morfología del terreno realizadas en instantes anteriores. Se postula asimismo que la fusión temporal de las mediciones de los sensores de rango, compensadas por el sistema de estimación de pose, puede ser implementada usando Filtros de Kalman por celda. También es propuesta una metodología de evaluación que asume la carencia de un ground truth contra el cual comparar. Debido a lo ligado de la estimación del vehículo con el mapa de entorno, una observación LIDAR inmediata al vehículo es comparada con la morfología acumulada en el mapa permitiendo evaluar la estimación del trayecto recorrido y la integración de las observaciones simultáneamente. El sistema propuesto es evaluado en caminos no pavimentados a diferentes velocidades, mostrando un mejor desempeño tanto cuantitativo como cualitativo al ser comparado con el caso en que no se usa el estimador de estado propuesto. Además es analizado el desempeño del estimador de estado y sus variantes a nivel de trayectorias, comparándolo con las trayectorias de las observaciones GPS. Para todo lo anterior se implementa sobre una arquitectura de software versátil y adaptable a diferentes fuentes de información.
373

Shout!

Oyarzún Roa, Christian January 2012 (has links)
Tesis para optar al Grado de Magíster en Artes Mediales / La voz es por excelencia el medio expresivo y de comunicación humana, sin embargo, su uso como instrumento es restringido por preceptos sociales y culturales que operan silentes sobre los individuos de la misma manera como su uso político y divergente es reprimido explícitamente por una serie de relaciones de fuerza, represión, manipulación y control social. El objetivo de este proyecto ha sido diseñar un instrumento o dispositivo que promueva la exploración de las posibilidades musicales, sonoras, visuales y políticas de la voz humana, a través de la manipulación electrónica de ésta, permitiendo experiencias de uso, interpretación e improvisación tanto individuales como colectivas. Es así como ampliando, expandiendo y amplificando las posibilidades de la voz humana modificada electrónicamente como medio, SHOUT! se propone como un dispositivo de resemantización que busca explicitar la violencia presente en las relaciones de desigualdad e inequidad que ocurren a escalas tanto locales como globales como resultado del actual modelo económico.
374

Diseño y Construcción de un Transmisor de Frecuencia Modulada, para Radiodifusión Sonora, con Tecnología DDS

Madrid Lorca, Emerson Sebastián January 2010 (has links)
El avance tecnológico en los medios de radiodifusión durante las últimas dos décadas ha sido realmente asombroso. Se cuenta con una normativa digital para televisión que permite transmisión en alta definición y múltiples contenidos simultáneos en una misma estación emisora. De manera similar, en el caso de la radiodifusión sonora, la norma digital para onda media y onda corta otorga una calidad antes impensada. Un factor decisivo que posibilitó estos avances fue la invención de los Sintetizadores Digitales Directos (DDS). Este trabajo presenta el desarrollo de un prototipo de transmisor de frecuencia modulada basado en DDS. Para concretar este proyecto fue necesario estudiar en profundidad varios aspectos relevantes del tema, entre los que se destacan: fundamentos teóricos de DDS y su aplicación práctica, metodología de modulación digital de frecuencia, normativa para transmisores de radiodifusión FM, y técnicas de electrónica analógica en radiofrecuencias. Una vez ideado el prototipo se procedió a investigar las componentes electrónicas que ofrece el mercado para obtener un diseño realizable, accesible económicamente y acorde a las exigencias de la legislación vigente, el que posteriormente fue diseñado de manera modular, facilitando la utilización del hardware obtenido en proyectos futuros. Dado los costos involucrados en el proyecto y la disponibilidad en el mercado de sintetizadores PLL de excelente calidad, se concluye que las ventajas de los sistemas DDS para transmisión FM analógica no justifican la inversión completa. Esto se debe al elevado costo de la electrónica encargada de programar la frecuencia del DDS en tiempo real. A pesar de lo anterior, en este trabajo se implementó la electrónica del prototipo de sin considerar el sistema de programación del DDS, dado su elevado costo. Así, se cuenta con un transmisor convencional operativo, obtenido con el mismo hardware diseñado para el transmisor con DDS heterodino de doble conversión, y una plataforma de síntesis digital directa operativa, aptos para futuros proyectos.
375

Sistema para Normalizar Bases de Datos de Aromas Medidos con Nariz Electrónica

Molina Tejada, Gonzalo Andrés January 2010 (has links)
No autorizada por el autor para ser publicada a texto completo / En este trabajo se desarrolla un sistema computacional, que permite normalizar bases de datos de aromas vitivinícolas medidos con una nariz electrónica, en momentos diferentes. Al comparar los perfiles se observan desplazamientos provocados por el envejecimiento de la columna cromatográfica y/o por el hecho de no haber seguido estrictamente el protocolo de limpieza de ella. Esto motiva implementar un método que elimine estos desplazamientos, para comparar la base de datos ajustada con la base original usando el criterio de cual tiene una distribución, que permita discriminar categorías dentro de ella de mejor manera. Para esto se estudian dos casos de normalización. En el primer caso se considera una base de datos construida entre los años 2004 y 2006 de 3330 perfiles, que presentan en diferentes zonas de la señal desplazamientos que varían­ entre distintos aromas. Se pretende ajustar estos desplazamientos a una referencia, para que todos los perfiles queden con la misma forma. Esta referencia es el perfil que tiene la forma que más se repite en la base. El propósito de hacer esto es comparar la capacidad de discriminación, que tiene un clasificador para separar la base de datos en categorías, cuando esta presenta corrimientos entre señales y cuando estos son eliminados. En el segundo caso se ajusta la base de datos descrita anteriormente a un aroma medido en 2009, que presenta un importante desplazamiento respecto a los perfiles en esta base. Esto se hace con el objetivo de entrenar un clasificador usando la base ajustada, para clasificar aromas con el tipo de corrimiento del perfil medido en 2009. Para construir los discriminadores se utilizan las herramientas de análisis: Máquina de Soporte Vectorial, Discriminante Lineal de Fisher y Transformada Wavelet. Se obtiene que la normalización de la base respecto a una referencia dentro de la misma, reduce levemente el rendimiento del clasificador utilizado. Se concluye que la normalización descrita en el primer caso no mejora el rendimiento del clasificador implementado. Por otro lado la normalización de la base respecto a un perfil medido en 2009, permite clasificar correctamente el 100% de los aromas probados, sin embargo este resultado no se puede generalizar, debido al escaso número de ejemplos con que se cuenta para validar el clasificador.
376

Documentación de arquitecturas de sistemas en un banco

Ahumada Ahumada, Francisco Javier January 2013 (has links)
Magíster en Tecnologías de la Información / Un banco posee cientos de sistemas para apoyar a la mayoría de las funciones del negocio y procesar millones de solicitudes de sus clientes internos y externos. Una falla en estos sistemas puede causar, desde un retraso en la entrega de informes de gestión, hasta pérdidas millonarias e incluso la cancelación de la licencia para poder operar. La falta de documentación apropiada puede ser la causa de errores en el diseño de una modificación de la infraestructura existente. Cuando se produce una falla, el no tener la documentación adecuada puede aumentar los tiempos de respuesta de los equipos de soporte. En general, el contar con la documentación de la arquitectura de los sistemas permite a los equipos de trabajo tener una visión general y un punto de partida para tomar decisiones ante contingencias que puedan involucrarlos. Cuando se habla de documentación formal de la arquitectura de software, existen varios modelos que se basan en la presentación de vistas que describen cómo se estructura. Algunos tienen un número fijo de vistas, y otros permiten acotar este número de acuerdo a un análisis de las necesidades existentes. En este trabajo, se propone una metodología para aplicar y verificar la utilidad de uno de los modelos de documentación existentes: el modelo de vistas del Software Engineering Institute (SEI), que busca identificar y documentar las vistas de arquitectura de software más adecuadas, de acuerdo a los requerimientos de calidad de los stakeholders de un sistema en estudio. Para realizar lo anterior, se seleccionó un sistema utilizado en un Banco, se entrevistó a sus stakeholders para conocer cuáles son sus intereses y con ello se generaron las vistas de arquitectura que propone el modelo. Finalmente, se presentan 3 casos donde se valida que la documentación de las vistas de arquitectura generadas en base al modelo mejoran la toma de decisiones de sus stakeholders, comparándola con el uso de la documentación existente antes de realizar este trabajo. Este trabajo entrega una metodología práctica para aplicar el modelo de vistas del SEI, aprovechando principalmente la relación existente entre sus guías de estilos y los atributos de calidad que apoyan, orientando la documentación de la arquitectura de sistemas a las necesidades específicas de sus stakeholders. Para la comunidad académica y profesional sirve como caso de estudio de aplicación del modelo y, para el Banco involucrado, como el punto de partida para incorporarla en su ciclo de desarrollo de proyectos tecnológicos.
377

Inversión del tensor de momento sísmico y función fuente temporal de terremotos utilizando registros de campo cercano

Morales Yáñez, Catalina Patricia January 2016 (has links)
Magíster en Ciencias, Mención Geofísica / Obtener parámetros de la fuente sísmica a partir de datos sismológicos y/o geodésicos es de suma importancia en la caracterización de la fuente de terremotos, lo cual cobra especial relevancia en sistemas de monitoreo sísmico en tiempo real. Existen modelos y metodologías que permiten realizar estas inferencias asumiendo distintos niveles de complejidad en el modelo de la fuente sísmica. Sin embargo, la inversión simultánea del tensor de momento y función fuente temporal utilizando datos regionales y de campo cercano de terremotos es un tema poco estudiado. El obje- tivo principal de este trabajo es invertir la función fuente temporal y el tensor de momento sísmico utilizando datos sismológicos de campo cercano y regional. Para ello se planteó una metodología y se desarrolló una herramienta computacional propia, la cual se usó para estudiar parámetros de la fuente de sismos magnitud Mw > 6.0 ocurridos en la zona Norte de Chile. El código computacional se escribió en lenguaje de programación Python, el cual permite in- vertir el tensor de momento sísmico y la función fuente temporal usando registros de campo cer- cano. Para calcular las funciones de Green del medio se utilizaron los programas computacionales Computer Programs in Seismology (CPS). El programa de inversión lee las funciones de Green precalculadas y minimiza el error de ajuste entre los sismogramas sintéticos y observados usando el método de mínimos cuadrados para estimar las componentes del tensor de momento. La función fuente se parametrizó como la suma de funciones bases, donde las amplitudes de éstas son las in- cógnitas del problema. Para estimar la función fuente se aplicó la técnica de mínimos cuadrados no negativo con un término adicional de regularización que impone una condición de suavidad sobre la función fuente. El código realiza la búsqueda del mejor centroide espacial para el ajuste de los datos, para ello itera primero en latitud y longitud, fijando la profundidad, y una vez obtenidas las coordenadas óptimas realiza una segunda iteración esta vez en profundidad. La metodología se aplicó a eventos de la secuencia sísmica del terremoto de Pisagua del 2014, Mw 8.1, y a un evento ocurrido el 2011 a 130 km de profundidad en la zona de estudio. El análisis de las soluciones obtenidas de los eventos estudiados muestra que los resultados son confiables y robustos al compararlos con soluciones publicadas por agencias sismológicas, pudiéndose incluso obtener relaciones entre la función fuente y las características del evento tales como su magnitud o profundidad (superficial, en la zona de contacto o profundo). El método de inversión si bien posee algunas limitaciones que pueden ser mejoradas, logra recuperar el tensor de momento y la función fuente en forma robusta. Las diferencias observadas con otras soluciones se encuentran en el rango de error y se observa que la función fuente depende de la zona sismogénica en donde ocurre.
378

Selección e identificación de grupos complementarios de características utilizando información mutua

Vergara Quezada, Jorge Ramón January 2015 (has links)
Doctor en Ingeniería Eléctrica / El constante crecimiento del volumen, la tasa de generación y la dimensionalidad de datos en todas las áreas hace cada vez más necesario el análisis automático de éstos. Bajo este contexto, el pre-procesamiento de datos aparece como un área de investigación de gran interés, principalmente porque hace inteligible los datos para un posterior análisis. Una de las técnicas de preprocesamiento es la selección de características, la cual estudia cómo seleccionar un subconjunto mínimo de características para construir un modelo que genera los datos. La selección de características tiene como propósito: (i) mejorar el desempeño de predicción de los predictores, (ii) proveer mayor rapidez y efectividad en la predicción, y (iii) posibilitar una comprensión más clara del proceso que genera los datos. Tradicionalmente la literatura ofrece métodos focalizados en mejorar los dos primeros puntos, destacando aquellos métodos con las siguientes cualidades: independientes del clasificador, reflejándose en un bajo costo computacional; y criterios de selección de características basados en información mutua que tienen la capacidad de detectar relaciones no-lineales entre las características. La importancia del tercer punto es que no solo ayuda a la comprensión del proceso, sino que además permite identificar las interacciones existentes entre características (grupos de características). Por otro lado, su principal dificultad consiste en la poca precisión (y consecuentemente difícil cuantificación) de los conceptos de relevancia e interacción. La presente tesis extiende los actuales criterios de selección de características basados en información mutua a través del diseño de un criterio de selección e identificación de grupos complementarios de características. En este contexto, un grupo complementario se define como aquellas características que al actuar conjuntamente entregan mayor información de la variable de salida en relación a la suma de información que cada una de éstas por separado tiene de la variable de salida. Este trabajo se inicia con una detallada revisión de los actuales métodos de selección de características, permitiendo conocer la necesidad de incluir los términos de interacción, específicamente el término de complementariedad o sinergia. Posteriormente se realiza una formalización teórica e identificación de los conceptos de relevancia única, redundancia y complementariedad existentes entre características y la variable de salida. Además se formula una estrategia para determinar el límite inferior de información que cada característica tiene de la variable de salida. Finalmente se realiza el diseño y formulación de un nuevo criterio de selección e identificación de grupos complementarios. Las principales contribuciones de esta tesis son desarrollar una mejora del criterio CMIM (Conditional Mutual Information Maximization) y proponer un nuevo criterio para la identificación y selección de grupos complementarios de características. Los métodos propuestos se comparan con los criterios de selección de características más usados de la literatura. Los resultados muestran que los aportes de la propuesta van más allá de identificar grupos complementarios de características, sino que además permite mejorar el desempeño de los clasificadores en la etapa posterior al preprocesamiento. También el criterio propuesto permite visualizar los grados de interacción que existen entre las características y variable de salida. La complejidad computacional se incrementa levemente, siendo todavía comparable a los criterios más eficientes existentes en el área. Los alcances de esta propuesta permiten establecer en términos generales, una mayor y mejor comprensión de los procesos que generan los datos, y en términos específicos, la información necesaria para una futura detección del tamaño óptimo de características.
379

Aplicación de la teoría de colas al problema de atención al cliente para la optimización del número cajeros en ventanillas en la organización BCP

Arista Arévalo, Jhoneel January 2016 (has links)
Propone una solución al problema de la optimización del número de cajeros en ventanilla que minimice los costos de espera y los de servicios en la organización BCP. Investiga desde los fenómenos de espera, las propuestas de modelos. Establece los requerimientos óptimos en el personal de atención a los clientes en la organización BCP. Desarrolla un modelo de simulación que permita dar respuesta al requerimiento de personal en las ventanillas de atención en la organización BCP.
380

Uso de la ingeniería de negocios en diseño e implementación de negocio para Start up basada en Web Opinion Mining

Ponce de León Pollman, Francisco José January 2015 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / Ingeniero Civil Industrial / Opinion Zoom es un proyecto INNOVA del Web Intelligence Consortium Chile Research Centre del Departamento de Ingeniería Civil Industrial de la Universidad de Chile. El proyecto se basa en el desarrollo de algoritmos para el análisis de opiniones, sentimientos y polaridades de comentarios a partir de los datos depositados por los usuarios en las redes sociales, blogs y páginas a fines, en el marco del desarrollo explosivo que ha tenido la Web 2.0 en la última década. El trabajo de tesis se basa en la definición, desarrollo e implementación de un modelo de negocios que utilice los conocimientos generados por la investigación del proyecto. En particular, se busca mejorar la comunicación entre las organizaciones proveedoras de productos y servicios con los consumidores, caracterizando las preferencias de estos últimos y permitiéndoles a las empresas u organizaciones incorporar modificaciones en sus productos o generar otros nuevos de acuerdo a las opiniones de clientes potenciales y actuales. El beneficio puede alcanzar desde empresas privadas hasta instituciones públicas. La metodología empleada es la correspondiente a la Ingeniería de Negocios , adoptando el Modelo Lean Canvas en lo referente a la creación del Modelo de Negocio. En otras palabras, la lógica del trabajo de tesis consistió en extraer, mediante la metodología Lean Canvas, conocimiento del mercado que luego decantó en reglas semánticas de negocios, las que tradujeron en el diseño completo de cuatro servicios: Inteligencia de Clientes, Trending Alert, Impacto de Campañas y Automatización de reportes, incluyendo el desarrollo de un prototipo de aplicación web funcional el cual se utilizó como parte del MVP para validar los servicios. Posteriormente se diseñó la arquitectura de procesos necesaria para implementar el negocio propuesto, haciendo uso extensivo de los macro-procesos cadena de valor y planificación estratégica. Por otro lado se evaluó el potencial del negocio mediante cuantificación del mercado objetivo y análisis económico, el cual permitió definir al Spin-off , con un VAN de $28.179.728 para la Universidad en un horizonte de 2 años, como mejor alternativa de funcionamiento para la implementación del negocio desde un punto de vista de aversión al riesgo. Finalmente se realizó una prueba de concepto en la cual se validó con éxito la idea de negocio diseñada bajo tres dimensiones distintas: concepto, solución y modalidad de cobro, generándose recomendaciones para la próxima iteración del negocio.

Page generated in 0.2591 seconds