• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 2
  • Tagged with
  • 10
  • 10
  • 10
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Efficient algorithms for risk averse optimization

Chicoisne, Renaud Pierre January 2015 (has links)
Doctor en Sistemas de Ingeniería / Muchos problemas de decisión industriales o logísticos pueden ser vistos como problemas de optimización y para muchos de ellos no es razonable ocupar datos deterministas. Como veremos en este trabajo en el contexto de despachos de emergencia o de planificación de seguridad, las condiciones reales son desconocidas y tomar decisiones sin considerar esta incertidumbre pueden llevar a resultados catastróficos. La teoría y la aplicación de optimización bajo incertidumbre es un tema que ha generado un amplio área de investigación. Sin embargo, aún existen grandes diferencias en complejidad entre optimización determinista y su versión incierta. En esta tesis, se estudian varios problemas de optimización con aversión al riesgo con un enfasis particular en el problema de camino más corto (RASP), problemas estocásticos en redes en general y juegos de seguridad de Stackelberg. Para obtener distribuciones de tiempos de viaje precisos sobre una red vial a partir de datos GPS del sistema de tránsito, se presenta una revisión de los métodos existentes para proyectar trayectorias GPS y se definen dos nuevos algoritmos: Uno que permite la proyección de datos óptima con respecto a una medida de error convenientemente definida (MOE), y un método heurístico rápido que permite proyectar grandes cantidades de datos de manera contínua (MMH). Se presentan resultados computacionales en redes reales y generadas de gran tamaño. Luego, se desarrollan algoritmos eficientes para problemas de ruteo con aversión al riesgo utilizando métodos de Sample Average Approximation, técnicas de linealización y métodos de descomposición. Se estudian la medida de riesgo entrópica y el Conditional Value at Risk considerando correlaciones entre las variables aleatorias. Se presentan resultados computacionales prometedores en instancias generadas de tamaño mediano. Sin embargo, la naturaleza combinatorial de los problemas los vuelve rapidamente intratable a medida que el tamaño del problema crece. Para hacer frente a esta dificultad computacional, se presentan nuevas formulaciones para problemas en redes difíciles, que tienen un menor número de variables enteras. Estas formulaciones ayudan a derivar esquemas de brancheo que se aprovechan de la estructura especial de las formulaciones propuestas. Se muestra como aplicar estas ideas a los conjuntos de camino simple y de circuito hamiltoniano en redes generales, así como los conjuntos de camino simple y de corte en grafos dirigidos acíclicos (DAG). Este trabajo preliminar muestra ideas prometedoras para resolver problemas difíciles. Finalmente, se exploran las implicaciones de los métodos algortmicos y las formulaciones desarrolladas para resolver RASP en un área diferente. Se presentan nuevas formulaciones y enfoques de resolución para juegos de seguridad de Stackelberg cuando el defensor es averso al riesgo con respecto a la estrategia del atacante. Esto se puede resolver de manera polinomial cuando se enfrenta a un adversario y resolviendo un problema de optimización convexa en números enteros cuando el defensor enfrenta varios tipos de adversarios.
2

Algoritmo de mapeo de texturas geológicas en testigos de sondajes utilizando clasificador secuencial en cadena basado en técnicas de transformada de señales

Marulanda Cardona, Lina Yesenia January 2016 (has links)
Magíster en Minería / La caracterización de la textura geológica presente en los testigos de sondajes de exploración es utilizada por las diferentes compañías mineras como un paso determinante a la hora de definir las características litológicas y de mineralización presentes en un proyecto, influyendo de forma directa en los procesos mineros y metalúrgicos relacionados con el negocio. Normalmente esta interpretación es realizada de forma visual por parte de profesionales del área, geólogos, quienes determinan la presencia de una textura o característica textural predominante en determinada longitud de sondaje, basándose en sus conocimientos previos y en su juicio experto. Desarrollos previos han demostrado que esta es una tarea factible de realizar utilizando un clasificador secuencial en cadena basado en técnicas estadísticas de procesamiento de señales. Después de haber establecido la utilidad de este desarrollo en laboratorio bajo condiciones ideales se hace necesario acercarlo a la realidad, es así que este estudio plantea la experimentación a escala piloto sobre una longitud de testigos de sondaje de un proceso exploratorio real, a fin de determinar el algoritmo de trabajo que genere el mayor porcentaje de acierto en la determinación de textura geológica sobre tamaños de soporte mayores a los ya utilizados en la librería de imágenes de entrenamiento. Finalmente se ha obtenido el porcentaje de acierto en la interpretación de texturas geológica sobre una base de datos de fotografías y se mapeó por parte de un especialista con el fin de establecer valores de acierto a partir de la comparación de resultados; al aplicar los procedimientos de interpretación automáticos propuestos se obtuvo un 84.8% de clasificación correcta sobre imágenes individuales. Paso seguido se determinó el aporte de la interpretación de cada muestra en la determinación de la textura presente sobre un soporte definido de longitud 5m obteniendo un máximo porcentaje de acierto de 76.7%, además se describen los procedimientos y mediciones llevados a cabo para lograr el mejor resultado. La importancia de la presente investigación radica en que es la finalización del primer paso en el proceso de modelamiento espacial de atributos geometalurgicos, teniendo como dominio la asignación automatizada de textura en muestras de un depósito mineral. Tal propuesta también se describe en el presente documento.
3

Mejoramiento de la clasificación funcional de enzimas usando aprendizaje de máquinas

Gómez Padilla, David Ignacio January 2017 (has links)
Ingeniero Civil Eléctrico / Los avances tecnológicos han permitido secuenciar el ADN de un organismo de manera mucho más accesible que en el pasado. Esto ha generado grandes volúmenes de información; en particular, de los principales productos génicos, las proteínas. Sin embargo, solo se ha logrado asignar funcionalidad a una centésima parte de las proteínas disponibles, ya que ello se realiza de forma experimental, lo cual es muy laborioso y lento. Es por ello que se han desarrollado un gran número de métodos computacionales que buscan predecir la funcionalidad de las proteínas. Dentro de ellos, BLAST (Basic Local Alignment Search Tool) ha sido el más usado, el cual asigna funcionalidad basándose en la noción de homología: proteínas con secuencias aminoacídicas similares tendrían funciones similares. Sin embargo se ha visto que proteínas con secuencias muy distintas pueden tener la misma funcionalidad, y variaciones en la secuencia de una proteína pueden tener grandes impactos en su función. Debido a las limitaciones de la inferencia de funcionalidad basado en homología, numerosos acercamientos basados en aprendizaje de máquinas han sido propuestos como alternativas. CAFA (Critical Assesment of Functional Annotation) es una competencia que busca evaluar las distintas alternativas que han surgido. Este desafío ha arrojado que no existe un método que sobrepase claramente a los demás, además de probar que si bien las alternativas propuestas sobrepasan el rendimiento de BLAST, este último aún sigue teniendo efectividad. En el presente trabajo se propone BLAST-KNN: un algoritmo que ensambla técnicas de aprendizaje de máquinas junto a BLAST para mejorar el proceso de clasificación funcional en enzimas, un subconjunto de las proteínas, utilizando la nomenclatura de los números EC (Enzyme Commission) como etiquetas. De esta manera se aprovecha la efectividad de BLAST y se intentan corregir aquellas clases en que este no tiene un rendimiento perfecto. Se incorpora el uso del programa InterProScan como extractor de características para representar las proteínas, lo que entrega la ventaja de tener información basada no solo en homología. Se seleccionan las características más relevantes usando técnicas de teoría de la información. Usando los datos disponible en SwissProt que cuentan con sus cuatro dígitos EC asignados, se logran mejorar 835 clases en términos del puntaje F1 obtenido solo por BLAST, lo que representa el 55.48% de las clases en que BLAST no tiene un rendimiento perfecto. Además, se muestra un predominio de BLAST-KNN frente a BLAST al evaluar clases con más de un número EC asignado, mejorando el 60.3% de los casos. Por otro lado, se valida PANTHER, CDD y los descriptores propios de InterPro (IPR) como fuente importante de información al momento de predecir números EC a nuevas enzimas. Las limitantes del algoritmo propuesto están en la poca información por clase disponible, teniendo una distribución no uniforme en el número de muestras por etiquetas, lo que fuerza a utilizar algoritmos simples para clasificar. Se propone mejorar la representación de las enzimas incorporando nuevas características, así como extender el clasificador a uno que considere enzimas que no tengan los cuatro dígitos EC asignados. / Este trabajo ha sido parcialmente financiado por Conicyt 11150107
4

Implementación de una herramienta de monitoreo y gestión de carga de trabajo para hipervisores de tipo I

Linares Bracamonte, Andrés Alberto 15 February 2017 (has links)
En los últimos años se ha incrementado la presencia de los centros de datos, principalmente debido a las tendencias de computación en la nube de hoy en día. Se cuenta cada vez más con centros de datos más grandes debido a la alta demanda que existe. En conjunto, los equipos que forman parte de los centros de datos deben de ser administrados de la mejor manera a fin de aprovechar de forma óptima factores críticos como memoria RAM, tráfico de red y uso de CPU, para mejorar la calidad del servicio otorgado a los usuarios. Paralelamente, el escenario ha cambiado drásticamente en cuanto a la contaminación ambiental. Los daños por el calentamiento global debido al efecto invernadero están afectando gravemente el ecosistema mundial, incidiendo de forma negativa en el derretimiento de los polos y con ello poniendo en peligro a múltiples especies. Dicha contaminación es causada en parte por la combustión que ocasiona la generación de energía eléctrica con fuentes no renovables. Con esto, los centros de datos requieren de un enfoque de manejo de energía que permita utilizarla de forma eficiente y amigable para el planeta. El presente proyecto de fin de carrera busca de proveer de un conjunto de herramientas que de solución a los problemas que puedan involucrar error humano en la administración de carga de trabajo en los hipervisores de tipo 1 –utilizados precisamente en los centros de datos–, obteniendo un mejor manejo de los recursos de hardware y haciendo énfasis en el ahorro de energía. / Tesis
5

Identificación de impactos en una placa compuesta utilizando el principio de máxima entropía y análisis de componentes principales

Véliz Alonso, Pablo Eduardo January 2017 (has links)
Ingeniero Civil Mecánico / Hoy en día el monitoreo de la integridad estructural ha logrado un gran interés. Detectar, localizar y cuantificar el daño en estructuras de forma eficaz, tiene un gran impacto en la seguridad y economía en distintas aplicaciones de ingeniería. Una forma de monitorear la integridad de distintos sistemas se basa en analizar su respuesta vibratoria frente a fuerzas de tipo impacto. Estos eventos son comunes en componentes aeronáuticos y elementos estructurales, y pueden ser precursores de fallas catastróficas o facilitar la aparición de grietas en el material. Por esta razón, se han desarrollado algoritmos que permiten localizar y cuantificar una fuerza de impacto, apenas esta es producida. Sin embargo, es necesario mejorar los resultados obtenidos hasta el momento y analizar la aplicación de estos métodos en estructuras más complejas. Por lo tanto, el objetivo del trabajo es desarrollar un sistema de detección, localización y cuantificación de la intensidad de los impactos en una placa de aluminio compuesta con estructura interna, a partir de un análisis de su respuesta vibratoria. Para esto, se utiliza una aproximación lineal basada en el principio de máxima entropía y además el análisis de componentes principales, el primero denotado como LME y el segundo como PCA, por sus siglas en inglés. Inicialmente, se desarrolla el algoritmo que permite la identificación y cuantificación de impactos. Dado que el algoritmo LME ha sido aplicado anteriormente para el caso de una placa de aluminio simple, se cuenta con los datos de impactos de este estudio, medidos en el Laboratorio de Vibraciones Mecánicas y Rotodinámica de la Universidad de Chile. Con estos datos se comprueba el desempeño del algoritmo LME al incorporar el método PCA. Luego, se diseña y construye un montaje experimental para una placa compuesta, el cual permite medir su respuesta vibratoria. La respuesta se obtiene a partir de las señales entregadas por sensores piezoeléctricos adheridos a la superficie de la placa. Los impactos se realizan por medio de un martillo modal, el cual tiene incorporado un sensor de fuerzas. La señal de los sensores piezoeléctricos y del sensor de fuerzas es adquirida mediante una tarjeta de adquisición de datos. La tarjeta digitaliza las señales para su procesamiento con el software MATLAB. Una vez procesados los datos, se aplica el algoritmo PCA+LME, y su desempeño se evalúa en función del error en las estimaciones de localización y magnitud de los impactos. Se obtiene entonces, para la placa simple un error de área de 0,016% y un error de fuerza de 5,94%. Mientras que para la placa compuesta se obtiene un error de área de 0,045% y un error de fuerza de 10,79%. Se concluye que el desempeño de la metodología desarrollada es validado al considerar los casos para una placa simple y una placa compuesta. Se comprueba que la incorporación del método PCA, como método para extraer parámetros característicos de la señal de respuesta, mejora las estimaciones entregadas por el algoritmo LME. Por otra parte, a pesar de obtener un pequeño aumento en el error, los resultados para la placa compuesta demuestran la efectividad de la metodología en casos más complejos, acercando el estudio a aplicaciones reales.
6

Mecanismos de admisión escolar en Chile

Epstein Rosenberg, Natalie January 2017 (has links)
Tesis para optar al grado de Magíster en Gestión de Operaciones / Memoria para optar al título de Ingeniera Civil Industrial / El 29 de mayo del 2015 se promulgó la Ley de Inclusión Escolar que, entre otras cosas, regula la admisión de los estudiantes y elimina la selección arbitraria en establecimientos educacionales que reciben aportes del Estado, con el fin de dar a las familias igualdad de oportunidades para ingresar a los colegios de su preferencia. Una forma de resolver el fin a la selección escolar es a través de un mecanismo centralizado que asigne a los alumnos a colegios en base a sus preferencias, bajo ciertos criterios de prioridad y desempates aleatorios entre los postulantes. Esto puede resolverse mediante diferentes algoritmos que entregan asignaciones distintas en cuanto al resultado y sus propiedades. En este trabajo explicamos el desarrollo del algoritmo de asignación escolar en Chile, las razones que nos llevaron a elegir el algoritmo de Aceptación Diferida (DA) con sus propiedades y los resultados obtenidos en el proceso de postulación para el año escolar 2017 en la Región de Magallanes. Dentro de los resultados destaca que un 86.4% de los alumnos quedaron asignados en alguna de sus preferencias y un 58% en la primera preferencia declarada. Los alumnos que no quedaron asignados en sus preferencias fueron asignados por distancia a su colegio más cercano con cupos disponibles, o bien al colegio donde estaban matriculados antes de postular. Usando los datos obtenidos, realizamos simulaciones para comparar alternativas de reglas de rompimiento de empates, que pueden ser una lotería única para cada alumno, o una diferente por cada colegio. Al comparar estas dos alternativas, los resultados corroboran lo que expone la literatura, en el sentido de que no hay dominancia estocástica entre los resultados con ambos tipos de loterías, ya que con una lotería única más alumnos quedan en sus primeras preferencias, pero también un mayor porcentaje no es asignado a ninguna de sus preferencias. En el caso de Chile, la Ley de Inclusión Escolar establece que cada colegio puede hacer su propia lotería, por lo que se implementó de esta manera. Finalmente, bajo la hipótesis de que las preferencias de los alumnos en la elección de colegios están correlacionadas entre sí, desarrollamos un modelo probabilístico que permite simular dichas preferencias. Este modelo se basa en el problema de la Urnas de Polya y modelos de Preferential Attachment, en los cuales los elementos del proceso, en este caso las preferencias, siguen una distribución de ley de potencia. Esto, con el objetivo de poder simular instancias de mayor tamaño y anticiparse a lo que ocurrirá en los próximos años cuando el mecanismo se extienda a todas las regiones del país.
7

Evaluación y mejora de un sistema de reconocimiento de iris a distancia utilizando cámara de alta resolución

Yonekura Baeza, Sebastián January 2014 (has links)
Ingeniero Civil Eléctrico / Los sistemas biométricos corresponden a sistemas que realizan el reconocomiento automático de individuos a través de atributos únicos. Para que un patrón biométrico sea utilizable, debe cumplir ciertas propiedades, entre ellas las más importantes son: universalidad; invarianza en el tiempo; fácil recolección y almacenamiento. Se considera que el iris cumple con todas estas características y ha sido utilizado en sistemas de reconocimiento por más de una década. A medida que ha transcurrido el tiempo, los sistemas basados en reconocimiento de iris han mejorado considerablemente con respecto a su exactitud, sin embargo, aún se utilizan sistemas altamente cooperativos y en particular en condiciones de iluminación dañinas para la salud, por lo que la comunidad de investigadores se ha volcado en torno a relajar las restricciones en las que operan estos sistemas, con el fin de mejorar la experiencia de uso y la calidad de vida de los usufructuarios. En este trabajo se evalúa un sistema de reconocimiento de iris a distancia, en donde se utilizan las características de color y textura del mismo para llevar a cabo la clasificación. El trabajo abarca el estudio de distintos algoritmos de preprocesamiento de imágenes, esquemas de codificación y comparación propuestos durante los últimos años, los cuales se evalúan cada uno por separado y finalmente se utilizan en conjunto, además de describir el método propuesto para computar la desición final del sistema. El algoritmo se evalúa en una base de datos que consta de 1505 imágenes correspondientes a 54 sujetos, tomadas a una distancia aproximada de 1.5 [m] de distancia de la cámara utilizando iluminación de espectro visible. A partir de esta base de datos se seleccionan las mejores imágenes de iris utilizando distintos sistemas de evaluación de enfoque, luego se particiona en una base de datos de entrenamiento de parámetros y otra de validación, y finalmente se muestran los resultados con respecto a la base de datos de validación. Se utilizaron kernels para evaluar el enfoque de las imágenes capturadas, en particular los propuestos por Daugman, Kang y Wei y se observó que el kernel de Daugman resulta ser más efectivo. Se utilizaron distintos métodos de corrección de enfoque, reducción de ruido y ecualización de imágenes combinados para mejorar la tasa de reconocimiento del sistema, y se concluyó que el filtro de Wiener para reducir el ruido otorga los mejores resultados. Se implementó un sistema de codificación generalizada para aumentar arbitrariamente la cantidad de bits que se obtienen por cada pixel de la imagen, concluyendo que el mejor tamaño de codificación fue de 4 bits por pixel luego de reducir el ruido en las imágenes utilizando el filtro de Wiener. Se implementó un mapa de pesos por cada usuario registrado en la base de datos, la cual se encarga de otorgarle mayor peso a los bits que a priori son menos variables entre muestras, lo que aumentó la exactitud promedio desde 17.72% a 26.6% utilizando sólo esta mejora, con 5 imágenes por usuario enrolado. Se evaluaron dos métodos para clasificar el iris de acuerdo a su coloración, diferencia promedio y distancia de difusión, en donde se concluyó que la diferencia promedio otorga mejores resultados, sin embargo esta característica no es lo suficientemente discriminadora como para ser utilizada por sí sola. El resultado final del índice de reconocimiento del sistema al utilizar todas las mejoras antes mencionadas y fusionando las características de textura iridal y color de iris de ambos ojos es del 90.77%, con una tasa de aceptación de impostores del 0% en promedio.
8

Using causal tree algorithms with difference in difference methodology : a way to have causal inference in machine learning

Balsa Fernández, Juan José 06 1900 (has links)
TESIS PARA OPTAR AL GRADO DE MAGISTER EN ANÁLISIS ECONÓMICO / been for a long time one of the main focus of the economist around the world. At the same time, the development of different statistical methodologies have deeply helps them to complement the economic theory with the different types of data. One of the newest developments in this area is the Machine Learning algorithms for Causal inference, which gives them the possibility of using huge amounts of data, combined with computational tools for much more precise results. Nevertheless, these algorithms have not implemented one of the most used methodologies in the public evaluation, the Difference in Difference methodology. This document proposes an estimator that combines the Honest Causal Tree of Athey and Imbens (2016) with the Difference in Difference framework, giving us the opportunity to obtain heterogeneous treatment effect. Although the proposed estimator has higher levels of Bias, MSE, and Variance in comparison with the OLS, it is able to find significant results in cases where OLS do not, and instead of estimate an Average Treatment Effect, it is able to estimate a treatment effect for each individual.
9

Implementación de una herramienta de monitoreo y gestión de carga de trabajo para hipervisores de tipo I

Linares Bracamonte, Andrés Alberto 15 February 2017 (has links)
En los últimos años se ha incrementado la presencia de los centros de datos, principalmente debido a las tendencias de computación en la nube de hoy en día. Se cuenta cada vez más con centros de datos más grandes debido a la alta demanda que existe. En conjunto, los equipos que forman parte de los centros de datos deben de ser administrados de la mejor manera a fin de aprovechar de forma óptima factores críticos como memoria RAM, tráfico de red y uso de CPU, para mejorar la calidad del servicio otorgado a los usuarios. Paralelamente, el escenario ha cambiado drásticamente en cuanto a la contaminación ambiental. Los daños por el calentamiento global debido al efecto invernadero están afectando gravemente el ecosistema mundial, incidiendo de forma negativa en el derretimiento de los polos y con ello poniendo en peligro a múltiples especies. Dicha contaminación es causada en parte por la combustión que ocasiona la generación de energía eléctrica con fuentes no renovables. Con esto, los centros de datos requieren de un enfoque de manejo de energía que permita utilizarla de forma eficiente y amigable para el planeta. El presente proyecto de fin de carrera busca de proveer de un conjunto de herramientas que de solución a los problemas que puedan involucrar error humano en la administración de carga de trabajo en los hipervisores de tipo 1 –utilizados precisamente en los centros de datos–, obteniendo un mejor manejo de los recursos de hardware y haciendo énfasis en el ahorro de energía.
10

Extracción de información para la generación de reportes estructurados a partir de noticias peruanas relacionadas a crímenes

Bustamante Alvarez, Gina 12 September 2019 (has links)
Actualmente, múltiples fuerzas policiales y agencias de inteligencia han decidido enfocar parte de sus esfuerzos en la recolección de todo tipo de información sobre crímenes. Esto con el objetivo de poder analizar los datos disponibles y utilizar los resultados de esta tarea para la mejora de procesos actuales, e incluso, para la prevención de ataques y delitos futuros. No obstante, debido a la velocidad con la que se generan datos e información en la última década, las técnicas de análisis tradicional han resultado en baja productividad y en un uso ineficiente de recursos. Es por esta razón, que desde el campo de la informática, y específicamente desde las ciencias de la computación, se vienen realizado múltiples intentos para ayudar a identificar y obtener la información más importante dentro de estos grandes volúmenes de datos. Hasta el momento los estudios previos realizados para este dominio, abarcan desde la predicción del lugar de un delito utilizando data numérica, hasta la identificación de nombres y entidades en descripciones textuales. En este contexto, este trabajo propone la creación de una herramienta de extracción de información para noticias relacionadas al dominio criminal peruano. Buscando identificar automáticamente culpables, víctimas y locaciones mediante los siguientes pasos: (1) Procesamiento y generación de un conjunto de datos en base a noticias criminales, (2) Implementación y validación de algoritmos de extracción e información, y (3) Elaboración de una interfaz de programación de aplicaciones para el consumo del modelo desarrollado. Los resultados obtenidos evidencian que el enfoque utilizado, basado en dependencias sintácticas y reconocimiento de entidades nombradas, es exitoso. Además, se espera que en el futuro se puedan mejorar los resultados obtenidos con técnicas de procesamiento de lenguaje natural para dominios con pocos recursos.

Page generated in 0.1944 seconds