• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 419
  • 11
  • 3
  • Tagged with
  • 433
  • 433
  • 172
  • 132
  • 104
  • 101
  • 101
  • 101
  • 101
  • 101
  • 97
  • 94
  • 93
  • 63
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Algoritmo de mapeo de texturas geológicas en testigos de sondajes utilizando clasificador secuencial en cadena basado en técnicas de transformada de señales

Marulanda Cardona, Lina Yesenia January 2016 (has links)
Magíster en Minería / La caracterización de la textura geológica presente en los testigos de sondajes de exploración es utilizada por las diferentes compañías mineras como un paso determinante a la hora de definir las características litológicas y de mineralización presentes en un proyecto, influyendo de forma directa en los procesos mineros y metalúrgicos relacionados con el negocio. Normalmente esta interpretación es realizada de forma visual por parte de profesionales del área, geólogos, quienes determinan la presencia de una textura o característica textural predominante en determinada longitud de sondaje, basándose en sus conocimientos previos y en su juicio experto. Desarrollos previos han demostrado que esta es una tarea factible de realizar utilizando un clasificador secuencial en cadena basado en técnicas estadísticas de procesamiento de señales. Después de haber establecido la utilidad de este desarrollo en laboratorio bajo condiciones ideales se hace necesario acercarlo a la realidad, es así que este estudio plantea la experimentación a escala piloto sobre una longitud de testigos de sondaje de un proceso exploratorio real, a fin de determinar el algoritmo de trabajo que genere el mayor porcentaje de acierto en la determinación de textura geológica sobre tamaños de soporte mayores a los ya utilizados en la librería de imágenes de entrenamiento. Finalmente se ha obtenido el porcentaje de acierto en la interpretación de texturas geológica sobre una base de datos de fotografías y se mapeó por parte de un especialista con el fin de establecer valores de acierto a partir de la comparación de resultados; al aplicar los procedimientos de interpretación automáticos propuestos se obtuvo un 84.8% de clasificación correcta sobre imágenes individuales. Paso seguido se determinó el aporte de la interpretación de cada muestra en la determinación de la textura presente sobre un soporte definido de longitud 5m obteniendo un máximo porcentaje de acierto de 76.7%, además se describen los procedimientos y mediciones llevados a cabo para lograr el mejor resultado. La importancia de la presente investigación radica en que es la finalización del primer paso en el proceso de modelamiento espacial de atributos geometalurgicos, teniendo como dominio la asignación automatizada de textura en muestras de un depósito mineral. Tal propuesta también se describe en el presente documento.
32

A Computational Study of Algebraic Chemistry

Veloz González, Tomás Igor January 2010 (has links)
La Química Algebraica es un modelo abstracto para la bioquímica. Una Química Algebraica se compone de una red de reacciones moleculares, prescindiendo de una dinámica que permita estudiar su evolución, pues el modelo se enfoca en como las moléculas pueden ser producidas o consumidas por las reacciones. Se ha probado que en una Química Algebraica, un tipo especial de subredes llamadas organizaciones, son las únicas subredes que pueden tener estabilidad dinámica. Este hecho permite simplificar la comprensión de la dinámica de los sistemas bioquímicos, dado que permite explicar la evolución del sistema como movimientos entre organizaciones en el espacio de fase. De aquí que el cómputo del conjunto de organizaciones de una Química Algebraica es una tarea central en la teoría. Al momento no han hay suficientemente buenos algoritmos para computar organizaciones, ni hay una comprensión de la estructura que subyace en la definición de organización (tal vez es esto es la razón de lo anterior). Esta tesis es un intento por formalizar el trabajo algorítmico en Químicas Algebraicas. Dicha formalización busca una fertilización cruzada entre modelos de Ciencias de la computación y Químicas Algebraicas. Es posible enmarcar las Químicas Algebraicas en algunos conocidos formalismos de la Ciencia de la computación como Sistemas de Adición de Vectores y Redes de Petri. Se investiga la equivalencia entre los formalismos mencionados y las Químicas Algebraicas. Luego algunos conocidos problemas de los Sistemas de Adición de Vectores y Redes de Petri tales como alcance (reachability), vida (liveness), etc., son estudiados desde la perspectiva de las Químicas Algebraicas, enfocando el análisis a la relación de dichos problemas con el problema de computar organizaciones. De las ideas que surgen del anterior análisis, se hace posible el desarrollo de varios resultados sobre el cómputo de organizaciones, así como sobre la estructura del conjunto total de organizaciones de una Química Algebraica. Un teorema para descomponer una organización, en subsistemas más simples, y sus implicaciones son derivados como los resultados más importantes de esta tesis. Los resultados de este trabajo hacen posible además el desarrollo de nuevos y más eficientes algoritmos para el cómputo de organizaciones y permite separar diferentes clases de Químicas Algebraicas en términos de la dificultad de computar su conjunto de organizaciones.
33

Mejoramiento de la clasificación funcional de enzimas usando aprendizaje de máquinas

Gómez Padilla, David Ignacio January 2017 (has links)
Ingeniero Civil Eléctrico / Los avances tecnológicos han permitido secuenciar el ADN de un organismo de manera mucho más accesible que en el pasado. Esto ha generado grandes volúmenes de información; en particular, de los principales productos génicos, las proteínas. Sin embargo, solo se ha logrado asignar funcionalidad a una centésima parte de las proteínas disponibles, ya que ello se realiza de forma experimental, lo cual es muy laborioso y lento. Es por ello que se han desarrollado un gran número de métodos computacionales que buscan predecir la funcionalidad de las proteínas. Dentro de ellos, BLAST (Basic Local Alignment Search Tool) ha sido el más usado, el cual asigna funcionalidad basándose en la noción de homología: proteínas con secuencias aminoacídicas similares tendrían funciones similares. Sin embargo se ha visto que proteínas con secuencias muy distintas pueden tener la misma funcionalidad, y variaciones en la secuencia de una proteína pueden tener grandes impactos en su función. Debido a las limitaciones de la inferencia de funcionalidad basado en homología, numerosos acercamientos basados en aprendizaje de máquinas han sido propuestos como alternativas. CAFA (Critical Assesment of Functional Annotation) es una competencia que busca evaluar las distintas alternativas que han surgido. Este desafío ha arrojado que no existe un método que sobrepase claramente a los demás, además de probar que si bien las alternativas propuestas sobrepasan el rendimiento de BLAST, este último aún sigue teniendo efectividad. En el presente trabajo se propone BLAST-KNN: un algoritmo que ensambla técnicas de aprendizaje de máquinas junto a BLAST para mejorar el proceso de clasificación funcional en enzimas, un subconjunto de las proteínas, utilizando la nomenclatura de los números EC (Enzyme Commission) como etiquetas. De esta manera se aprovecha la efectividad de BLAST y se intentan corregir aquellas clases en que este no tiene un rendimiento perfecto. Se incorpora el uso del programa InterProScan como extractor de características para representar las proteínas, lo que entrega la ventaja de tener información basada no solo en homología. Se seleccionan las características más relevantes usando técnicas de teoría de la información. Usando los datos disponible en SwissProt que cuentan con sus cuatro dígitos EC asignados, se logran mejorar 835 clases en términos del puntaje F1 obtenido solo por BLAST, lo que representa el 55.48% de las clases en que BLAST no tiene un rendimiento perfecto. Además, se muestra un predominio de BLAST-KNN frente a BLAST al evaluar clases con más de un número EC asignado, mejorando el 60.3% de los casos. Por otro lado, se valida PANTHER, CDD y los descriptores propios de InterPro (IPR) como fuente importante de información al momento de predecir números EC a nuevas enzimas. Las limitantes del algoritmo propuesto están en la poca información por clase disponible, teniendo una distribución no uniforme en el número de muestras por etiquetas, lo que fuerza a utilizar algoritmos simples para clasificar. Se propone mejorar la representación de las enzimas incorporando nuevas características, así como extender el clasificador a uno que considere enzimas que no tengan los cuatro dígitos EC asignados. / Este trabajo ha sido parcialmente financiado por Conicyt 11150107
34

Democratización de la impresión 3D con fotopolímeros

Calderón Avendaño, Ariel Alejandro January 2012 (has links)
Ingeniero Civil Mecánico / Las impresoras 3D son máquinas que permiten producir objetos tridimensionales físicos a partir de un modelo virtual o sólido, diseñado desde algún programa CAD. Un movimiento de crear impresoras 3D de tipo Open (libres de ser reproducidas o modificadas), ha permitido un desarrollo de parte de comunidades que han visto cómo la tecnología mejora, esto también ha atraído a empresas a tener su propia oferta de impresoras 3D, como resultado se ha visto una baja en el precio considerable además de un menor tamaño, que ha permitido crear el concepto de impresora de escritorio para el hogar. En esta memoria se diseña y construye a BeamMaker, una impresora 3D que utiliza fotopolímeros para la creación de piezas, junto con ella se desarrolla un software para utilizar con la misma. Se requiere que la máquina sea de carácter Open con el objetivo de su fácil masificación y modificación, además de un precio bajo (menos de 500 dólares), ya que el objetivo es llevar esta tecnología a los hogares. La tecnología de polimerización utiliza una fuente de luz, que va curando capa a capa el objeto a crear, se utiliza un fotopolímero que es sensible a una longitud de onda de luz visible, para así utilizar un proyector como fuente de luz, esto permite bajar los costos considerablemente. Durante el diseño de la impresora se observan una serie de problemas que se han de solucionar para así lograr imprimir de manera correcta, entre estos problemas se encuentra la adherencia del objeto a la bandeja móvil de polimerización y a la piscina de polímero, además de problemas por la viscosidad del material para refrescar una capa nueva. Con el objetivo de conocer las mejoras que tiene BeamMaker con respecto a las impresoras actuales, se hace una comparación imprimiendo la misma pieza, para 2 tipos de impresora y BeamMaker, los resultados muestran mejoras tanto a simple vista como en las medidas del objeto, la figura impresa con BeamMaker tuvo un error medio en las medidas de 0.03 mm, mientras que las otras impresoras tuvieron errores de 0.4 y 0.3 mm, mostrando que efectivamente BeamMaker es un aporte respecto al desarrollo de esta tecnología.
35

Adaptación y aplicación del índice de pobreza hídrica en el Valle de Azapa, Región de Arica y Parinacota, para apoyar la gestión territorial e institucional / Adaptation and aplication of the water poverty index in azapa Valley, Arica y Parinacota Region, to support the local and institutional management

Araya Valenzuela, Dámare January 2015 (has links)
Memoria para optar al título profesional de Ingeniera en Recursos Naturales Renovables / El Índice de Pobreza Hídrica (WPI, por sus siglas en inglés) es un índice compuesto, desarrollado por el Centro para la Ecología e Hidrología de Reino Unido en 2002, que busca apoyar el proceso de toma de decisiones respecto a la gestión de los recursos hídricos. El índice integra factores humanos, técnicos y ambientales, que reflejen la condición actual de un territorio. siguiendo una estructura compuesta, en base a 5 ámbitos: Recurso, Acceso, Capacidad, Uso y Ambiente. Cada uno de los ámbitos se compone de variables, que al ser evaluadas a través de indicadores, entregan un valor de WPI, variando de 0 a 100, donde 0 es alta pobreza hídrica, es decir, la ausencia de alguna dimensión de la gestión hídrica obstaculizan el desarrollo de la población, a 100, nula pobreza hídrica, donde la gestión favorece el desarrollo. El presente trabajo adaptó el Índice de Pobreza Hídrica para el Valle de Azapa, Región de Arica y Parinacota, mediante metodologías participativas. Este proceso constó de tres etapas: 1) Identificación de variables relevantes (entrevistas y primer grupo focal) 2) Búsqueda y análisis de indicadores e información para determinar la factibilidad de evaluar las variables identificadas (trabajo de gabinete) 3) Aprobación de variables e indicadores y determinación de pesos relativos de variables y ámbitos (segundo grupo focal). Se evaluaron un total de 10 variables, resultando un valor de Índice de Pobreza Hídrica de 49,81, equivalente a alta pobreza hídrica (poco seguro), es decir, a una condición de vulnerabilidad, asociada a los recursos hídricos, donde el equilibrio entre los sistemas ambientales, sociales y económicos permiten el desarrollo, pero es inseguro. Posteriormente se identificaron las variables relevantes para mejorar esta situación, reconociendo dos vías de análisis, una que agrupa a las variables con mayor influencia en el Índice (mayor peso relativo), y otra que selecciona las variables de menor complejidad de intervención (que la decisión recaiga sólo en un actor y/o que actualmente existan mecanismos que permitan su mejora). De ambos grupos, el que mayor impacto genera es el segundo, que incluye las variables Estado de canales (Acceso), Escuelas (Capacidad), Capacitaciones (Capacidad), y Tecnificación (Uso), generando un aumento de 23,34 puntos, resultando en un Índice de Pobreza Hídrica de 73,15, alcanzando la seguridad hídrica. / The Water Poverty Index (WPI) is a composite index developed by the Centre for Ecology and Hydrology of the United Kingdom in 2002, that aims to support the decision making process regarding water resources. The index integrates human, technical and environmental factors that reflect the territory’s conditions, through a composite structure based in 5 components: Resources, Access, Capacity, Use and Environment. Each of them is formed by variables, which, after being evaluated through indicators, create a WPI value that moves from 0, meaning high water poverty- the lack of any dimension of water management hinders development- and 100, null water poverty, where management facilitates the territory’s development. The present work adapted the Water Poverty Index in Azapa Valley, Arica y Parinacota Region, through participatory methods (interviews and focal groups). This process was developed in three phases: 1. Identification of important variables (through interviews and a first focal group) 2. Research and analysis of indicators and information to determined the feasibility of evaluating the identified variables. 3. Approval of variables and indicators and determination of relative weights (second focal group) A total of 10 variables were evaluated, resulting in a WPI of 49,81, high water poverty, meaning a vulnerability condition, associated to water resources, where the balance among the social, environmental and economical systems allows development, but is unsafe. After the variables’ identification and evaluation, an analysis to determine which variables were relevant to improve the situation was made, recognizing two possible intervention lines: one that works with the variables that have more influence in the WPI value and a second line that considers actions in those variables with lower intervention complexity (were the decision making process is only depending on one actor or that currently have improvement mechanisms). The line that more impact caused in the final WPI value was the second, including the variables of Canals’ condition (Access), Schools (Capacity), Trainings (Capacity) and Technification of irrigation systems (Use), producing an increment of 23,34 points, resulting in a WPI of 73,15, reaching water security.
36

Sistema de gestión y control de inventario de servidores computacionales en una sala de cómputos

Viaux Igualt, Juan Pablo January 2014 (has links)
Magíster en Gestión y Dirección de Empresas / Hoy en día las empresas se apoyan en sistemas computacionales para automatizar y optimizar recursos que entreguen información actualizada, completa y a tiempo, considerando que es un elemento de apoyo que les permite competir. Es decir, el uso de la tecnología aplicada se ha transformado en una herramienta estratégica para su desarrollo y crecimiento. Estos sistemas y aplicaciones, residen en componentes computacionales, los que están alojados en lugares especiales llamados Centros de Datos o Data Center, que poseen infraestructura y capacidades técnicas y de seguridad que les permiten asegurar una disponibilidad de operación, de acuerdo a niveles de servicio estandarizados internacionalmente. Al interior de estos Centros de Datos, se deben realizar, entre otros y en forma constante, muchos servicios de mantención, administración, reparación y monitoreo de elementos computacionales, en donde en las mayoría de los casos, no se cuenta con información actualizada de sus características físicas, ubicación, estado de operación, generando alto costo para llevar a cabo estas actividades, dado que se requiere personal especializado que debe trabajar con debidas autorizaciones con protocolos de evaluación de riesgo y de posibles fallas propias de los sistemas o componentes a intervenir o efectos secundarios al resto de las instalaciones Para llevar a cabo lo anterior, se utilizó la metodología denominada Canvas la que permite desarrollar un modelo de negocios desde la identificación de los actores claves, propios y del mercado, sus interrelaciones, la propuesta de valor y su proyección en el tiempo. En el presente trabajo se desarrolla un análisis y evaluación de una solución, la que permite reducir los costos de operación y mantención de los elementos computacionales, como así también, disminuir sus tasas de fallas, aumentando la disponibilidad de los sistemas físicos y de información que contienen. Permitiendo con ello, llegar a niveles de estándares internacionales en los servicios prestados y la calidad de la infraestructura, resguardando con ello, la inversión que realizan los clientes en tecnología y aportando valor a sus negocios en cuanto a aumentar la disponibilidad y uso las 24 horas del día, de sus sistemas físicos. Los resultados esperados en base al modelo de negocios y el uso de la tecnología correspondiente, nos permitirán disminuir la tasa de fallas por efecto humano la que hoy alcanza un 70% a nivel mundial, bajar los costos de las asistencias técnicas hasta en un 50% producto del control, administración y trazabilidad de los componentes computacionales, como así mismo, mejorar en más de un 20% el uso de los recursos computacionales, considerando que en promedio hoy alcanzan entre un 40 y 60% de ocupación de sus capacidades.
37

Histograma de orientación de gradientes aplicado al seguimiento múltiple de personas basado en video

Tolentino Urbina, Álvaro Junior 31 March 2017 (has links)
El seguimiento múltiple de personas en escenas reales es un tema muy importante en el campo de Visión Computacional dada sus múltiples aplicaciones en áreas como en los sistemas de vigilancia, robótica, seguridad peatonal, marketing, etc., además de los retos inherentes que representa la identificación de personas en escenas reales como son la complejidad de la escena misma, la concurrencia de personas y la presencia de oclusiones dentro del video debido a dicha concurrencia. Existen diversas técnicas que abordan el problema de la segmentación de imágenes y en particular la identificación de personas, desde diversas perspectivas; por su parte el presente trabajo tiene por finalidad desarrollar una propuesta basada en Histograma de Orientación de Gradientes (HOG) para el seguimiento múltiple de personas basado en video. El procedimiento propuesto se descompone en las siguientes etapas: Procesamiento de Video, este proceso consiste en la captura de los frames que componen la secuencia de video, para este propósito se usa la librería OpenCV de tal manera que se pueda capturar la secuencia desde cualquier fuente; la siguiente etapa es la Clasificación de Candidatos, esta etapa se agrupa el proceso de descripción de nuestro objeto, que para el caso de este trabajo son personas y la selección de los candidatos, para esto se hace uso de la implementación del algoritmo de HOG; por último la etapa final es el Seguimiento y Asociación, mediante el uso del algoritmo de Kalman Filter, permite determinar las asociaciones de las secuencias de objetos previamente detectados. La propuesta se aplicó sobre tres conjuntos de datos, tales son: TownCentre (960x540px), TownCentre (1920x1080px) y PETS 2009, obteniéndose los resultados para precisión: 94.47%, 90.63% y 97.30% respectivamente. Los resultados obtenidos durante las experimentaciones validan la propuesta del modelo haciendo de esta una herramienta que puede encontrar múltiples campos de aplicación, además de ser una propuesta innovadora a nivel nacional dentro del campo de Vision Computacional. / Tesis
38

Evaluación y mejora de un sistema de reconocimiento de iris a distancia utilizando cámara de alta resolución

Yonekura Baeza, Sebastián January 2014 (has links)
Ingeniero Civil Eléctrico / Los sistemas biométricos corresponden a sistemas que realizan el reconocomiento automático de individuos a través de atributos únicos. Para que un patrón biométrico sea utilizable, debe cumplir ciertas propiedades, entre ellas las más importantes son: universalidad; invarianza en el tiempo; fácil recolección y almacenamiento. Se considera que el iris cumple con todas estas características y ha sido utilizado en sistemas de reconocimiento por más de una década. A medida que ha transcurrido el tiempo, los sistemas basados en reconocimiento de iris han mejorado considerablemente con respecto a su exactitud, sin embargo, aún se utilizan sistemas altamente cooperativos y en particular en condiciones de iluminación dañinas para la salud, por lo que la comunidad de investigadores se ha volcado en torno a relajar las restricciones en las que operan estos sistemas, con el fin de mejorar la experiencia de uso y la calidad de vida de los usufructuarios. En este trabajo se evalúa un sistema de reconocimiento de iris a distancia, en donde se utilizan las características de color y textura del mismo para llevar a cabo la clasificación. El trabajo abarca el estudio de distintos algoritmos de preprocesamiento de imágenes, esquemas de codificación y comparación propuestos durante los últimos años, los cuales se evalúan cada uno por separado y finalmente se utilizan en conjunto, además de describir el método propuesto para computar la desición final del sistema. El algoritmo se evalúa en una base de datos que consta de 1505 imágenes correspondientes a 54 sujetos, tomadas a una distancia aproximada de 1.5 [m] de distancia de la cámara utilizando iluminación de espectro visible. A partir de esta base de datos se seleccionan las mejores imágenes de iris utilizando distintos sistemas de evaluación de enfoque, luego se particiona en una base de datos de entrenamiento de parámetros y otra de validación, y finalmente se muestran los resultados con respecto a la base de datos de validación. Se utilizaron kernels para evaluar el enfoque de las imágenes capturadas, en particular los propuestos por Daugman, Kang y Wei y se observó que el kernel de Daugman resulta ser más efectivo. Se utilizaron distintos métodos de corrección de enfoque, reducción de ruido y ecualización de imágenes combinados para mejorar la tasa de reconocimiento del sistema, y se concluyó que el filtro de Wiener para reducir el ruido otorga los mejores resultados. Se implementó un sistema de codificación generalizada para aumentar arbitrariamente la cantidad de bits que se obtienen por cada pixel de la imagen, concluyendo que el mejor tamaño de codificación fue de 4 bits por pixel luego de reducir el ruido en las imágenes utilizando el filtro de Wiener. Se implementó un mapa de pesos por cada usuario registrado en la base de datos, la cual se encarga de otorgarle mayor peso a los bits que a priori son menos variables entre muestras, lo que aumentó la exactitud promedio desde 17.72% a 26.6% utilizando sólo esta mejora, con 5 imágenes por usuario enrolado. Se evaluaron dos métodos para clasificar el iris de acuerdo a su coloración, diferencia promedio y distancia de difusión, en donde se concluyó que la diferencia promedio otorga mejores resultados, sin embargo esta característica no es lo suficientemente discriminadora como para ser utilizada por sí sola. El resultado final del índice de reconocimiento del sistema al utilizar todas las mejoras antes mencionadas y fusionando las características de textura iridal y color de iris de ambos ojos es del 90.77%, con una tasa de aceptación de impostores del 0% en promedio.
39

Desarrollo de un Workspace Colaborativo Móvil para Apoyar a los Inspectores de Obra en Escenarios de Construcción

Bravo Ojeda, Gabriel January 2010 (has links)
No description available.
40

Modelado para la mejora del proceso de gestión de ventas usando BPM en una empresa industrial. Caso: Industrial Yale del Perú S.A.C.

Mosquera Molina, Alan Giovanni January 2013 (has links)
Publicación a texto completo no autorizada por el autor / Señala las buenas prácticas para una adecuada gestión de procesos de negocio, buscando alinear el negocio con las tecnologías de información. El trabajo se desarrolló en base de la integración de la Gestión de Procesos del Negocio (BPM), tomando en consideración la fase de modelado de procesos y puesta en producción a través de una aplicación web que simula todo el comportamiento del modelo del proceso de gestión de ventas, el cual permitió formalizar el proceso de ventas de la empresa industrial y dar solución a los problemas que significaban un obstáculo para el progreso de la misma, llegando a una solución que permita el alineamiento estratégico de los procesos de negocio y las tecnologías de información. Como caso práctico, este trabajo presenta la aplicación de esta solución en la empresa Industrial Yale del Perú S.A.C como contribución a la mejora del Proceso de Gestión de Ventas. / Trabajo de suficiencia profesional

Page generated in 0.0752 seconds