• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1078
  • 99
  • 7
  • 1
  • Tagged with
  • 1186
  • 512
  • 367
  • 367
  • 367
  • 367
  • 367
  • 327
  • 324
  • 310
  • 264
  • 233
  • 169
  • 145
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Rediseño del proceso de gestión de inventario para un mayorista del rubro perfumería.

Daher Gray, Antonio January 2007 (has links)
El presente trabajo de título tuvo como objetivo el rediseño de los procesos de gestión de inventario para una empresa mayorista del rubro perfumería. Junto con esto se determinaron los requerimientos en torno a los medios (layout) y herramientas (apoyo computacional) que serán necesarios para apoyar los rediseños propuestos.
332

Aplicaciones de soluciones antipardeantes y cloruro de calcio en manzana variedad Cripps pink mínimamente procesada / Applications of antibrowning solutions and calcium chloride on minimally processed variety cripps pink apple

Neira Saavedra, Marianela Viviana January 2014 (has links)
Memoria para optar al título profesional de Ingeniera Agrónoma Mención: Agroindustria / Con el objetivo de prolongar la vida útil de manzana mínimamente procesada en fresco (MPF), se realizaron dos estudios en los cuales se aplicaron soluciones antipardeantes y cloruro de calcio en cascos de manzana variedad “Cripps Pink” y se almacenaron bajo atmósfera modificada durante 10 días a 8 ± 1 ºC. En ambos casos, los tratamientos, concentraciones de los compuestos aplicados y tiempos de inmersión fueron los mismos, diferenciándose en la permeabilidad de la bolsa plástica que se utilizó para el envasado. Se utilizó ácido ascórbico (AA; 0,5 %), ácido cítrico (AC; 0,5 %), cisteína (Cys; 0,3 %) y cloruro de calcio (CaCl 2 ; 0,5 %). Se evaluaron variables físicas y químicas y se realizaron análisis microbiológicos y sensoriales. En el caso del Ensayo I, donde se utilizó la bolsa PD 961, al analizar el color, no se observaron diferencias significativas entre las muestras tratadas y el testigo, por lo que la condición de atmósfera alcanzada no fue efectiva en retardar el pardeamiento. En el caso del Ensayo II, donde se utilizó la bolsa PD 900, al realizar los distintos análisis, se observaron diferencias significativas entre las muestras tratadas y el testigo, excepto en los sólidos solubles totales y la acidez titulable. Además, se observó que la condición de atmósfera alcanzada sólo fue efectiva en evitar el desarrollo de bacterias aerobias mesófilas, puesto que los recuentos de bacterias psicrófilas, enterobacterias, hongos y levaduras no registraron diferencias significativas. Tomando en cuenta todas las variables analizadas, se observó que la aplicación de 0,5 % AA + 0,5 % AC + 0,5 % CaCl 2 fue efectiva en prolongar la vida útil de cascos de manzana variedad “Cripps Pink”. / In order to extend the shelf life of fresh cut “Cripps Pink” apple, two assays were carried out in which antibrowning and calcium chloride solutions were applied in apple wedges stored under modified atmosphere for 10 days at 8 ± 1 °C. In both, the chemical treatments were combined with different type of plastic bags. Ascorbic acid (AA; 0,5 %), citric acid (AC; 0,5 %), cysteine (Cys; 0,3 %) and calcium chloride (CaCl 2 ; 0,5 %) were used. Physical and chemical variables and microbiological and sensory analyzes were performed. In the first experiment, PD 961 bags were used and changes in color were not found probably due to the low oxygen levels reached by the bags. In the second one, differences among treatments were found, except in total soluble solids and titratable acidity when PD 900 bags were used. The reached atmosphere condition in the bags delayed the aerobic mesophilic growth but psychrophilic, enterobacteria, mold and yeasts counts do not show significant differences. According to the results, 0,5 % AA + 0,5 % AC + 0,5 % CaCl 2 was effective in prolonging the shelf life of fresh cut “Cripps Pink” apple.
333

Identificación de impactos en una placa compuesta utilizando el principio de máxima entropía y análisis de componentes principales

Véliz Alonso, Pablo Eduardo January 2017 (has links)
Ingeniero Civil Mecánico / Hoy en día el monitoreo de la integridad estructural ha logrado un gran interés. Detectar, localizar y cuantificar el daño en estructuras de forma eficaz, tiene un gran impacto en la seguridad y economía en distintas aplicaciones de ingeniería. Una forma de monitorear la integridad de distintos sistemas se basa en analizar su respuesta vibratoria frente a fuerzas de tipo impacto. Estos eventos son comunes en componentes aeronáuticos y elementos estructurales, y pueden ser precursores de fallas catastróficas o facilitar la aparición de grietas en el material. Por esta razón, se han desarrollado algoritmos que permiten localizar y cuantificar una fuerza de impacto, apenas esta es producida. Sin embargo, es necesario mejorar los resultados obtenidos hasta el momento y analizar la aplicación de estos métodos en estructuras más complejas. Por lo tanto, el objetivo del trabajo es desarrollar un sistema de detección, localización y cuantificación de la intensidad de los impactos en una placa de aluminio compuesta con estructura interna, a partir de un análisis de su respuesta vibratoria. Para esto, se utiliza una aproximación lineal basada en el principio de máxima entropía y además el análisis de componentes principales, el primero denotado como LME y el segundo como PCA, por sus siglas en inglés. Inicialmente, se desarrolla el algoritmo que permite la identificación y cuantificación de impactos. Dado que el algoritmo LME ha sido aplicado anteriormente para el caso de una placa de aluminio simple, se cuenta con los datos de impactos de este estudio, medidos en el Laboratorio de Vibraciones Mecánicas y Rotodinámica de la Universidad de Chile. Con estos datos se comprueba el desempeño del algoritmo LME al incorporar el método PCA. Luego, se diseña y construye un montaje experimental para una placa compuesta, el cual permite medir su respuesta vibratoria. La respuesta se obtiene a partir de las señales entregadas por sensores piezoeléctricos adheridos a la superficie de la placa. Los impactos se realizan por medio de un martillo modal, el cual tiene incorporado un sensor de fuerzas. La señal de los sensores piezoeléctricos y del sensor de fuerzas es adquirida mediante una tarjeta de adquisición de datos. La tarjeta digitaliza las señales para su procesamiento con el software MATLAB. Una vez procesados los datos, se aplica el algoritmo PCA+LME, y su desempeño se evalúa en función del error en las estimaciones de localización y magnitud de los impactos. Se obtiene entonces, para la placa simple un error de área de 0,016% y un error de fuerza de 5,94%. Mientras que para la placa compuesta se obtiene un error de área de 0,045% y un error de fuerza de 10,79%. Se concluye que el desempeño de la metodología desarrollada es validado al considerar los casos para una placa simple y una placa compuesta. Se comprueba que la incorporación del método PCA, como método para extraer parámetros característicos de la señal de respuesta, mejora las estimaciones entregadas por el algoritmo LME. Por otra parte, a pesar de obtener un pequeño aumento en el error, los resultados para la placa compuesta demuestran la efectividad de la metodología en casos más complejos, acercando el estudio a aplicaciones reales.
334

The vocludet galaxy cluster finder: optimization, validation and visualization

Pereira Gallardo, Sebastián January 2016 (has links)
Magíster en Ciencias, Mención Computación / Actualmente la astronomía se enfrenta al reto de manejar y analizar el gran volumen de información que se genera cada día. Muchas de las preguntas sin respuesta que existen en la actualidad requieren medidas de alta precisión de los diversos componentes del universo. Por esta razón, se necesitan algoritmos de procesamiento de datos, que sean capaces de tomar la cantidad masiva de datos y procesarla para obtener catálogos enriquecidos de información que sean de fácil acceso. Los cúmulos de galaxias, siendo altamente masivos, nos permiten trazar las regiones de alta densidad de distribución de la materia, por lo que una muestra completa proporciona entre otros, una descripción de la formación de estructuras en el universo temprano. Vocludet es un algoritmo de detección de cúmulos de galaxias, que detecta estos objetos utilizando las propiedades geométricas y astrofísicas de las galaxias. Este trabajo describe el análisis, validación y optimización de Vocludet, a través del uso de los datos artificiales, obtenidos a partir de una simulación de distribución de materia. Para la validación, los resultados del algoritmo se comparan con el catálogo de datos simulados, en términos de tasa de recuperación y pureza, es decir, qué fracción del catálogo de referencia se recupera y qué fracción de los grupos detectados son reales, respectivamente. La simulación de datos utilizada consiste en un catálogo artificial del Milennium Run, una gran simulación del universo. Este catálogo contiene información acerca del agrupamiento de galaxias que puede ser usado para comparar con los resultados obtenidos por Vocludet. Además, una herramienta de visualización se desarrolla para mostrar de forma interactiva los grupos en cualquier plataforma que posea un navegador de Internet moderno. Esto último con el propósito de realizar debugging, así como también presentar el resultado final. Los resultados finales indican que Vocludet tiene una tasa de recuperación de 59% en general y 66% de pureza. Sin embargo, cuando se restringe el análisis sólo a los cúmulos con más de 10 galaxias, las tasas de recuperación y pureza son 75% y 90% respectivamente. Además, otras propiedades de interés de los cúmulos tales como dispersiones de velocidad presentan un estrecho acuerdo con los valores correspondientes para los cúmulos de referencia, lo que refuerza aún más la evidencia de Vocludet como un detector de clúster fiable.
335

Characterization of healthy skin with high-frequency ultrasound using quantitative ultrasound

Saavedra Bazán, Ana Cecilia 20 August 2018 (has links)
The skin is the largest organ of the body that protects it from the external environment. High- frequency ultra sound (HF-US) has been used to visualize the skin in depth and to diagnose some pathologies in dermatological applications. Quantitative ultrasound (QUS) includes several techniques that provide values of particular physical properties. In this thesis work, three QUS parameters are explained and used to characterize healthy skin through HF-US: attenuation coefficient slope (ACS), backscatter coefficient (BSC) and shear wave speed (SWS). They were estimated with the regularized spectral-log difference (RSLD) method, the reference phan- tom method, and the crawling wave sonoelastography method, respectively. All the three parameters were assessed in phantoms, ex vivo and in vivo skin. In calibrated phantoms, RSLD showed a reduc- tion of up to 93% of the standard deviation concerning the estimation with SLD, and BSC showed an agreement with the Faran’s theoretical curve. In gelatin-based phantoms, surface acoustic waves (SAWs) were estimated in two interfaces: solid-water and solid-US gel, which all owed corroborating SAWs presence and finding an empirical compensation factor when the coupling interface is US gel. A correction factor of 0:97 for SAW-to-shear was found to avoid underestimation in phantoms. Porcine thigh was calculated in the range from 8 to 27 MHz, where the ACS was 4:08 _+_0:43 dB cm -1 MHz-1 and BSC was in the range from 10 1 to 10° sr-1 _cm-1. Crawling wave sonoelastography method was applied for the vibration frequencies between 200 Hz and 800 Hz, where SWS was in the range from 4:6 m/sto9:1 m/s. In vivo ACS and BSC were assessed in the healthy forearm and thigh, whereas SWS only in the thigh. The average ACS in the forearm dermis was 2.07dB cm-1 _MHz-1, which is in close agreement with the literature. A significant difference (p < 0.05) was found between the ACS in the forearm dermis and the thigh dermis (average ACS of 2.54dB cm-1 _MHz-1). The BSC of the forearm and thigh dermis were in the range from 10 -1 to 10° sr-1 _cm-1, and in the range from 10-1 to 10° sr-1 _cm-1, respectively. The SWS in the thigh dermis was 2:4 _+_0:38 m/s for a vibration frequency of 200Hz, with an increasing trend as frequency increases. Results suggest that these QUS parameters have the potential to be used as a tool for in vivo skin characterization and show potential for future application in skin lesions. / Tesis
336

Detección y Seguimiento de Robots Articulados Mediante Análisis Computacional de Imágenes

Arenas Sepúlveda, Matías Esteban January 2009 (has links)
El objetivo de esta tesis es diseñar e implementar un sistema de detección y seguimiento de robots articulados mediante el análisis computacional de imágenes. El principal aporte es extender el uso de técnicas de detección de objetos rígidos a robots articulados y lograr un seguimiento en tiempo real de la posición de éstos en imágenes y secuencias de video. El trabajo realizado está enfocado principalmente a condiciones de fútbol robótico pero es fácilmente extendible a otras aplicaciones. El reconocimiento de robots articulados requiere la detección de éstos en cualquier estado y posición. Para lograrlo, se probaron distintos tipos de clasificadores de manera de obtener una mayor tasa de detección, independiente del estado del robot (acostado, parado, caminando, etc…). Los robots utilizados para probar los algoritmos fueron el robot Aibo y los robots de tipo Humanoide (basado en el modelo Hajime). El sistema antes mencionado necesitó la creación e implementación de distintas herramientas computacionales. Para la detección de robots en imágenes se utilizó un sistema basado en Adaboost, y para el posterior seguimiento se ocupó el algoritmo “mean-shift”. Para la detección mediante Adaboost se generaron una serie de bases de datos para el entrenamiento del algoritmo. Posteriormente se construyeron diversos clasificadores (frontal, lateral, trasero, global, etc…), y se probaron distintas estrategias de detección. El detector con mejores resultados para Aibos fue el Lateral, con una tasa de detección de hasta 94.7% con 98 falsos positivos en la base de datos AIBODetUChileEval. Luego siguen el detector Trasero, con 89.9% y 166 falsos positivos y, por último, el detector Frontal con 89.4% y 254 falsos positivos. Finalmente se probó la detección de los Aibos en todas las posiciones con un detector múltiple, el cual obtuvo una tasa de detección de 94.8% con 392 falsos positivos. Aplicando solo el detector frontal sobre todas las imágenes con Aibos obtuvo solo un 90% de detecciones con 392 falsos positivos, pero es más rápido que el detector múltiple. Para los Humanoides se desarrolló un solo detector que logró un 92.2% de detecciones con 123 falsos positivos sobre la base de datos HDetUChileEval. Se concluyó finalmente que los clasificadores Adaboost elegidos en este trabajo para hacer las clasificaciones reportan excelentes resultados, y no se duda que puedan también hacerlo en otros tipos de aplicaciones de similares características. Además se logró hacer la detección y el seguimiento de robots en tiempos muy cercanos al tiempo real, lo cual permite ocuparlo en aplicaciones con altas restricciones de procesamiento.
337

Inferencia de la Volatilidad de Retornos Financieros Usando Filtro de Partículas

Tobar Henríquez, Felipe Arturo January 2010 (has links)
En este trabajo se presenta y evalúa un modelo de volatilidad estocástica, basado en el modelo determinístico Generalized Autoregressive Conditional Heteroskedasticity (GARCH), para describir la relación entre los retornos de un proceso financiero y la volatilidad de éstos. Este modelo, a diferencia de la estructura GARCH, considera que las observaciones de los retornos pueden explicarse a través de un proceso de innovación, cuya distribución a priori se asume idéntica a la que especifica el modelo GARCH para dichos retornos. La estructura propuesta recibe el nombre de unobserved GARCH (uGARCH), ya que considera que un proceso de innovación no observado --en lugar de una secuencia determinística-- es el que dirige la evolución de la volatilidad. La estructura propuesta uGARCH, entre otros modelos convencionales de volatilidad, ha sido utilizada para resolver el problema de estimación de estado, en conjunto con esquemas basados tanto en filtro de partículas (PF), como en el filtro extendido de Kalman (EKF). Además, con dichos filtros se identificaron adaptativamente los parámetros del modelo usando el concepto de evolución artificial de parámetros. El PF utilizado corresponde al muestreo de importancia con remuestro (SIR), mientras que la estructura basada en EKF considera un banco de filtros. Ambas estructuras estiman conjuntamente los estados y parámetros del sistema. Las técnicas presentadas han sido evaluadas cuantitativamente --mediante la introducción de índices de desempeño-- en simulación y con datos reales. En este último caso se consideró la volatilidad del índice NASDAQ Composite, la cual se estimó durante el período Julio 21, 2008 hasta Julio 17, 2009, y se predijo al día Diciembre 15, 2008 considerando horizontes de predicción entre 1 y 45 días. Tanto en simulación como en la aplicación mencionada, los resultados reportados por el conjunto uGARCH-PF son auspiciosos en el sentido de que mediante su implementación (i) el filtrado es altamente exacto y preciso según los índices propuestos, y (ii) las predicciones del intervalo de confianza son consistentes con el valor real (o mejor aproximación) del proceso.
338

Sistema de Apoyo para el Desarrollo de Habilidades Matemáticas en Alumnos de Enseñanza Media

Valdebenito Méndez, Rubén Gustavo Nelson Bernardo January 2011 (has links)
El objetivo del trabajo es desarrollar un sistema basado en la web que permita mejorar la destreza matemática de los alumnos de establecimientos de educación media, por medio de la ejercitación diaria de los contenidos, a medida que estos son entregados por el docente en la clase de aula. A partir del análisis previo al presente trabajo sobre las funciones que cumple o podría realizar el profesor, se determinan los elementos que participan del sistema: Colegio, Alumno, Profesor, Curso, Tópico, Ejercicio, Familia de Ejercicio, Ejemplo de Ejercicio y Capítulo o Guía. Luego se definen las interfaces y la interacción del usuario con el sistema, se realiza un proceso de transformación de Modelo Entidad-Relación a Modelo Relacional y procede a la normalización de la base de datos en tercera forma normal. Dada la necesidad de distribuir el sistema a través de internet por páginas web, se determina que el sistema interactúe con los usuarios en una arquitectura cliente-servidor, se elige el lenguaje de programación PHP y administrador de base de datos Postgres. Bajo la suposición de que facilitar al profesor de aula, material de ejercitación on–line de manera flexible y específica, aumenta la efectividad del material utilizado, mejorando así los procesos de aprendizaje de los alumnos, se implementa un sistema que posee las características que permiten al profesor la elaboración de material de ejercitación y su entrega controlada a los alumnos en cantidad, dificultad y regularidad diaria. El sistema es rápidamente aceptado por los alumnos y profesores, operando según lo esperado, y dado los recursos de internet a los cuales puede acceder la comunidad educativa (alumnos, familia y colegio), los tiempos de acceso para el usuario son mínimos. Se concluye que es posible para el profesor mediante la operación del sistema, lograr el trabajo diario de los alumnos en la forma planificada, además de mejorar la posición de la dirección del establecimiento respecto del proceso de enseñanza y también del apoderado, en la medida que dispone de acceso a la web. Respecto de mejorar la destreza de los alumnos, no se realizan mediciones, aunque los datos almacenados por el sistema permiten el eventual proceso de información para la determinación de indicadores de aprendizaje.
339

Proyección de Datos Multidimensionales Utilizando Teoría de la Información

Vera Cadenas, Pablo Andrés January 2010 (has links)
En el presente trabajo se desarrolló un método no supervisado de proyección y visualización de datos multidimensionales a espacios de baja dimensión, en especial a 2D. El modelo de proyección propuesto consiste en una matriz de transformación lineal y ortonormal entre los espacios de entrada y salida. Para la optimización de los parámetros se utilizaron como criterios de proyección medidas basadas en la Teoría de la Información, en particular la Información Mutua. Debido a la complejidad del cálculo de la Información Mutua utilizando la forma clásica de Shannon, se trabajó con medidas basadas en la entropía de Renyi, las que combinadas con un estimador de funciones de densidad de probabilidad, llamado ventana de Parzen, permitieron el cálculo de la Información Mutua Cuadrática directamente a partir de los ejemplos. El método es no paramétrico ya que no requiere información a priori sobre la distribución de los datos. Adicionalmente, para mejorar el desempeño se añadió un pre-procesamiento para los datos llamado Blanqueo, el cual transforma los datos linealmente de forma que las características de los mismos no tengan correlación y que la varianza sea unitaria. El método fue probado en cuatro bases de datos distintas con diversa complejidad y fue comparado con otros algoritmos como Análisis de Componentes Principales (PCA), Stochastic Neighbor Embedding (SNE) y Mapas de Sammon (NLM), utilizando como criterios de desempeño tanto medidas de preservación topológica como otras basadas en clustering. Los resultados mostraron que el método propuesto es capaz de proyectar datos de alta a baja dimensión manteniendo gran parte de la información de los mismos, en especial en términos de clustering. El algoritmo superó a PCA en todas las pruebas y obtuvo resultados comparables con SNE y NLM a pesar de que estos métodos son no-lineales. Se desarrolló además una caracterización del método para determinar aspectos como orden computacional y dependencia de parámetros. Por otro lado, se demostró la necesidad de desarrollar nuevas métricas para medir el desempeño de los algoritmos de proyección.
340

Optimización de la fragmentación en zona mineralizada aplicando el método Stem Charge en el cebado de voladuras primarias caso: mina Toquepala

Malory Sheyla, Riojas Concha January 2018 (has links)
Publicación a texto completo no autorizada por el autor / Realiza un estudio comparativo entre los resultados de los proyectos tomados como línea base y la pruebas con Stem Charge, así demostrar que se puede mejorar notablemente la fragmentación resultado de voladura, medido mediante el análisis de la eficiencia de carguío de las palas y el work índex de planta concentradora. Los resultados muestran que para para los niveles Nv 2800 y Nv 2785 donde se llevan a cabo las pruebas se obtiene una reducción de entre el 46% al 34% en el índice de P80. Además, según datos obtenidos de las Reuniones de Mejora Continua (RMC de las semanas: 2786. 2785 y RMC 2784) en donde muestran la toma de tiempos de carguío de los diferentes frentes de la Pala 2, se tiene una disminución de aproximadamente 30% con el uso del tipo de carguío Stem Charge vs Iniciación simple. Asimismo, en el análisis en el proceso de chancado y molienda, se observa las mejoras en un orden del 6.7 %. / Tesis

Page generated in 0.0736 seconds