• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 94
  • 10
  • Tagged with
  • 104
  • 104
  • 104
  • 16
  • 15
  • 14
  • 13
  • 13
  • 12
  • 11
  • 11
  • 10
  • 10
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Modelo de toma de decisiones de mantenimiento para evaluar impactos en disponibilidad, mantenibilidad, confiabilidad y costos

Rivera Estay, José Luis January 2015 (has links)
Magíster en Gestión y Dirección de Empresas / El presente estudio tomó como tema central la mejora continua en los procesos de mantenimiento, y desde esta forma de administrar esta disciplina, este documento se hizo cargo de desarrollar un Modelo de Toma de decisiones de Mantenimiento para evaluar impactos en KPI de relevancia como lo son: Disponibilidad, Mantenibilidad, Confiabilidad y Costos. La propuesta de valor radica en que la organización donde se desarrolla este estudio carecía de una forma de evaluar en tiempo real las decisiones que se toman. No existía una metodología que permita pre y post evaluar los efectos sobre indicadores de interés respecto a las decisiones que se toman sobre la administración del mantenimiento de equipos. El objetivo del modelo desarrollado fue entregar los elementos de juicio técnico y económico para optimizar las decisiones de mantenimiento sobre los equipos móviles que administra la Superintendencia de Mantenimiento Mina subterránea, Gerencia Minas, Codelco División Andina. Se escogió dentro de las técnicas de análisis de confiabilidad, la técnica llamada Cost Scatter Diagrams (CSD), además de evaluar la calidad e información con que se disponía para validar las conclusiones obtenidas a través de su representatividad. La técnica permite representar los KPI de interés en distintos escenarios de acuerdo a sus eventos de falla, por lo que se propuso una metodología para también proyectar posibles resultados de acuerdo a propuestas de mejora y así identificar una tendencia para tomar la decisión de realizar o no la mejora. Por último fue posible desarrollar un software que contenga los algoritmos de la metodología propuesta para aportar en oportunidad y valor sobre la gestión de la organización en cuestión. Dentro de las conclusiones más relevantes de lo desarrollado se puede mencionar que se generó una solución de gestión en el ámbito del mantenimiento que permitió: La posibilidad de descartar entre propuestas de mejora para eventos de falla, mediante un modelo que permite pre evaluar escenarios. La posibilidad de medir la gestión de un número determinado de tomadores de decisión de mantenimiento a través de la post evaluación de mejoras, cuando ellas ya se han ejecutado.
52

Inversión del tensor de momento sísmico y función fuente temporal de terremotos utilizando registros de campo cercano

Morales Yáñez, Catalina Patricia January 2016 (has links)
Magíster en Ciencias, Mención Geofísica / Obtener parámetros de la fuente sísmica a partir de datos sismológicos y/o geodésicos es de suma importancia en la caracterización de la fuente de terremotos, lo cual cobra especial relevancia en sistemas de monitoreo sísmico en tiempo real. Existen modelos y metodologías que permiten realizar estas inferencias asumiendo distintos niveles de complejidad en el modelo de la fuente sísmica. Sin embargo, la inversión simultánea del tensor de momento y función fuente temporal utilizando datos regionales y de campo cercano de terremotos es un tema poco estudiado. El obje- tivo principal de este trabajo es invertir la función fuente temporal y el tensor de momento sísmico utilizando datos sismológicos de campo cercano y regional. Para ello se planteó una metodología y se desarrolló una herramienta computacional propia, la cual se usó para estudiar parámetros de la fuente de sismos magnitud Mw > 6.0 ocurridos en la zona Norte de Chile. El código computacional se escribió en lenguaje de programación Python, el cual permite in- vertir el tensor de momento sísmico y la función fuente temporal usando registros de campo cer- cano. Para calcular las funciones de Green del medio se utilizaron los programas computacionales Computer Programs in Seismology (CPS). El programa de inversión lee las funciones de Green precalculadas y minimiza el error de ajuste entre los sismogramas sintéticos y observados usando el método de mínimos cuadrados para estimar las componentes del tensor de momento. La función fuente se parametrizó como la suma de funciones bases, donde las amplitudes de éstas son las in- cógnitas del problema. Para estimar la función fuente se aplicó la técnica de mínimos cuadrados no negativo con un término adicional de regularización que impone una condición de suavidad sobre la función fuente. El código realiza la búsqueda del mejor centroide espacial para el ajuste de los datos, para ello itera primero en latitud y longitud, fijando la profundidad, y una vez obtenidas las coordenadas óptimas realiza una segunda iteración esta vez en profundidad. La metodología se aplicó a eventos de la secuencia sísmica del terremoto de Pisagua del 2014, Mw 8.1, y a un evento ocurrido el 2011 a 130 km de profundidad en la zona de estudio. El análisis de las soluciones obtenidas de los eventos estudiados muestra que los resultados son confiables y robustos al compararlos con soluciones publicadas por agencias sismológicas, pudiéndose incluso obtener relaciones entre la función fuente y las características del evento tales como su magnitud o profundidad (superficial, en la zona de contacto o profundo). El método de inversión si bien posee algunas limitaciones que pueden ser mejoradas, logra recuperar el tensor de momento y la función fuente en forma robusta. Las diferencias observadas con otras soluciones se encuentran en el rango de error y se observa que la función fuente depende de la zona sismogénica en donde ocurre.
53

Propuesta de mejora al proceso de reutilización de casos de pruebas

Álvarez González, Michelle Solange January 2017 (has links)
Magíster en Tecnologías de la Información / El presente trabajo de tesis pretende resolver una problemática al interior de Informática en la institución bancaria BCI. El Banco BCI contempla una Gerencia de Informática, la cual está compuesta por diversas unidades y áreas, en donde se desarrollan proyectos tecnológicos. Durante el ciclo de vida de los proyectos se debe validar que cumplen con sus funcionalidades, en forma correcta. La Gerencia de Calidad está a cargo de efectuar el proceso de certificación, y en base al resultado si es exitoso se dará autorización para su implantación en producción. En la Gerencia de Calidad existe un problema en el proceso de certificación, específicamente con los casos de pruebas que se generan en la herramienta ALM HP, puesto que carecen de reutilización, lo cual significa que cada caso es generado nuevamente desde cero, provocando duplicidad y casos no reutilizables. Para subsanar esta situación se propone una mejora al proceso actual de reutilización de casos de pruebas, el cual ha sido construido en la misma herramienta ALM HP donde se crean los casos de pruebas, por lo que la búsqueda se efectúa dentro de la misma, evitando interactuar con otras aplicaciones. El buscador facilita la búsqueda de casos de prueba y ello permite aumentar el nivel de reúso de las pruebas creadas de antemano. El correcto funcionamiento del buscador ha sido validado por Líderes de QA y Analistas de Pruebas. Los niveles de reutilización fueron validados con la jefatura de la Gerencia de Calidad, cuyos niveles fueron en promedio de un 35,59% en el año 2015, y para el año 2016 fue de un 48%. Esta información fue revisada junto al gerente de la Gerencia de Calidad quien destacó aspectos positivos en lo que respecta a los beneficios de la reutilización, así como disminución de tiempos y costos por concepto de diseño y confección de casos de pruebas. Durante el desarrollo de este proyecto se descubrió una consecuencia involuntaria; ya que no sólo aumentaron los niveles de reutilización de casos de pruebas, sino que aumentó la calidad del proceso de certificación al reutilizarse casos de pruebas gracias al buscador. Estos casos de pruebas eran casos que el Analista de Pruebas inicialmente no tenía contemplado diseñar. Todo esto contribuye a darle un valor agregado a este proyecto de tesis y a la Gerencia de Calidad.
54

Extensión de un sistema de coevaluación de miembros de equipos de desarrollo de software

Sánchez Ruiz, Sebastián Ignacio January 2016 (has links)
Ingeniero Civil en Computación / La coevaluación es el proceso a través del cual los integrantes de un equipo de trabajo evalúan el desempeño de sus pares. El aumento de los trabajos en equipo que se realizan a nivel académico ha llevado a que esta herramienta sea cada día más requerida para evaluar el desempeño de los integrantes de un equipo. Además, este proceso permite que los docentes a cargo de un curso puedan ver lo que ocurre al interior de los equipos, de modo de poder intervenir a tiempo en caso de necesidad. Por otra parte, la coevaluación permite a los integrantes de estos equipos identificar sus propias debilidades, las cuales pueden afectar el desempeño grupal. A pesar de su utilidad, el uso de la coevaluación se ve comprometido debido al tedioso proceso manual que involucra realizar esta actividad. Proceso en el cual se debe escribir documentos personalizados para cada equipo y sus integrantes, los cuales luego de respondidos deben ser procesados también manualmente, dejando los resultados sujetos a errores. Para solucionar esto, el año 2014 se desarrolló un sistema Web de apoyo a las coevaluaciones. Esta herramienta permite crear de forma rápida y simple coevaluaciones, completarlas, y luego generar los resultados de forma automática y sin errores. Si bien este software presenta un gran avance respecto al procesamiento manual, los datos procesados quedan acotados a las coevaluaciones respectivas. Esto limita la capacidad de realizar un seguimiento de las notas individuales o grupales, que permitan visualizar el progreso o retroceso de los equipos y/o de sus integrantes. A su vez, no existen procesos de análisis de los datos ni mecanismos que ayuden a los estudiantes a detectar sus debilidades para poder corregirlas. En este trabajo de memoria se desarrollaron soluciones a los problemas planteados. Para esto, se realiza una completa reingeniería del antiguo sistema de coevaluaciones, con el fin de poder agregar mecanismos de seguimiento de las notas de equipos y de sus integrantes. Así mismo, se modificaron y categorizaron los ítems evaluados, para entregar información relevante a docentes y alumnos, acerca de las dimensiones en las cuales ellos se destacan, así como de aquellas en las que tienen problemas. Estos resultados son luego usados por el sistema para ayudar a aquellos miembros que presentan problemas en ciertas dimensiones. Para esto, la aplicación envía sugerencias de acciones concretas (creadas por el equipo docente) para aquellos miembros del equipo que necesitan mejorar. Además el sistema envía sugerencias que los mismos miembros de equipo generan para sus pares. Por otra parte, se repararon errores de usabilidad del anterior sistema y se agregó un nuevo tipo de usuario llamado ayudante. Diferentes pruebas realizadas al nuevo sistema muestran su estabilidad y buen funcionamiento. Docentes, auxiliares y alumnos que usaron la herramienta expresaron su satisfacción con las nuevas funcionalidades y la usabilidad de la nueva aplicación. Se espera que estas nuevas funcionalidades y las mejoras a la usabilidad permitan que otros cursos, en donde se realizan trabajos en equipo, hagan uso de esta nueva herramienta. De esta forma equipo docente y alumnos podrán tener un mayor conocimiento de lo que ocurre al interior de los equipos, y tomar acción para superar los problemas y así lograr su cometido.
55

Análisis, diseño y construcción de un sistema hidropónico automatizado para autoconsumo de vegetales y plantas ornamentales

Lübbert Carmona, José Pedro January 2016 (has links)
Ingeniero Civil Industrial / El presente trabajo muestra la implementación de la metodología de desarrollo de Software RUP para investigar y resolver cómo construir un prototipo funcional orientado a desarrollar las actividades que típicamente se deben hacer para mantener un cultivo hidropónico de forma automática, con la posibilidad de dejar programados los valores de variables ambientales que debe controlar el dispositivo. La metodología de desarrollo de software pretende investigar inicialmente el proceso global de los cultivos hidropónicos, para luego identificar las labores más importantes que se deben desarrollar en la práctica, con el fin de identificar por separado las distintas acciones que debe llevar a cabo el sistema, para finalmente formalizar la programación e implementación de dichos procesos de forma ordenada. Dicha metodología permitió encontrar de forma exitosa modelos conceptuales claves para el desarrollo de futuras iteraciones del desarrollo de este prototipo, en conjunto con aportar fuertemente al orden del código. La experimentación logró concluir que los sensores utilizados para medir la cantidad de sales disueltas en el agua funcionan con precisión suficiente para poder desarrollar el sistema de hidroponía.
56

Diseño e implementación de un sistema para monitorear el consumo y opinión sobre la marihuana en Twitter

Cortés Sánchez, Víctor David January 2016 (has links)
Ingeniero Civil Industrial / Este trabajo tiene como objetivo diseñar e implementar una aplicación que recolecte información de los usuarios chilenos de Twitter para monitorear el consumo y opinión sobre la marihuana dentro del mismo contexto, y evaluar los resultados con respecto a los valores reales de la población nacional. La aplicación se sostiene como rama de investigación del proyecto CORFO, "OpinionZoom". El cual está enfocado en explorar grandes bases de datos generadas gratuitamente para recopilar, organizar y extraer conocimiento. Es por esto que fue contactado por la Unidad de Adicciones del Hospital Clínico de la Universidad de Chile para aplicar este enfoque en el estudio de drogas en Chile. Especialmente en la marihuana, cuyo consumo ha evidenciado un crecimiento promedio sostenido durante los últimos años, aumentando los costos asociados a la droga. Por esta razón, se buscan nuevas herramientas que puedan explicar el comportamiento reciente. La cantidad total de información digital ha explotado en los últimos años, siendo conformada en su mayoría por datos no estructurados. Esto se explica por la mayor participación de los usuarios de sitios web en la creación de contenido. Particularmente, Twitter brinda un ambiente donde pueden compartir libremente, lo cual genera gran cantidad de información relacionada con la vida de sus usuarios. La aplicación de Text Mining, Data Mining y Web Opinion Mining habilita la extracción de patrones desde datos estructurados y no estructurados para obtener información relevante que apoye la toma de decisiones. La clasificación de textos y los sentimientos emitidos por ellos pueden ser combinados con la estructura de las relaciones entre usuarios para replicar el alto poder predictivo del contorno social con respecto al consumo de marihuana. La implementación de la aplicación fue realizada en código Java, utilizando el paradigma de programación modular. La aplicación permite extraer tweets relacionados con marihuana, clasificarlos con respecto a categorías, extraerles la polaridad y combinarlos con medidas de Análisis de Redes Sociales para predecir el consumo de marihuana. Los resultados señalaron que la combinación de modelos con rendimientos medianamente buenos es útil para predecir el consumo de marihuana a nivel individual. A nivel agregado se obtuvieron resultados prometedoras, pero aún faltan datos para la validación estadística, dejando los resultados a la interpretación del cliente. Se concluye que la información generada en Twitter representa una herramienta poderosa para comprender el comportamiento de las personas y ayudar a la toma de decisiones del estado con respecto a políticas públicas.
57

Caracterización de exoplanetas mediante técnicas de procesamiento de señales y método de las velocidades radiales

Mahú Sinclair, Rodrigo Manuel January 2016 (has links)
Ingeniero Civil Electricista / El método de las velocidades radiales permite la detección de planetas en otros sistemas solares, al obtener las características y configuración del sistema planetario. Esto es usualmente realizado por métodos secuenciales, que no garantizan obtener una solución global del problema. Una distorsión en la primera señal detectada, en conjunto con la ventana de muestreo no uniforme pueden causar la aparición de componentes artificiales. En este trabajo se desarrolló un método para encontrar una solución global del problema. Determinando tanto el número de componentes como las características de estas. Para esto se implementó dos programas en C, que en conjunto permitirán determinar las características y configuración de sistema. Estos se evalúan tanto en la validez de los resultados que entregan, como de la eficiencia computacional de los mismos. Para la validación se utilizó señales reales proporcionadas por astrónomos y señales artificiales. Se muestra como el periodograma basado en MMSE entrega resultados comparables con los del periodograma Lomb Scargle. Entregando además los parámetros de las componentes detectadas. Se utilizó un análisis de grilla para detectar la configuración del sistema y refinar las soluciones.
58

Software product line model for the meshing tool domain

Rossel Cid, Pedro Osvaldo January 2013 (has links)
Doctor en Ciencias, Mención Computación / Una malla es una discretización de la geometría de un cierto dominio. Las mallas pueden estar compuestas de diversos elementos: triángulos, cuadriláteros, tetraedros, etc. Una herramienta para la generación de mallas es un aplicación que permite crear, refinar, desrefinar, mejorar, suavizar, visualizar y posprocesar mallas y/o una región particular de ella, como también asignar valores físicos a los elementos de la malla (temperatura, concentración, etc.). Las herramientas para la generación de mallas son complejas y sofisticadas, y construir una herramienta nueva desde cero o mantener una existente, demanda un esfuerzo enorme. Existe una necesidad y oportunidad para usar enfoques nuevos en el desarrollo de estas herramientas, de manera de reducir tanto el tiempo como los costos de desarrollo, sin comprometer la calidad. La experiencia en el desarrollo de estas herramientas provee la motivación para la construcción de otras nuevas mediante la reutilización del trabajo realizado durante los desarrollos previos. Estas herramientas comparten varias características y sus variaciones pueden ser manejadas sistemáticamente. Esto hace que el desarrollo de estas herramientas sea una buena oportunidad para aplicar el enfoque de Línea de Productos de Software (LPS). Los procesos existentes de LPS son generales y requieren usualmente una serie de pasos y documentación innecesaria en el dominio de las herramientas para la generación de mallas. Así, esta tesis propone un modelo de proceso de LPS específico para este tipo de herramientas. Un proceso de desarrollo de LPS está centrado en la reutilización de software, e involucra principalmente dos fases: la ingeniería del dominio (ID) y la ingeniería de la aplicación (IA). El proceso presentado en este trabajo está centrado en dos etapas de la ID: el análisis del dominio (AD) y el diseño del dominio (DD). En el AD se define el modelo del dominio y el alcance de la LPS. En el DD la arquitectura de la línea de productos (ALP) es creada; esta arquitectura es válida y compartida por todos los productos en la LPS. Un modelo de características es comúnmente usado para modelar el dominio. En este trabajo, el AD también ocupa un diccionario, escenarios, acciones y metas para proveer el razonamiento utilizado para la construcción del modelo de características. Esta tesis presenta un proceso riguroso para obtener el modelo del dominio. Este modelo es formalizado mediante condiciones de consistencia y completitud. El proceso de definición del alcance es presentado a través de un diagrama de actividad. Además, el enfoque presentado en esta tesis presenta explícitamente los diferentes productos de la LPS, estableciendo relaciones entre productos y las características de la LPS, lo que permite administrar el desarrollo del producto. La etapa de DD se centra en la creación de la ALP, artefacto esencial para la construcción de productos de la LPS. Para ello, este trabajo provee un proceso deductivo y otro transformacional. En el primero, una ALP explícita es desarrollada, usando los artefactos producidos en el AD. Además, tanto la vista arquitectónica estructural como la de comportamiento son establecidas. Ambas vistas son generales y permiten la representación de cualquier producto dentro del alcance de la LPS. En el proceso transformacional, una ALP implícita es desarrollada usando reglas de transformación, las que han sido creadas usando artefactos producidos en el AD. En este proceso se produce la arquitectura para productos específicos, y la ALP es definida como la suma de todas las arquitecturas de los productos. Tanto el AD como el DD son descritos en detalle, y la aplicación del modelo de la LPS es ilustrado a través de un ejemplo bien documentado en el dominio de las herramientas para la generación de mallas, el que tiene un grado relativamente alto de complejidad. En este ejemplo, un modelo del dominio formalizado es introducido, y la arquitectura es definida tanto para el proceso deductivo como para el transformacional.
59

Gestión integral de productividades para el Departamento de Ciencias de la Computación

Toledo Acuña, Luis Esteban January 2015 (has links)
Magíster en Tecnologías de la Información / El Departamento de Ciencias de la Computación de la Universidad de Chile (DCC) cuenta con un programa de monitoreo de las actividades de todos sus funcionarios y académicos, con el cual se define las asignaciones económicas (productividades) de la gente que compone el Departamento. El programa de productividades actualmente funciona mediante un proceso artesanal, basado en transferencias de datos a través de emails y comunicaciones cara-a-cara. El procesamiento de estos datos también se realiza de forma manual (usando planillas Excel), pues no existe un sistema de software capaz de apoyar la gestión completa de dicho programa. Debido a la poca automatización de la solución actual, el proceso se vuelve susceptible a errores y poco visible para la mayoría de los involucrados. Por otra parte, las limitaciones de esta solución hacen difícil la extracción de estadísticas precisas, que permitan apoyar la toma de decisiones en este ámbito. Además, el costo de informar a los funcionarios y académicos acerca de sus productividades del mes en curso, o acerca de su historial de productividad, se vuelve sumamente alto. En resumen, el programa de productividades es actualmente un mecanismo susceptible a errores, y poco visible y accesible para la mayoría de los miembros del DCC. El propósito de este trabajo de tesis es diseñar e implementar una solución de software que le permita a este programa: (1) ser fácilmente accesible y visible para todos los involucrados; (2) realizar un manejo seguro y preciso de la información de productividades; (3) manejar la generación y entrega de información en forma online en base a perfiles de usuarios; y (4) generar estadísticas que permitan apoyar la toma de decisiones de las autoridades del DCC. De esa manera, se buscará mejorar parte de la gestión interna del Departamento, volviéndolo más robusto y transparente en un ámbito que es sumamente sensible para la gente.
60

Textram, un lenguaje de especificación de dominio textual, para el desarrollo y manejo de modelos RAM

Oliva Rodríguez, Marel Josué January 2015 (has links)
Magíster en Tecnologías de la Información / La programación orientada a aspectos (AOP) sirve para separar las preocupaciones transversales desde la perspectiva de implementación de un sistema de software. El modelamiento orientado a aspectos (AOM) ofrece una alternativa para representar las preocupaciones transversales en niveles más altos de abstracción, en etapas anteriores a la implementación del software. "Reusable Aspect Models" (RAM) es un enfoque de AOM, que permite el diseño detallado de un sistema de software a través de módulos llamados "aspect models". La representación gráfica de RAM está inspirada por UML; los aspectos son definidos estáticamente a través de diagramas de clases y dinámicamente por medio de diagramas de estado y de secuencia. La consistencia entre modelos está asegurada por RAM, gracias a la jerarquía de modelos y estructuras de dependencias. TouchRAM es una herramienta gráfica para el modelado de aspectos RAM. Actualmente TouchRAM continúa en desarrollo y es la única herramienta disponible para la creación de RAMs. TouchRAM no está disponible para el público general, dificultando su adopción en otros proyectos de software. El objetivo de la presente tesis es presentar TextRAM, un modelador textual para la definición de modelos RAM. TextRAM se presenta como una alternativa a TouchRAM. El código fuente de TextRAM está disponible para su descarga y su implementación pretende estimular el desarrollo e investigación de RAM. Los modelos resultantes de TextRAM, podrán ser utilizados por TouchRAM y viceversa. Los usuarios de RAM, podrán elegir entre un modelamiento gráfico con TouhRAM o de un modelamiento textual con TextRAM. Los objetivos de TextRAM son: (1) definición de una abstracción adecuada para la sintaxis concreta textual, (2) implementar una extensión de Eclipse que permita la edición de modelos con la sintaxis concreta de TextRAM, (3) tranformación de modelos desde TextRAM a TouchRAM y viceversa, (4) Aplicar las validaciones semánticas alineadas a las reglas de TouchRAM, (5) demostrar la validez de TextRAM, por medio de un caso de estudio llamado Slot Machines.

Page generated in 0.104 seconds