• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 2
  • Tagged with
  • 27
  • 27
  • 11
  • 11
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Towards Integrated Management of the Supply Chain for Enterprise Sustainability

Laínez Aguirre, José Miguel 15 January 2010 (has links)
Las tendencias del mercado han hecho que las empresas cambien su forma de hacer negocios. La Globalización ha permitido a las empresas tener la posibilidad de acceder a distintos proveedores y mercados globalmente dispersos. Actualmente para mantener un nivel competitivo, el mercadoreclama productos amigables con el medio ambiente, rápido desarrollo de nuevos productos, alta calidad y fiabilidad, entre otros. Para cumplir con tales requisitos, las empresas dependen cada vez más de su Cadena de Suministros (CS). De hecho, la competencia en el mercado ya no es únicamente entre empresas, sino entre CS. La comunidad científica es consciente de este cambio y ha dedicado esfuerzos a la concepción de estrategias para el modelado y optimización de CS. Asimismo, la industria química Europea reconoce necesaria la mejora de la Gestión de la Cadena de Suministros (GCS) para mantenerse competitiva en un mercado global. La GCS trata de maximizar los retornos financieros sincronizando los flujos de materiales, información y efectivo existentes entre las distintas entidades interconectadas con el objetivo de proveer un producto al mercado. Recientemente, también se reconoce la necesidad de una Gestión Integrada de la CS (GICS), la cual consiste en la sincronización de otras funciones del negocio y de diferentes niveles de decisión. El actual entorno dinámico de los negocios y de las propias operaciones hacen difícil la coordinación de las actividades de la CS. Por tanto, es importante que los objetivos y planes sean desarrollados considerando explícitamente la incertidumbre del mercado y de las propias tareas de fabricación y que sean revisados periódicamente. El propósito de esta tesis es contribuir al desarrollo de estrategias para la GICS. La tesis contempla CS centralizadas, es decir, se considera que existe una entidad central que es capaz de controlar las actividades de toda la CS. Después de una revisión de conceptos y de las estrategias existentes para abordar la GICS, la tesis se enfoca en el desarrollo de modelos queincluyen decisiones de diferentes funcionalidades del negocio. Esta parte explora cómo mejorar el comportamiento de la CS si conjuntamente con la gestión estratégica de la CS se integran decisiones asociadas con finanzas, marketing y desarrollo de nuevos productos. A continuación la tesis se dedica a temas puramente relacionados con la gestión estratégica y táctica de las operaciones de la CS. Se investiga cómo obtener una representación más apropiada de los procesos productivos a nivel de CS. En esta parte se considera también el diseño de CS considerando su impacto ambiental asociado. La cuarta parte está dedicada a la consideración de la incertidumbre. Para ello se propone un control predictivo que incorpora como algoritmo de control un modelo estocástico. Se muestra como las incidencias pueden resolverse de mejor manera cuando se tiene en cuenta una visión completa de la CS en la búsqueda de posibles soluciones. Además, se desarrolla una extensión del método para programación de operaciones (PO) S-graph para abordar problemas con incertidumbre. Esta propuesta posee la particularidad que el tamaño del espacio de búsqueda no crece con el número de escenarios considerados. Dicha característica permite reducir los tiempos de solución, lo cual es uno de los desafíos en esta área. La última contribución está relacionada con la integración de los niveles de decisión. Se muestra como la capacidad es el factor clave para llevar a cabo esta integración. Se examinan las implicaciones de considerar la PO cuando se diseña una CS. En esta parte se hace hincapié en la errónea sobreestimación de la capacidad que se obtiene cuando la PO no es incluida en el diseño de CS. Aún más, se demuestra como la capacidad permite la integración del módulo de control de bajo nivel con la CS por medio de la formulación de la PO. Dicha integración permite actualizar la capacidad real y resolver adecuadamente interrupciones y fallos en los equipos. / Market trends have made enterprises change the way of doing business. Globalization makes accessible a wide range of globally dispersed potential suppliers and customers. For competitive customer service now the market demands environmentally friendly products, rapid development of newproducts, high quality and reliability, among others. In order to fulfill such requirements firms depend more and more on their supply chains (SC). Indeed, nowadays competition is not longer among individual firms, but among SCs. The process system engineering community has been conscious of this shift and has thus devoted research efforts on devising SC and enterprise-wide modeling and optimization strategies. Likewise, from another stand point, the European chemical industry has realized the necessity of SC improvement in order to remain competitive in the global market. Supply Chain Management (SCM) is intended to maximize financial returns by synchronizing material, cash and information flows across interconnected entities that seek to provide products to consumers. Lately, it has been recognized the necessity for integrated SCM solutions which incorporate and synchronize decisions from several business functions and different hierarchical levels. Current changing and uncertain marketenvironment and internal business concerns make it even more difficult to synchronize all the SC activities. Hence, it would be desirable that SC objectives and plans were developed considering market and internal operations uncertainty explicitly, revised periodically and eventually modified following the uncertainty disclosure. The aim of this thesis is to contribute to the centralized integrated SCM. The centralized approach to SCM considers that there exists a central entity that it is able to control the activities of the whole business. After an overview of SCM and analysis of existing approaches, the second part of this thesis is focused on the development of models which consider the variety of business functionalities. This part explores how business performance can be improved by integrating strategic SCM with financial, marketing and product development planning. The following section is devoted to topics related to pure strategic and tactical SC operations. It is investigated how a more appropriate representation of production processes can be achieved at the SC level. This part is also concerned with the environmentally conscious design of SCs. The fourth part is focused on uncertainty considerations. A model predictive control whose control algorithm is a stochastic formulation is proposed to face uncertainty and dynamics in SCM. Here, it is shown how incidences can be better resolved by approaching them from a SC perspective. This part also presents a novel graph based approach to deal with scheduling under exogenous uncertainty. The S-graph framework is enhanced to address a two stage stochastic scheduling considering demand as uncertain. One of the advantages of this approach is that the search space does not increasewith the number of considered scenarios. Such a feature reduces the computational cost required to solve this kind of problems which is one of the major challenges in this field, thus constituting a robust alternative to existing schedulers to become eventually the best option in integrated SCM. The last contribution concerns the integration of hierarchical decision levels. The fifth part examines the implications of considering scheduling decisions when designing a SC network. It is shown how capacity is the core factor that allows the integration of hierarchical levels. This part emphasizes that an optimistic performance, due to capacity overestimation, is obtained if scheduling is not consider into the SC design formulation. Moreover, it is demonstrated how capacity permits low level supervisory control integration. Such integration allows updating SC capacity and adequately resolving equipment disruptions or breakdowns.
2

Síntesis y caracterización del complejo: 2-(2-piridil)bencimidazol sacarinato plata (I), [Ag(pbi)(sac)]

Casimiro Soriano, Enzo Martin January 2018 (has links)
Publicación a texto completo no autorizada por el autor / Desarrolla una nueva ruta de síntesis del complejo polimérico sacarinato plata (I), [Ag(sac)]n, y la síntesis del complejo 2-(2-piridil)bencimidazol sacarinato plata(I), [Ag(pbi)(sac)]. La caracterización de ambos compuestos se realiza a través de los métodos de amperometría, análisis elemental, análisis por XPS, espectroscopía de IR, UV-Visible, 1H-RMN y 13C-RMN. / Tesis
3

Mejora de procesos en una compañía de seguros empleando la metodología de los 7 pasos de la mejora continua

More Diaz, Evelyn January 2017 (has links)
Publicación a texto completo no autorizada por el autor / Describe el proyecto de mejora realizado en la empresa La Positiva Vida Seguros y Reaseguros, aplicando la metodología de los siete pasos del control de calidad para dar solución a los problemas. Al aplicarse la metodología, se identifica los problemas y se selecciona como principal problema la demora de la entrega de la póliza de seguro, ante esto se plantea y se implementa soluciones. / Trabajo de suficiencia profesional
4

El método del gradiente espectral proyectado acelerado mediante paralelismo : aplicaciones a ingeniería de procesos

Ardenghi, Juan Ignacio 20 May 2014 (has links)
En el área de Ingeniería de Procesos abundan los problemas de optimización no lineales. En busca de formulaciones más realistas ha aumentado la exigencia de un modelado riguroso. Como complejidades incorporadas, al aumento de la cantidad de variables continuas y restricciones no lineales se le suman la presencia de variables binarias. En muchos casos los problemas se resuelven mediante la relajación de variables y condiciones, así generando subproblemas no lineales cuya resolución se realiza a través de aproximaciones lineales y cuadráticas. La pregunta formulada en esta tesis es la siguiente ¿Podemos lograr eficiencia sin tener que relajar el problema? Es decir ¿podemos conseguir soluciones del modelo original en tiempos razonables? En esta tesis proponemos explotar el Método del Gradiente Espectral Proyectado (SPG) mediante su refundación a partir del paradigma paralelo. El SPG es un método de optimización global no monótono para problemas de programación no lineal, con características diferentes a las exhibidas por los métodos clásicos de gradiente proyectado. La no monotonicidad y una elección particular de la longitud del paso permiten aprovechar situaciones especiales que se presentan en muchos problemas, acelerando la convergencia con mínimos costos de almacenamiento de datos. Entre sus características más atractivas aparece su bajo costo en operaciones: SPG no calcula matrices hessianas ni resuelve sistemas lineales. SPG sólo utiliza productos matriz vector y una estrategia de búsqueda lineal no monótona para garantizar convergencia global. Combinado con un esquema de Lagrangiano Aumentado, el método se muestra como una herramienta muy prometedora para el abordaje de problemas muy exigentes en cuanto a esfuerzo computacional y eficiencia. Sus puntos débiles se encuentran en el requerimiento de muchas búsquedas lineales para obtener un nuevo iterado, y en la necesidad de una buena aproximación del gradiente cuando éste no está disponible en forma analítica. En problemas de aplicaciones industriales estos dos aspectos pueden devenir en verdaderos cuellos de botella del algoritmo. En consecuencia, el bajo costo aritmético por iteración no se ve reflejado en el tiempo total de resolución. El auge del desarrollo en la programación en paralelo hace que este paradigma se presente como un recurso que ofrece una gran oportunidad para superar estos inconvenientes. El objetivo de esta tesis fue el desarrollo y análisis del desempeño de una versión eficiente del algoritmo SPG programado en paralelo, asumiendo desconocimiento de expresiones analíticas de la función objetivo o de los gradientes. Este escenario a menudo se presenta en los problemas de optimización en ingeniería de procesos con gran cantidad de variables y restricciones no lineales. La nueva versión del algoritmo SPG genera una sucesión de iterados que es alternativa a la que genera la versión secuencial lo que lo hace más competitivo, pero manteniendo la robustez de convergencia que posee el método SPG original. Se desarrollaron e implementaron dos versiones del algoritmo paralelo: una fue concebida para ejecutarse eficientemente sobre una arquitectura distribuida mediante pasaje de mensajes sobre una red de área local estándar, y la otra fue diseñada para ejecutarse sobre una arquitectura de memoria local compartida. La experimentación numérica se realizó sobre un cluster de 8 procesadores y en una computadora multicore de 12 núcleos. Se demostró en forma teórica la eficiencia esperada. Además, hemos contrastado estos desarrollos teóricos con resultados empíricos obtenidos en algunos problemas de diseño relacionados a plantas de procesos industriales, ubicando así a este resolvedor paralelo como una herramienta competitiva frente a los resolvedores clásicos de paquetes comerciales. / There are many nonlinear optimization problems in the area of Process Engineering. In the search of more realistic formulations the need of more rigorous modeling has grown. The presence of binary variables, the increasing amount of continuous variables and nonlinear constraints count among the incorporated complexities. In many cases the problems are solved by relaxing variables and conditions, thus generating nonlinear subproblems whose resolution is carried out through linear and quadratic approximations. The question posed in this thesis is the following: Can we achieve efficiency without having to relax the problem? I mean: Can we get the original model solutions in reasonable time? In this thesis we propose to exploit the Spectral Projected Gradient method (SPG) by its relaunching from the parallel paradigm. SPG is a non-monotone global optimization method for nonlinear programming problems, its features being different from those exhibited by the classical projectedgradient methods. The non-monotonicity and a particular choice of the step length allow to exploit special situations that arise in many problems, accelerating the convergence with minimal data-storage costs. Its low operating cost features among its most attractive attributes SPG neither calculates Hessian matrices nor solves linear systems. SPG just performs matrix vector products and a non-monotone line-search strategy in order to ensure global convergence. When combined with an Augmented Lagrangian scheme, the method looks like a promising tool for addressing demanding problems in terms of computational effort and efficiency. Its weaknesses lie in the requirement of too many line-searches for a new iterate, and in the need for a good approximation of the gradient when it is not available in analytical form. In industrial application these two mentioned aspects may become real bottlenecks in the algorithm. In consequence, the low arithmetic cost per iteration is not reflected in the total elapsed time of resolution. The boom development in parallel programming presents this paradigm as a resource that provides a great opportunity to overcome these drawbacks. The goal of this thesis was the development and analysis of the performance of an efficient version of the SPG algorithm programmed in parallel, assuming lack of knowledge about the analytical expressions of the objective function or gradients. This scenario often appears in process engineering optimization problems with many variables and non-linear constraints. The new version of the SPG algorithm generates a sequence of iterates that is alternative to the one generated by the sequential version. In this way, the proposed version becomes more competitive, while maintaining the robustness of the original method. Two versions of the parallel algorithm were developed and implemented: one of them was conceived to run efficiently on a distributed architecture by using message passing on a standard local area network, and another one was designed to run on a shared local-memory architecture. The numerical experiments were performed on a cluster of 8 processors and a 12-core multicore computer. We have proved the expected efficiency theoretically. Besides, we have contrasted these theoretical developments with empirical results in some design problems related to industrial plants processes. thus placing this parallel solver as a competitive tool against classical commercial packages.
5

“Propuesta de diseño de implementación del sistema de gestión de calidad ISO 9001:2015 en una empresa consultora de ingeniería”

Buitrón Ccente, Deysi Julieta January 2017 (has links)
Publicación a texto completo no autorizada por el autor / Investiga los procesos adecuados de una consultora de ingeniería, para determinar el cumplimiento de las especificaciones de calidad y de procesos, ajustadas a la norma ISO 9001:2015. Para ello elabora, desarrolla e implementa las normas correspondientes a un sistema de calidad apropiado a una consultora de ingeniería, analiza riesgos y determina las no conformidades en el proceso de elaboración de los informes correspondientes a los estudios de los proyectos en ejecución y establece mecanismos de control que permitan evitar errores y así poder reducir tiempos de entrega y mejorar los costos. / Tesis
6

“Implementación de la gestión por procesos, para la optimización en la gestión de compras en una empresa comercializadora y productora de gases industriales y medicinales”

Pereyra Castillo, Jordan Gustavo January 2018 (has links)
Publicación a texto completo no autorizada por el autor / Analiza los procesos de compras nacionales del periodo 2015 y realiza gestión de procesos para periodo 2016; así determinará cómo influye en el tiempo de atención de pedidos. La presente investigación se centra en un enfoque de procesos y sigue algunos pasos de la reingeniería de procesos. Se realiza el mapeo del proceso actual (2015). En esta parte se realizan una serie de diagramas para comprender mejor el proceso, como el Diagrama Nivelado, Diagrama Causa-Efecto, Diagrama SIPOC & Diagrama de Flujos; con la finalidad de identificar los subprocesos, las causas del problema, las entradas y salidas del proceso, y todas las actividades de los subprocesos. Paso siguiente se analiza el proceso y se determina el tiempo promedio del ciclo del proceso del periodo 2015. También se realiza un benchmarking del tiempo promedio del ciclo del proceso en evaluación, en los países de Sudamérica donde el corporativo tiene filiales; con finalidad de poder tener un nivel de referencia y buscar alternativas de mejora. Se analiza el tiempo por cada subproceso del periodo 2015 y finalmente se determina el tiempo por cada actividad; para poder determinar responsables, actividades críticas, esperas y actividades productivas. Adicionalmente se realiza un análisis del costo del proceso; para determinar el costo por orden de compra. Luego de haber determinado las actividades críticas y de haber realizado una gestión procesos en el periodo 2015, se realizan los pasos anteriores planteando la mejora para el periodo 2016. Los resultados obtenidos por la gestión de procesos se plasman en la presente tesina. Tener en cuenta que para evaluar la trazabilidad y alcance del proceso, se debe definir indicadores que permitan alcanzar la mejora continua para el proceso. / Trabajo de suficiencia profesional
7

Mejora de procesos para incrementar la calidad del servicio que brinda una empresa de aire acondicionado

Bustamante Fierro, Victor Raúl January 2018 (has links)
Publicación a texto completo no autorizada por el autor / La presente investigación se origina, cuando la empresa Intercool Perú, recibe el reclamo de su principal cliente, respecto a los tiempos de atención de las emergencias y el desempeño en los servicios que se brindan de mantenimiento correctivo y preventivo en las oficinas adjudicadas por contrato, a todo el territorio de la provincia de Lima. Del análisis de los procesos críticos, se observa que existen diversos factores que influyen en la percepción de la calidad del servicio que brinda la empresa, los cuales son los siguientes: los equipos de trabajo están en mal estado, esto se debe a que no se tiene un programa de mantenimiento, la falta de materiales y repuestos para las tareas de mantenimiento preventivo y correctivo, y retrasos en el despacho de materiales y repuestos del almacén. Las causas de los problemas previamente presentados, se muestran en el diagrama causa-efecto el cual analiza la baja calidad del servicio que se le brinda al cliente. Mediante el análisis del diagrama de Pareto se puede determinar los problemas poco vitales y los muchos triviales; es decir, identificar los problemas que están en relación directa con la percepción de la calidad, por lo cual se presentan propuestas de mejora para enfrentar las causas que origina esa baja calidad de servicio, detallándose la frecuencia y responsabilidad de la ejecución de la acción correctiva. La mejora continua en los procesos y en la reducción de existencias se encuentra muy vinculada a procesos bien diseñados y gestionados, así como al mínimo stock en proceso. Se propone el uso de modelos de gestión de stock tradicional y conceptos de manufactura esbelta. Se determina promover el suministro frecuente de materiales en pequeñas cantidades, compensándolo con contratos a largo plazo y otras medidas para que el costo de aprovisionamientos o de arranque, sea lo menor posible. En tal caso, se recomienda pedir mensualmente, la cantidad de 24 unidades para los meses normales; y 44 unidades para los meses de verano. Finalmente se compara la percepción de la calidad antes de aplicar las propuestas de mejora con la percepción luego de aplicarlas, comparación que evidencia una mejora del 14.44% la percepción de la calidad de los servicios que brinda la empresa Intercool Perú, por lo cual se concluye que se logra los objetivos propuestos. / Tesis
8

Evaluación y selección de los lubricantes en la trefilación del acero SAE 1020 por el coeficiente de fricción de la ecuación de Siebel

Mallqui Espinoza, Fidel Romel, Santivañez Basurto, Jorge Luis January 2016 (has links)
Publicación a texto completo no autorizada por el autor / Propone un método que permita evaluar el desempeño de un lubricante en la trefilación en frío de un alambre de acero SAE 1020 y con ello optimizar el proceso de trefilación. Para tal efecto se utilizan tres tipos de lubricantes: el Synd Forg 331 (grafito coloidal), Synd Forg 100-A (sintético) y Dechelub 5562 (base de aceite) en una matriz de metal duro (W-C) con ángulo de trabajo de 8 grados a una velocidad de 1,48 mm/s, cada lubricante se emplea en una muestra de alambre SAE 1020 con 3,9 mm de diámetro inicial en condición de recocido y es reducido a 3,65 mm. Luego la muestra de alambre de 3,65 mm de diámetro inicial en condición de endurecido en un segundo pase es reducido a 3,40 mm de diámetro. Son variados los parámetros que influyen en el proceso de trefilación como la carga necesaria para realizarlo y las condiciones bajo las cuales se desarrollará. Sin embargo, éstos se pueden reunir en dos grandes grupos. En el primero están todos los factores geométricos propios del elemento a trefilar y del dado con el cual se está realizando el trefilado, y en el segundo, se encuentra el roce entre ellos el cual estará definido por factores como el acabado superficial de los materiales involucrados y la presencia de lubricación durante el proceso, en el cual se enfoca este trabajo. Posteriormente se calculan los valores del coeficiente de fricción de las muestras de acuerdo al modelo matemático de Siebel que relaciona la fuerza de trefilación, sección del material, deformación real del material, ángulo de trabajo y el valor medio de la resistencia de fluencia. En La medición de los parámetros son utilizados los siguientes equipos, una máquina universal de ensayo Kratos con célula de carga, sistema de adquisición de datos spider 8 y el software catman 4. Luego se comparan los resultados obtenidos para la determinación del lubricante con mejor performance siendo el Synd forg 331 el más eficiente para el proceso con los siguiente valores: coeficiente de fricción 0,0575 y fuerza de trefilación de 1079.10 N. / Tesis
9

El proceso analítico jerárquico (AHP) para la selección de proyectos de reparación naval de un astillero

Soto Barros, Alvaro January 2014 (has links)
Presenta la aplicación del método proceso analítico jerárquico (Analytic Hierarchy Process - AHP) como apoyo a la toma de decisiones para resolver el problema de la selección de proyectos de reparación naval que postulan a la cartera de proyectos de un astillero. Se determinó los criterios relevantes que utiliza el astillero para la evaluación de los proyectos de reparación naval, las alternativas en competencia, y mediante la construcción de la estructura jerárquica del problema, se realizó el cálculo de síntesis, obteniendo como resultado un ranking priorizado de los proyectos de reparación naval más aptos para ingresar a la cartera de proyectos del astillero. / Tesis
10

Estudio y modelización de la procesabilidad mediante moldeo por inyección de materiales termoplásticos reciclados

Boronat Vitoria, Teodomiro 04 June 2009 (has links)
El proceso de inyección es un proceso de conformado de los materiales poliméricos termoplásticos que, en la actualidad, presenta una notable importancia económica y tecnológica, y cuyo estudio ha supuesto multitud de investigaciones relacionadas con la determinación de condiciones óptimas de proceso. Por otra parte, los materiales poliméricos reutilizados, procedentes de los desechos de producción como bebederos y canales de alimentación, representan una importante fuente de materias primas que pueden ser aprovechadas para la obtención de productos con calidades aceptables y con costes inferiores a los convencionales. Al beneficio económico que supone la reutilización de los desperdicios de inyección hay que sumar el ahorro que supone no realizar la gestión de residuos y el beneficio medioambiental consecuente. En la actualidad se mezclan polímeros para conseguir un nuevo material que combine las características de los materiales de partida. El principal problema que presenta esta práctica es que se desconocen las características del material resultante hasta que se ha realizado la mezcla y se ha caracterizado. Aglutinando los dos aspectos anteriores, la presente tesis tiene como objetivo la determinación de la influencia de las condiciones de procesado sobre las características reológicas del ABS, además se proponen dos modelos matemáticos, uno que permite determinar la viscosidad de un ABS reprocesado por inyección en función de las condiciones en las que ha sido procesado. El segundo modelo determina los parámetros que definen la viscosidad de una mezcla a partir de los parámetros de viscosidad de los materiales de partida. Para la realización de este estudio se han realizado reprocesados consecutivos de dos grados de ABS con diferentes índices de fluidez para simular los procesos de reutilización. De esta manera se dispone de todo el historial de procesado y se puede cuantificar más fácilmente las consecuencias de la degradación del material. El objetivo princi / Boronat Vitoria, T. (2009). Estudio y modelización de la procesabilidad mediante moldeo por inyección de materiales termoplásticos reciclados [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/5024

Page generated in 0.1328 seconds