• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 3
  • Tagged with
  • 15
  • 15
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Evaluación de la efectividad de promociones personalizadas en la retención y aumento de los clientes de alto valor de una tienda por departamento

Riquelme Aedo, Francisca Fernanda January 2017 (has links)
Ingeniera Civil Industrial / La industria del retail en Chile en los últimos años ha enfrentado una disminución en las altas tasas de crecimiento que había acostumbrado a tener, haciéndose evidente el desafió de adaptarse a un mercado turbulento, que lleva consigo un cambio constante de las expectativas de los consumidores, cuya preferencia puede significar el éxito o el fracaso de cualquier empresa. Y así lo entienden las empresas de tiendas por departamento, donde su preocupación ha ido en aumento respecto a la obtención y retención de sus clientes. El objetivo de este trabajo es el de diseñar y proponer una estrategia de email marketing que permita aumentar la probabilidad de pertenecer a la categoría de alto valor de los clientes, mediante la aplicación de acciones promocionales que sean capaces de aumentar los niveles de visitas y/o los niveles de venta de los clientes. Para lograr esto, se comenzará por analizar aquellas variables que podrían ser relevante para explicar la probabilidad de cada cliente de pertenecer a esta categoría. Con estas variables se procederá a diseñar un modelo que sea capaz de calcular dicha probabilidad, conocida como Propensity Score. Con esta información se realizará un estudio experimental que busca probar distintos tipos de promociones (distintos montos y porcentajes de descuento) y medir su efectividad en términos de contribución de visitas como de ventas. Para alcanzar los objetivos mencionados, se trabajará con clientes identificables, es decir, clientes con Rut, con registro de su información demográfica y de su comportamiento de compra. A estos se les aplicaran herramientas de estadística descriptiva, técnicas RFM, comparación de modelos de propensión mensual y la aplicación de un diseño experimental. El principal entregable de esta memoria corresponde a una propuesta de gestión de clientes de alto valor, clientes F, la cual señala qué promociones son más adecuadas para aumentar la propensión de cada cliente, sus niveles de ventas y/o sus niveles de visitas. La propuesta diferenciará entre distintos segmentos de clientes según su tipo (cliente F o normal), según su nivel de venta y según su nivel de visitas. Las principales conclusiones del estudio son que promociones enviadas por canal POS no son capaces de aumentar la propensión del cliente. Sin embargo, promociones como el 40% de dcto. sí aumentaron la probabilidad de los clientes sin importar el segmento al cual pertenecían, y mejor aún, mostraron ser rentables para la empresa. Se propone como estudios futuros, probar otros canales adicionales al cupón POS y email, los que quizás tengan mayor efectividad al momento de hacer que un cliente se sienta importante y decida finalmente acercarse a la tienda a comprar. / 16/03/2022
2

Validación y detección del efecto de textura sparkle mediante evaluaciones visuales

Gómez Lozano, Omar 14 July 2017 (has links)
No description available.
3

Principios de metodología de superficie de respuesta para modelos logísticos

Tarsicio De Zan, Arturo 03 February 2006 (has links)
En esta tesis doctoral abordamos algunos principios para estudiar la Metodología de Superficie de Respuesta (que abreviaremos en adelante como MSR) para datos que siguen distribuciones binarias (Bernoulli y binomial), y que se ajustan mediante Modelos Lineales Generalizados (que abreviaremos como MLG). El punto de partida elegido ha sido el enfoque clásico de la MSR, es decir, en el contexto de modelos lineales y normales y, en particular, a partir del trabajo seminal de Box y Wilson (1951).Nuestra pregunta de investigación alrededor de la cual hemos elaborado este trabajo gira alrededor del siguiente planteamiento: "¿cómo podría proceder el experimentador cuando la naturaleza de su proceso no sigue los supuestos clásicos de normalidad y linealidad?". Enlazando esta cuestión con el estado actual del arte en materia de la MSR, una segunda pregunta fue: "¿Cómo podría ser un proceso secuencial de aprendizaje del funcionamiento de un sistema en los que intervengan respuestas de naturaleza binaria en el que se persiga un objetivo determinado?". Para poder investigar con mayor profundidad esta pregunta, y mediante un sustento metodológico lo suficientemente sólido, nos apoyamos en los MLG. Estos modelos -a partir de su primera presentación y formulación en el trabajo de Nelder y Wedderburn (1972)- son la herramienta que elegimos para encontrar una metodología de aplicación sistemática, que nos permita buscar modelos adecuados que puedan ajustar respuestas de naturaleza binaria. Consideramos como estrategia particular aquella en la que se encontraría el experimentador cuando dispone de un número fijo de observaciones a realizar de las variables de un sistema, que traducimos con el nombre de "estrategia de presupuesto fijo". Así, el objetivo será poder cuantificar de alguna forma la ganancia de información que alcanzamos a conocer del proceso luego de haber utilizado todo el presupuesto disponible. En todos los casos nuestro plan es el de utilizar familias de estrategias de diseños factoriales a dos niveles, secuencialmente encadenados. Nuestro estudio comienza definiendo una familia de estrategias de exploración de un proceso representado por una superficie de respuesta teórica binaria, en la que hemos identificado tres variables: un valor llamado w, acotado entre 0 y 1, el cual es utilizado para definir el primer centro de experimentación. Luego, se considera una segunda variable, que será el valor que tenga el rango de variación de los factores, L, y finalmente, cuando se ensayen nuevas alternativas de puntos de diseño, habrá un valor S, que llamaremos "salto", que representará la longitud que separa un centro de diseño del siguiente. De esta manera, diremos que una estrategia de diseño queda caracterizada por los valores L, S y w. Partiendo así de una superficie de respuesta que sea la que mejor se considera que se aproxima a un proceso real, el objetivo será el de encontrar a través de simulaciones los niveles de w, L y S que alcancen los mejores valores posibles bajo dos criterios de selección de diseños: (a) una basada en el determinante de la Matriz de Información de Fisher (que hemos llamado "criterio de la cantidad de información"), y (b) el otro, basado en el valor de la superficie teórica evaluado en las mejores condiciones que se obtengan del modelo ajustado (que hemos llamado "criterio de proximidad al máximo"). A tal efecto, hemos utilizado programas escritos en el lenguaje R (www.r-project.orq), un entorno de programación potente y flexible,La completa revisión bibliográfica de ambos temas (MSR y MLG), junto con el diseño de herramientas informáticas "ad-hoc", ofrecen un enfoque novedoso y origina! que puede servir como punto de partida para continuar buscando el enlace entre estas dos metodologías y su aplicación en problemas prácticos sobre la base de criterios objetivos que puedan soportar la toma de decisiones. / In this PhD thesis we approached some principles that relate to the study the Response Surface Methodology (abbreviated as RSM) for binary responses (Bernoulli and binomial distributions), modellable through the scope of Generalized Linear Models (abbreviated as GLM}. Our starting point is the classic approach of the RSM, in the context of linear normal models and, particularly, from the seminal work on the subject, by the article of Box and Wilson (1951). Our first research question from which we started ellaborating this work was around of the following statement: "How could experimenters deal with this problem when the nature of the process does not follow the classical assumptions of normality and linearity?". Connecting this question with the present state-of-the-art in RSM, the second question that we address is: "How could one design a sequential strategy to learn about the operation of a system with binary response, when certain objectives are persecuted?". In order to explore these questions deeper by means of a methodological support, we leaned towards the GLM approach. These models -presented and formulated primarily in the work of Nelder and Wedderburn (1972)- are the tool that we have chosen in order to find a systematic applied methodology, that aims for suitable models that can be fitted to binary response.We consider as a particular strategy, the one in which the experimenter has a fixed number of observations to be made, in what we labeled as "strategy of fixed budget". Thus, the objective will be to quantify the information gain once we have used all the budget available. In both cases, our plan is to carry out 2-level factorial and sequential designs. Our approach starts with a definition of a family of design strategies for exploration of a process that is being represented by a certain response surface. These strategies are characterized though three variables: w, bounded between 0 and 1, used to define the first experimentation center point. Once that is determined, a second variable is considered: L, or the range of variation of the factors. Finally, when several experimental conditions were considered, the variable S, identifies the jump length that connects one center point of experimentation with the following one, Having defined the scope this way, we can say that a design strategy may be characterized by means of a three-variable picture: L, S and w. Once the experimenter defined what kind of response surface is the best one to approach the real process, the goal will be to find the levels of L, S and w that maximizes the value of two alternative criteria: the first one is based on the determinant of the Fisher's Information Matrix, and it captures (he amount of information gathered by the design, and the second one is the value taken by the theoretical surface on the maximum of the fitted surface. In order to this scope, we have written some programs in R language (www.r-proiect.org), a powerful and flexible environment of programming and doing statistics.A complete bibliographical review of both topics (RSM and GLM), as well as the design of "ad-hoc" specific software, try to offer a new and an original point of view to study this problem, which maybe useful as a starting point for continuing the research in these areas and the link between these two methodologies. It is of special interest the exploration of new practical applications to real problems based on some objective criteria that can support the process of decision making.
4

Efecto de buprofezin, pyriproxifen y aceite mineral en postcosecha sobre escama de San José en manzano

Asiain Barrera, Eugenio January 2013 (has links)
Memoria para optar al título profesional de Ingeniero Agrónomo mención Sanidad Vegetal / Durante el otoño e invierno de la temporada 2011-2012, sobre juveniles de escama de San José en manzanos var. Royal Gala, se estudió la acción de los insecticidas reguladores de crecimiento pyriproxyfen (Admiral 10 EC al 0,06%) y buprofezin (Applaud 25 WP al 0,1%) aplicados solos y en combinación con aceite mineral (ELF Purespray 15 E al 1,5%), y además una aplicación de aceite mineral al 2%. El ensayo consistió en la aspersión de los insecticidas sobre 48 árboles de manzano severamente infestados, pertenecientes a una parcela sin uso comercial en el sector del Olivar, VI Región, Chile. Las aplicaciones se realizaron en otoño, posterior al cese de nacimientos de ninfas de la tercera generación, con una motopulverizadora con pitón, con 250 lb/pulg² y 3500 L/ha. Las evaluaciones de los tratamientos se realizaron 48 días después de hechas las aplicaciones, sobre ramillas de último crecimiento, en el Laboratorio de Entomología frutal Luciano Campos Street de la Facultad de Cs. Agronómicas de la Universidad de Chile. Se determinó la mortalidad de los estados juveniles (gorrita negra y gorrita gris) y se expresó en porcentaje. El diseño experimental utilizado fue completamente al azar con seis tratamientos y cuatro repeticiones; la unidad experimental fue de dos árboles contiguos, de los cuales se colectó una muestra compuesta de 30 ramillas para determinar la mortalidad sobre 1000 individuos/repetición. Los resultados se expresaron en porcentaje de ninfas muertas y se normalizaron mediante transformación angular de Bliss. Posteriormente se sometieron a ANDEVA y prueba de comparaciones múltiples de Duncan para separación de promedios, cuando las diferencias fueron significativas (P<0,05). Se concluyó que la aplicación de buprofezin y pyriproxyfen sobre juveniles de escama de San José ejercieron un control parcial en manzanos en otoño. Además, buprofezin mezclado con aceite mineral al 1,5% controló de modo similar a una aplicación de aceite mineral al 2,0%, y la mezcla de pyriproxyfen más aceite mineral al 1,5% ejerció un control mayor que el tratamiento de aceite mineral 2,0%.
5

Efecto de buprofezin, pyriproxifen y aceite mineral en postcosecha sobre escama de San José en manzano / Buprofezin, pyriproxyfen and mineral oil effect on San José scalein apple tree at postharvest

Asiain Barrera, Eugenio January 2013 (has links)
Memoria para optar al título profesional de: Ingeniero Agrónomo Mención: Sanidad Vegetal / Durante el otoño e invierno de la temporada 2011-2012, sobre juveniles de escama de San José en manzanos var. Royal Gala, se estudió la acción de los insecticidas reguladores de crecimiento pyriproxyfen (Admiral 10 EC al 0,06%) y buprofezin (Applaud 25 WP al 0,1%) aplicados solos y en combinación con aceite mineral (ELF Purespray 15 E al 1,5%), y además una aplicación de aceite mineral al 2%. El ensayo consistió en la aspersión de los insecticidas sobre 48 árboles de manzano severamente infestados, pertenecientes a una parcela sin uso comercial en el sector del Olivar, VI Región, Chile. Las aplicaciones se realizaron en otoño, posterior al cese de nacimientos de ninfas de la tercera generación, con una motopulverizadora con pitón, con 250 lb/pulg² y 3500 L/ha. Las evaluaciones de los tratamientos se realizaron 48 días después de hechas las aplicaciones, sobre ramillas de último crecimiento, en el Laboratorio de Entomología frutal Luciano Campos Street de la Facultad de Cs. Agronómicas de la Universidad de Chile. Se determinó la mortalidad de los estados juveniles (gorrita negra y gorrita gris) y se expresó en porcentaje. El diseño experimental utilizado fue completamente al azar con seis tratamientos y cuatro repeticiones; la unidad experimental fue de dos árboles contiguos, de los cuales se colectó una muestra compuesta de 30 ramillas para determinar la mortalidad sobre 1000 individuos/repetición. Los resultados se expresaron en porcentaje de ninfas muertas y se normalizaron mediante transformación angular de Bliss. Posteriormente se sometieron a ANDEVA y prueba de comparaciones múltiples de Duncan para separación de promedios, cuando las diferencias fueron significativas (P<0,05). Se concluyó que la aplicación de buprofezin y pyriproxyfen sobre juveniles de escama de San José ejercieron un control parcial en manzanos en otoño. Además, buprofezin mezclado con aceite mineral al 1,5% controló de modo similar a una aplicación de aceite mineral al 2,0%, y la mezcla de pyriproxyfen más aceite mineral al 1,5% ejerció un control mayor que el tratamiento de aceite mineral 2,0%. / During autumn and winter of the 2011-2012 season, a study was carried out on the effect of growth regulator insecticides pyriproxyfen (Admiral 10 EC 0.06%), buprofezin (Applaud 25 WP 0.1), both applied alone and combined with mineral oil (ELF Purespray 15E 1.5%), besides one mineral oil (2%) spray on San Jose scale nymphs affecting ‘Royal Gala’ apple trees. The test consisted in spraying the insecticides on 48 severely infested apple trees of a non-commercial orchard at the Olivar locality, Region VI, Chile. Applications were done in the autumn after cessation of third generation nymph emergence with a sprayer machine with handgun, using 250 psi and 3,500 L/ha. Treatment evaluations were done 48 days after applications on last growth twigs at the Luciano Campos Fruit Crop Entomology Laboratory of the College of Agricultural Sciences, University of Chile. Nymph mortality (black and white cap nymphs) was measured and expressed as percentage. A completely randomized experimental design was used with six treatments and four replications. The experimental unit consisted of two adjacent trees from which a sample of 20 twigs was obtained to determine mortality in 1000 individuals/replication. Results were expressed as dead nymph percentage and normalized by Bliss angular transformation. Later, they were subjected to analysis of variance (ANOVA) and Duncan’s multiple range test for average separation when differences were significant. It was concluded that the application of buprofezin and pyriproxyfen on San Jose nymphs resulted in a partial control in apple trees in the autumn. Furthermore, buprofezin mixed with mineral oil 1.5% had an effect similar to one application of mineral oil at 2.0%, and the mixture of pyriproxyfen with mineral oil at 1.5% obtained a greater control than that obtained with mineral oil at 2.0%.
6

Órdenes de experimentación en diseños factoriales

Correa Espinal, Alexander Alberto 21 June 2007 (has links)
Cuando se plantea un diseño factorial la práctica habitual es recomendar que los experimentos se realicen en orden aleatorio. Esta aleatorización tiene como objetivo el proteger de la posible influencia de factores desconocidos, ya que se espera que esa influencia quede difuminada entre todos los efectos de forma que ninguno se vea especialmente afectado y no se cometan errores al valorar su significación estadística. Pero este proceder tiene dos inconvenientes importantes: 1. El número de cambios de nivel en los factores que exige la aleatorización puede ser grande (bastante mayor que otras posibles ordenaciones) y difícil de llevar a la práctica, lo que complica y encarece la experimentación. 2. Si se realizan unas hipótesis que parecen muy razonables respecto al tipo de influencia que ejercen los factores desconocidos, existen órdenes claramente mejores que otros para minimizar la influencia de esos factores ajenos a la experimentación.Numerosos autores han estado trabajando sobre este tema y ya han sido resueltos algunos aspectos, como el de determinar los órdenes de experimentación que mejor neutralizan la influencia de factores desconocidos, aunque sin tener en cuenta el número de cambios en los niveles de los factores que esa ordenación implica. Adicionalmente, se ha resuelto el problema de encontrar órdenes que presentan el mínimo número de cambios de nivel, pero sin considerar de forma simultánea la posible influencia de los factores desconocidos.Cuando se considera conjuntamente la influencia de los factores desconocidos y el número de cambios en los factores, se ha llegado hasta los diseños con 16 experimentos, pero no más allá porque los procedimientos de búsqueda empleados son inviables cuando el número de ordenaciones posibles se hace tan grande (con 32 experimentos el número de ordenaciones posibles es 32! = 2,6 · 1035)La tesis que se presenta tiene por objetivo encontrar un procedimiento que permita obtener órdenes de experimentación con el mínimo número de cambios en los factores y que además minimicen la influencia de los factores desconocidos en la estimación de los efectos, para cualquier diseño factorial a 2 niveles. Además, se pretende elaborar un procedimiento de forma que dichas ordenaciones, con las propiedades deseadas, puedan ser obtenidas de forma fácil por el experimentador. El contenido se presenta estructurado en 7 capítulos y 8 apéndices. El capitulo 1 presenta las motivaciones que se consideraron para seleccionar este tema de investigación y define los elementos fundamentales que se presentan a lo largo del trabajo, tales como los diseños factoriales a dos niveles -completos o fraccionales- los problemas que puede causar la aleatorización en estos diseños, y cómo cuantificar la influencia de los factores ajenos a la experimentación en la estimación de los efectos. Asimismo, se plantean las hipótesis y el contexto en que se buscarán los órdenes de ejecución que presentan las propiedades deseadas.En el capitulo 2, se realiza una revisión bibliográfica exhaustiva de las propuestas existentes respecto a los órdenes de ejecución de este tipo de diseños para conseguir que las conclusiones del análisis no se vean afectadas por la influencia de factores ajenos a la experimentación y/o que el número de cambios a realizar en los niveles de los factores sea mínimo. Al final del capítulo se comentan las debilidades del estado del arte actual y se plantean los aportes previstos en esta tesis. En el capitulo 3, se presenta un procedimiento original que permite encontrar órdenes de experimentación para diseños factoriales a 2 niveles con el mínimo número de cambios en los factores y un sesgo conocido. A este procedimiento lo denominamos método de duplicación, ya que duplicando las filas de un diseño 2k y agregando un factor adicional con una determinada secuencia de signos, permite obtener un diseño 2k+1 que conserve las características del diseño anterior. Una importante propiedad de este método es que puede aplicarse a cualquier número de factores. Este procedimiento garantiza el mínimo número de cambios de nivel, pero no siempre garantiza el mínimo sesgo (medida de la influencia de los factores desconocidos en la estimación de los efectos). En el capitulo 4, se utilizan diferentes métodos de búsqueda para hallar órdenes de experimentación que presenten un sesgo menor al proporcionado por el método de la duplicación.Estos métodos son:- Búsqueda aleatoria con restricciones: Se utiliza un procedimiento que va generando aleatoriamente el orden de ejecución de los experimentos pero de forma que a una condición experimental solo puede seguirle otra condición que presente solo un cambio en los niveles de los factores (para garantizar el mínimo número de cambios). Una vez completada una ordenación se calcula su sesgo, y se almacenan las ordenaciones con un sesgo por debajo de un cierto umbral.- Búsqueda exhaustiva: Se utiliza un algoritmo planteado por Dickinson (1974) y que fue adaptado por De León (2005). Es similar al algoritmo anterior, pero no genera las condiciones de experimentación de forma aleatoria sino que sigue una sistemática para encontrar todas las ordenaciones posibles. De esta forma se ha encontrado la mejor ordenación para diseños con 32 experimentos, hasta ahora desconocida, entendiendo por mejor la que presenta mínimo número de cambios en los niveles de los factores y de entre estas, la que presenta menor sesgo. - Búsqueda exhaustiva con alimentación forzada. Es imposible explorar exhaustivamente todas las ordenaciones posibles si el número de experimentos es mayor a 32. Para explorar la zona de ordenaciones más prometedora se ha aplicado el procedimiento de búsqueda exhaustiva en tono a una ordenación que ya es buena y que ha sido obtenida por los métodos anteriores.Para diseños con más de 32 experimentos los mejores órdenes se obtienen de una combinación de los diferentes métodos propuestos. Así, para diseños con 64 experimentos el mejor orden se obtiene con el método de búsqueda exhaustiva con alimentación forzada, alimentando el algoritmo con una ordenación obtenida a través de la búsqueda aleatoria con restricciones. La mejor ordenación para 128 experimentos se obtiene de la misma forma, pero alimentando el algoritmo con una ordenación obtenida por duplicación del orden obtenido para 64 experimentos.Los métodos descritos en el capítulo 4 proporcionan lo que denominamos "órdenes semilla", ya que a partir de estos órdenes se pueden deducir otros con sus mismas propiedades. En el capitulo 5, se presentan dos procedimientos para obtener órdenes con las características deseadas a partir de los órdenes semilla. Estos métodos los denominamos método de permutación y cambios de signo y el método de las columnas de expansión. Ambos métodos han sido programados en macros de Minitab, lo cual permite generar de forma automática y aleatoria (de entre todos los posibles) los órdenes con las características propuestas. En el capitulo 6, se presenta un nueva medida de atenuación de la influencia de los factores ajenos a la experimentación que permite comparar la atenuación entre diseños factoriales con diferente número de factores, mostrando que el procedimiento de duplicación presentado en el capitulo 3, es adecuado para obtener órdenes de experimentación con las características propuestas en diseños con más de 128 experimentos. Finalmente, en el capitulo 7 se presentan las principales conclusiones obtenidas y se definen posibles futuras líneas de investigación que podrían ampliar los estudios realizados.En el anexo 1 se presentan los órdenes propuestos por De León (2005) para diseños con 8 y 16 experimentos, citados en diversas ocasiones a lo largo de la tesis y que constituyen uno de los puntos de partida. El anexo 2 presenta el lenguaje de programación FreeBasic, utilizado para implementar los algoritmos de búsqueda de ordenaciones, y en los anexos 3 y 4 se incluyen 2 de los programas realizados: el de búsqueda aleatoria para diseños con 64 experimentos (anexo 3) y búsqueda exhaustiva para diseño con 32 experimentos (anexo 4). En el anexo 5 se presenta uno de los órdenes obtenidos con las propiedades deseadas para los diseños con 128 experimentos, y en los anexos 6 y 7 se incluyen las macros realizadas con el lenguaje de programación de Minitab y que a partir de las semillas para cada tipo de experimento, propone una ordenación de entre todas las posibles que tienen las propiedades deseadas. Finalmente, en el anexo 8 se realizan algunas consideraciones sobre el análisis de los órdenes propuestos, con restricciones en la aleatorización, y se resumen las propuestas realizadas sobre este tema. / A common recommendation when thinking in a factorial design is randomizing the run order. The purpose of this randomization is to protect the response from the possible influence of unknown factors. This influence is expected to be blurred among all the effects, thus none of them is specially affected and no mistakes are made when estimating its statistical significance. But this praxis has two essential problems: 1. The number of factor's level changes due to randomization might be large (much larger than in other sequences). It can be also difficult to conduct, making the experimentation complicated and more expensive. 2. Making some reasonable hypothesis regarding the influence of the unknown factors, there are some sequences clearly better than others for minimizing the influence of this undesirable factors.Many authors have worked on this topic, and some matters have already been solved. For instance, the experimentation sequence that better neutralises the influence of unknown factors is already determined, but without taking into consideration the number of level changes that this sequence implies. It has also been solved the problem of finding sequences that have the minimum number of level changes, but without considering simultaneously the potential influence of unknown factors. When both the influence of unknown factors and the number of level changes is considered, the problem has been solved up to designs with 16 runs. But not further as the searching procedures used are nonviable when the number of possible sequences becomes so huge (with 32 runs the number of different sequences is 32! = 2,6 · 1035) The aim of this thesis is finding a procedure that makes it possible to obtain run sequences with the minimum number of level changes, and that besides minimize the influence of unknown factors in the effect estimation, for any 2 level factorial design.Moreover, the desired run sequence should be obtained easily by the experimenter when using the proposed procedure.The content is structured in 7 chapters and 8 appendixes. Chapter 1 shows the motivation that lead to chose this research topic. It also defines the basic elements of this work (complete and fractional 2 level factorial designs, problems that appear when randomizing this designs, and how to quantify the influence of unknown and undesired factors in the effect estimation). In addition, the hypothesis and context in which the search for run orders with the desired properties will take place are presented.Chapter 2 gives an exhaustive bibliographic review of the current solutions related with run orders in these designs robust to the influenceof factors alien to the experimentationand/or with minimum number of level changes. The end of the chapter lists weaknesses of the current state of the art and advances the expected contributions of this thesis. Chapter 3 presents an original procedure for finding run orders for 2 level factorial designswith the minimum number of changes in the level factors and a known bias. We called this procedure duplication method, as duplicating the rows of a 2k design and adding a factor with a specific sign sequence, a 2k+1 design with the same properties as the first design is achieved. An important property of this method is that it can be applied to any number of factors. This procedure guarantees the minimum number of level changes, but not always guaranties the minimum bias (measure of the influence that unknown factors have in the effect estimation). Chapter 4 shows different methods for finding run orders with less bias than the one produced by the duplication method. These methods are: - Random search with restrictions: The procedure randomly generates the run order, but in a way that a run is followed by another one that has only one change in the factor levels (the minimum number of changes is then guaranteed). Once the sequence is completed its bias is calculated, and the sequences with a bias under a threshold are stored.- Exhaustive search: An algorithm proposed by Dickinson (1974) and adapted by De León (2005) is used. It is similar to the previous algorithm, but it does not generate the runs in a random manner. Instead, it behaves systematically in order to find all the possible run orders. With this algorithm the best run order for designs with 32 experiments has been found (and it was unknown until now). The best run order means the one that has minimum number of changes in the levels and, among these, the one with less bias.- Exhaustive search with forced feeding. The exhaustive exploration of all possible run orders with more than 32 runs is impossible. The procedure of exhaustive search around a good run order already found with one of the previous methods allowed the exploration of the most promising run order area. For designs with more than 32 runs the best run orders are obtained from a combination of the proposed methods. For designs with 64 runs the best order comes from the exhaustive search with forced feeding method, feeding the algorithm with a run order obtained from the random search with restrictions method. We used the same procedure for obtaining the best run order for 128 runs, but feeding the algorithm with a run order obtained from duplication of the one for 64 runs.Methods described in chapter 4 provide the so called "seed orders": from this orders new ones with the same properties can be deduced. Chapter5 shows two procedures for obtaining orders with the expected properties from the seed orders. These methods are called permutation and sign change method, and expansion columns method. Both methods have been programmed as Minitab macros, making it possible to automatically and randomly generate (among all possible ones) the orders with the desired properties. A new measure for attenuating the influence of factors alien to experimentation is presented in chapter 6. This allows the comparison among the attenuation of factorial designs with different number of factors, thus showing that the duplication procedure shown in chapter 3 is appropriate for obtaining run orders with the properties desired in designs with more than 128 runs. Finally, chapter 7 gives the main conclusions and defines possible future research areas that could extend our studies.Appendix 1 shows the orders proposed by De León (2005) for designs with 8 and 16 experiments, cited several times in the thesis and one of our starting points. Appendix 2 explains the FreeBasic programming language, used for implementing the search algorithms. Appendixes 3 and 4 include 2 programs: random search for designs with 32 runs (appendix 3) and exhaustive search for designs with 32 experiments (appendix 4). Appendix 5 shows one of the obtained orders with the desired properties for designs with 128 runs. Appendixes 6 and 7 have the Minitab macros that using the seed orders for each kind of experiment proposes an order among all the possible ones with the desired properties. Finally, appendix 8 has some comments about the proposed run orders, with restrictions in the randomization, and summarizes the proposals about this topic.
7

Modelos y métodos para el problema de programación del lote económico con coproducción deliberada y controlada (DCC-ELSP)

Vidal Carreras, Pilar Isabel 18 February 2011 (has links)
El objetivo de la tesis doctoral "MODELOS Y MÉTODOS PARA EL PROBLEMA DE PROGRAMACIÓN DEL LOTE ECONÓMICO CON COPRODUCCIÓN DELIBERADA Y CONTROLADA (DCC-ELSP)", realizada por Dña. Pilar Isabel Vidal Carreras y dirigida por Dr. D. Jose Pedro García Sabater, es analizar y modelar el problema de programación de producción con coproducción controlada y deliberada, en el contexto del sector de los proveedores del automóvil, que se asimila al problema ELSP - Economic Lot Scheduling Problem (Problema de Programación del Lote Económico). Para esto, se requiere la definición de diferentes metodologías y algoritmos que permitan resolverlo de manera satisfactoria. Interés del Problema El origen del problema de esta tesis surge como resultado del continuo y extenso contacto del director de la tesis, Dr. D. José P. García Sabater y más reciente de la doctoranda, Dña. Pilar I. Vidal Carreras, con las empresas suministradoras del sector del automóvil (Garcia-Sabater et al., 2006a; Garcia-Sabater y Marin-Garcia, 2009; Garcia-Sabater et al., 1999; Garcia-Sabater, 2000; Garcia-Sabater y Vidal-Carreras, 2010; Garcia-Sabater et al., 2006b; Miralles et al., 2005; Vidal-Carreras y Garcia-Sabater, 2005). La coproducción deliberada y controlada (DCC - Deliberate Controlled Coproduction), esto es, la opción de fabricar o no (deliberación) dos productos simultáneamente de manera controlada, en este entorno aparece con frecuencia. Para citar un ejemplo comentar como los automóviles contienen muchas partes simétricas para el lado izquierdo y derecha del vehículo (retrovisores, puertas, faros, etc). Estos procesos de producción son a menudo diseñados para producir la parte izquierda y la parte derecha al mismo tiempo. Esta situación no parece ser un problema cuando se producen piezas para un coche nuevo. Sin embargo, las mismas instalaciones de fabricación se utilizan para producir piezas de repuesto para reemplazar las piezas dañadas. / Vidal Carreras, PI. (2011). Modelos y métodos para el problema de programación del lote económico con coproducción deliberada y controlada (DCC-ELSP) [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/9919 / Palancia
8

OPTIMIZACIÓN DEL PROCESO DE CONSTRUCCIÓN DE EDIFICIOS DE FORJADOS DE HORMIGÓN "IN SITU" MEDIANTE EL USO DE ELEMENTOS DE CONTROL DE CARGA EN LAS CIMBRAS

Buitrago Moreno, Manuel 11 October 2018 (has links)
El cimbrado de plantas sucesivas es la técnica más empleada en la actualidad para la construcción de estructuras de edificios de hormigón armado. El uso de esta técnica permite que las plantas recientemente hormigonadas se apoyen sobre los forjados inferiores a través de cimbras. Considerando las particularidades que tiene el cimbrado de plantas sucesivas, es muy importante poder estimar cómo se produce la transmisión de cargas entre las cimbras y forjados, con el fin de mantener la adecuada seguridad estructural y evitar situaciones de riesgo, e incluso colapso, durante la construcción de edificios. La transmisión de cargas entre cimbras y forjados durante todas las etapas constructivas de un edificio es un fenómeno complejo, que ha sido estudiado por muchos investigadores, sobre todo en los últimos años. La construcción de edificios con estructura de hormigón armado se realiza, habitualmente, con la ayuda de puntales siendo uno de los componentes principales de las cimbras. Estos puntales son los encargados de transmitir las cargas de las plantas recién hormigonadas a las inferiores. Los principales problemas que presenta el empleo de puntales vienen de: a) la posible aparición de cargas en los puntales superiores a las previstas, que pueden provocar el colapso de toda la cimbra o incluso de todo el edificio, y b) los catálogos comerciales son muy limitados en cuando a la variedad de puntales disponibles, lo que obliga a que, en la mayor parte de las ocasiones, los puntales empleados estén claramente sobredimensionados. En esta tesis doctoral se presenta la investigación llevada a cabo en la Universitat Politècnica de València para desarrollar e implementar en el mercado un nuevo dispositivo limitador de carga (LL por sus siglas en inglés) a colocar en puntales, que servirá para mejorar la seguridad y reducir los costes durante la construcción de estructuras de edificios. El estudio llevado a cabo demuestra que la unión de dos áreas, como son la ingeniería mecánica y civil, hacen posible el desarrollo de un innovador dispositivo que puede revolucionar las técnicas de cimbrado actuales. La metodología que se ha seguido para el diseño, desarrollo e implementación del limitador de carga conlleva: a) un estudio preliminar de la viabilidad técnico-económica de su aplicación, b) el diseño conceptual y de detalle mediante simulaciones numéricas así como con el empleo de la técnica del diseño de experimentos, c) una amplia campaña experimental donde se ensaya el limitador de carga y el conjunto puntal-limitador, d) una simulación detallada del diseño final y la formulación de un modelo simplificado que tiene en cuenta el comportamiento conjunto puntal-limitador, e) el desarrollo de un ensayo experimental a escala real para comprobar su correcto funcionamiento bajo condiciones reales a modo "prueba de concepto", y f) un estudio numérico final para evaluar y cuantificar algunas de las múltiples ventajas del uso de limitadores de carga en puntales durante la construcción de estructuras de edificios. Ingenieros, arquitectos y constructores podrán encontrar en este trabajo una excelente guía para la comprensión del comportamiento y el uso de limitadores de carga en puntales. Este dispositivo podrá ser empleado en el día a día del diseño de estructuras edificios y su construcción, revolucionando las técnicas de cimbrado actuales. / Shoring successive floors is at present the most frequently used technique when constructing reinforced concrete building structures. This technique allows the recently poured slabs to be supported by the lower slabs by means of shores. Considering the particular characteristics of shoring successive floors, it is very important to be able to estimate how loads are transmitted between shores and slabs in order to maintain adequate structural safety and avoid situations of risk or even collapse in buildings under construction. The transmission of loads from shores to slabs during all the construction stages is a complex phenomenon and has been the subject of numerous studies, especially in recent years. When constructing reinforced concrete building structures, shores are normally used being the main components of the shoring systems. These shores allow the transmission of loads from freshly poured slabs to lower floors. However, certain problems are involved in this process, including: a) the loads on the shores may be higher than expected, which can lead to the collapse of the shoring system or even of the whole structure, and b) the limited range of shore types in commercial catalogues, which often means that the shores used are oversized. This thesis describes the study carried out at Universitat Politècnica de València on the development and implementation of a new load-limiter (LL) that can be fitted to shores to improve safety and reduce the cost of constructing building structures. The study shows that combining mechanical and civil engineering fields made it possible to produce a novel device that could revolutionise the shoring techniques at present in use. The methodology used to design, develop and implement load limiters involved: a) a preliminary study of the technical-economic viability of its application, b) the conceptual and detailed design of prototypes by using numerical simulations and the design of experiments (DOE) technique, c) an ambitious experimental campaign in which load limiters and shores-load limiters as a unit were tested, d) a detailed simulation of the final design and the formulation of a simplified model that considers the behaviour of the shore-load limiter as a unit, e) the development of a full-scale experimental test to verify its correct behaviour under real conditions as a "proof of concept", and f) a numerical study to evaluate some of the multiple advantages of the use of load limiters on shores during the construction of building structures. Engineers, architects and builders could also find in this work an excellent guide to understand the load limiters behaviour and to use them on shores, that can be used in the day to day of the design of building structures and their construction, revolutionising the current shoring techniques. / L'apuntalament de plantes successives es la tècnica més utilitzada en l'actualitat per a la construcció d'estructures d'edificis de formigó armat. L'ús d'esta tècnica permet que les plantes recentment formigonades es recolzen sobre els forjats inferiors a través de cimbres. Considerant les particularitats que té l'apuntalament de plantes successives, és molt important poder estimar com es produïx la transmissió de càrregues entre les cimbres i forjats, a fi de mantindre l'adequada seguretat estructural i evitar situacions de risc, i inclús col·lapse, durant la construcció d'edificis. La transmissió de càrregues entre cimbres i forjats durant totes les etapes constructives d'un edifici és un fenomen complex, que ha sigut estudiat per molts investigadors, sobretot en els últims anys. La construcció d'edificis amb estructura de formigó armat es realitza, habitualment, amb l'ajuda de puntals que representen un dels components principals de les cimbres. Estos puntals són els encarregats de transmetre les càrregues de les plantes recentment formigonades a les inferiors. Els principals problemes que presenta l'ús de puntals vénen de: a) la possible aparició de càrregues en els puntals superiors a les previstes, que poden provocar el col·lapse de tota la cimbra o inclús de tot l'edifici, i b) els catàlegs comercials són molt limitats en quan a la varietat de puntals disponibles, la qual cosa obliga que, en la major part de les ocasions, els puntals empleats estiguen clarament sobredimensionats. En esta tesi doctoral es presenta la investigació duta a terme en l'ICITECH per a obtindre i implementar un nou dispositiu limitador de càrrega (LL per les seues sigles en anglès) a col·locar en puntals, que servirà per a millorar la seguretat i reduir els costos durant la construcció d'estructures d'edificis. L'estudi dut a terme demostra que la unió de dos àrees, com són l'enginyeria mecànica i civil, fan possible l'obtenció d'un innovador dispositiu que pot revolucionar les tècniques d'apuntalament actuals. La metodologia que s'ha seguit per al disseny, obtenció i implementació del limitador de càrrega comporta: a) un estudi preliminar de la viabilitat tecnico-econòmica de la seua aplicació, b) el disseny conceptual i de detall per mitjà de simulacions numèriques i amb l'ús de la tècnica del disseny d'experiments, c) una àmplia campanya experimental on s'assaja el limitador de càrrega i el conjunt puntal-limitador, d) una simulació detallada del disseny final i la formulació d'un model simplificat que té en compte el comportament conjunt puntal-limitador, e) la realització d'un assaig experimental a escala real per a comprovar el seu funcionament correcte baix condicions reals a mode prova de concepte , i f) un estudi numèric final per a avaluar i quantificar alguns dels múltiples avantatges de l'ús de limitadors de càrrega en puntals durant la construcció d'estructures d'edificis. Enginyers, arquitectes i constructors podran trobar en este treball una excel·lent guia per a la comprensió del comportament i l'ús de limitadors de càrrega en puntals. Aquest dispositiu podrà ser empleat en el dia a dia del disseny d'estructures d'edificis i la seua construcció, revolucionant les tècniques d'apuntalament actuals. / Buitrago Moreno, M. (2018). OPTIMIZACIÓN DEL PROCESO DE CONSTRUCCIÓN DE EDIFICIOS DE FORJADOS DE HORMIGÓN "IN SITU" MEDIANTE EL USO DE ELEMENTOS DE CONTROL DE CARGA EN LAS CIMBRAS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/110362 / TESIS
9

Nuevas metodologías y aplicaciones de las técnicas de microextracción líquido-líquido para la determinación de contaminantes orgánicos

Cortada Cortés, Carolina 08 June 2012 (has links)
No description available.
10

Screening for important factors in large-scale simulation models: some industrial experiments

García Martín, Rafael Adrián, Gaspar Sánchez, José Manuel January 2015 (has links)
The present project discusses the application of screening techniques in large-scale simulation models with the purpose of determining whether this kind of procedures could be a substitute for or a complement to simulation-based optimization for bottleneck identification and improvement. Based on sensitivity analysis, the screening techniques consist in finding the most important factors in simulation models where there are many factors, in which presumably only a few or some of these factors are important. The screening technique selected to be studied in this project is Sequential Bifurcation. This method consists in grouping the potentially important factors, dividing the groups continuously depending on the response generated from the model of the system under study. The results confirm that the application of the Sequential Bifurcation method can considerably reduce the simulation time because of the number of simulations needed, which decreased compared with the optimization study. Furthermore, by introducing two-factor interactions in the metamodel, the results are more accurate and may even be as accurate as the results from optimization. On the other hand, it has been found that the application of Sequential Bifurcation could become a problem in terms of accuracy when there are many storage buffers in the decision variables list. Due to all of these reasons, the screening techniques cannot be a complete alternative to simulation-based optimization. However, as shown in some initial results, the combination of these two methods could yield a promising roadmap for future research, which is highly recommended by the authors of this project.

Page generated in 0.489 seconds