• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 59
  • 3
  • 3
  • Tagged with
  • 65
  • 31
  • 25
  • 25
  • 22
  • 20
  • 18
  • 18
  • 18
  • 15
  • 14
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Estadística Aplicada a las Finanzas 1 (MA333), ciclo 2014-2

Luna, Walter 01 August 2014 (has links)
No description available.
32

Correlación canónica entre la satisfacción y el desgaste laboral del personal médico de los establecimientos de aseguramiento universal en salud en el Perú durante el año 2014

Quispe Quispe, Stefanni Carol January 2016 (has links)
Publicación a texto completo no autorizada por el autor / Determina la relación que existe entre la satisfacción y el desgate laboral de los médicos que laboran en los centros de salud (hospitales, clínicas, centros médicos, establecimientos MINSA, EsSalud, privados y FF.AA. – PNP) mediante correlación canónica. Menciona dos métodos estadísticos que son utilizados para la correlación entre la satisfacción laboral y el desgaste laboral, entre ellos encontramos: el análisis de componentes categóricos que nos ayudan a la construcción de los índices estandarizados y el análisis de correlación canónica para estudiar la relación existente entre las variables ya mencionadas. La técnica de análisis de componentes categóricos, más conocida como CATPCA, forma parte de la metodología del análisis multivariante permitiendo trabajar con información resumida. Recopila la información recogida en la encuesta nacional de satisfacción de usuarios del aseguramiento universal en salud, dentro de la cual se da la descripción de las variables seleccionadas para este estudio, esta variables aportaran con mayor información para correlacionar la satisfacción laboral y el desgaste laboral de los médicos encuestados y se presentara la información en forma visual de estos resultados. La información obtenida dará cuenta del proceso por el cual las variables originales son transformadas, asignándoles valores cuantitativos, y convirtiéndolas en índices estandarizados. Finalmente con estos índices se obtiene las correlaciones entre los dos grupos y dentro de cada uno. / Trabajo de suficiencia profesional
33

Algunas contribuciones a la modelación multinivel en la Investigación Escolar en España

Tapia Blásquez, Patricia Aurora 11 July 2016 (has links)
[EN] Multilevel modelling has become a powerful tool in the research of school effectiveness. Particularly, finding those factors that influences student achievement in diverse contexts. Recently, Spain has registered an improvement in the research field of Education, but limited in the methodology developed. There are a lot of issues on multilevel models to explore, because most of the models applied in Spanish educative research has been univariate. The aim of this work was to determine the new contributions of multivariate multilevel models adjusting simultaneously two responses. The data was collected from the General Evaluation Diagnostic applied by the Institute of Evaluation on Education in Spain at 2009, which has the purpose to examine the results in Language and Mathematics competences from students coursing fourth grade of elementary education. The sample used was integrated by 28.708 students, 884 teachers, 898 principals, 27.541 parents and 900 schools centers. We had the achievement in each competence by each student, as well as the variables gathered from the survey applied to teachers, parents and directors. The models specified include three levels (Student, classroom and school center), one model for each competence, and one multivariate model in order to compare the results and finding new approaches of using this methodology in the understanding of school effectiveness. We compared the results of the estimators, their standard errors, residuals and variance and covariance matrix. The main conclusion is that there are still sides to take advantage from multilevel multivariate models, which result more integrated models and more powerful to provide information about scholar effectiveness. / [ES] La modelación multinivel se ha convertido en una poderosa herramienta de análisis dentro del campo de la investigación escolar, especialmente en la identificación de factores que contribuyen a explicar el rendimiento de los estudiantes en una pluralidad de contextos. Recientemente, en España se ha avanzado en esta línea pero con un limitado nivel en el desarrollo metodológico. Falta explorar nuevas posibilidades para el análisis de datos anidados, pues la mayoría de investigaciones españolas en eficacia escolar que se han hecho, se han limitado a la aplicación de modelos multinivel univariados. El propósito de este trabajo fue mostrar las nuevas aportaciones que tienen los modelos multinivel multivariados, al ajustar simultáneamente dos o más respuestas, utilizando datos de la Evaluación General de Diagnóstico 2009, aplicada por el Instituto de Evaluación Educativa en España y que tiene por objetivo medir el rendimiento en las competencias básicas del alumnado de cuarto grado de educación básica. Se trabajó con una muestra de 28.708 alumnos, 884 profesores, 898 directores, 25.741 padres de familia y 900 centros escolares de toda España, de la que se obtuvo la información sobre el rendimiento en la competencia lingüística y matemáticas de los alumnos, así como de las variables explicativas para cada nivel, a través de las encuestas que respondieron los padres, profesores y directores de las escuelas. Se especificaron 3 modelos de tres niveles (alumno, aula, escuela), uno para cada competencia por separado (lingüística y matemática) y un modelo multivariado de cuatro niveles que incluye ambas respuestas simultáneamente. Se compararon los resultados de los estimadores, de los errores estándar, los gráficos de los residuos y la matriz de varianzas y covarianzas, así como los efectos asociados a cada uno de los niveles. Se concluye que los modelos multivariantes multinivel ofrecen pruebas más potentes y mayor información en su matriz de varianzas para comprender el fenómeno educativo. / [CAT] La modelització multinivell s'ha convertit en una poderosa eina d'anàlisi dins del camp de la investigació' escolar, especialment en la identificació de factors que contribueixen a explicar el rendiment dels estudiants en una pluralitat de contextos. Recentment, en Espanya se ha avançat en aquesta línia però amb un limitat nivell en el desenvolupament metodològic. Falta explorar noves possibilitats per a l'anàlisi de dades niades, doncs la majoria de recerques espanyoles en eficàcia escolar que s'han fet, s'han limitat a l'aplicació de models multinivell univariats. El propòsit d'aquest treball va ser mostrar les noves aportacions que tenen els models multinivell multivariats, en ajustar simultàniament dues o mes respostes, utilitzant dades de l'Avaluació' General de Diagnòstic 2009, aplicada per l'Institut d'Avaluació' Educativa en Espanya i que té per objectiu mesurar el rendiment en les competències bàsiques de l'alumnat de quart grau d'educació' bàsica. Es va treballar amb una mostra de 28.708 alumnes, 884 professors, 898 directors, 25.741 pares de família i 900 centres escolars de tota Espanya, de la qual es va obtenir la informació' sobre el rendiment en la competència lingüística i matemàtiques dels alumnes, així com de les variables explicatives per a cada nivell, a traves de les enquestes que van respondre els pares, professors i directors de les escoles. Es van especificar 3 models de tres nivells (alumne, aula, escola), un per a cada competència per separat (lingüística i matemàtiques) i un model multivariat de quatre nivells que inclou ambdues respostes simultàniament. Es van comparar els resultats dels estimadors, dels errors estàndard, els gràfics dels residus i la matriu de variàncies i covariàncies, així com els efectes associats a cadascun dels nivells. Es conclou que els models multivariantes multinivell ofereixen proves mes potents i major informació' en la seua matriu de variàncies per a comprendre el fenomen educatiu. / Tapia Blásquez, PA. (2016). Algunas contribuciones a la modelación multinivel en la Investigación Escolar en España [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/67388 / TESIS
34

Control estadístico de variables cuantitativas mediante inspección por atributos apoyada en el diseño de galgas con dimensiones óptimas.

Mosquera Restrepo, Jaime 16 December 2019 (has links)
[ES] En el Control Estadístico de Procesos, los gráficos de control por variables suelen ser la herramienta empleada para vigilar el comportamiento de una característica cuantitativa de calidad. Para implementar estos gráficos se requiere de la medición periódica de una muestra de unidades del proceso. En algunos procesos, obtener una medición exacta de la variable de calidad es una tarea compleja, que demanda gran cantidad de recursos (costos, tiempo, mano de obra), o que deteriora/destruye la pieza inspeccionada. En estos casos, una alternativa más ágil y económica consiste en realizar el control basado en la verificación de piezas con una galga. Dado que la verificación con una galga suele ser tan sencilla como la verificación de un atributo, el control basado en galgas es mucho más ágil y económico que el control basado en mediciones exactas. En la literatura del Control Estadístico de Procesos se encuentran múltiples propuestas de esquemas de control basado en inspección por galgas. En esta Tesis doctoral realizamos una detallada revisión de estas propuestas y proponemos un nuevo esquema de control basado en galgas, cuyo desempeño estadístico es siempre igual o mejor que el de cualquiera de las propuestas previas. Este esquema es diseñado para el control de la media/varianza de una variable de calidad con distribución normal y posteriormente es extendido para el control de estos parámetros en distribuciones asimétricas (log-normal, skew-normal y Weibull). Adicionalmente, sobre el nuevo esquema de control basado en galgas, se realiza una adaptación de las estrategias de tamaño de muestra adaptativo, Doble muestreo y Tamaño de Muestra Variable, e incorporamos memoria al estadístico de control a través de un esquema de pesos exponencialmente ponderados EWMA. Como resultado se obtienen nuevos esquemas de control, cuya operación e implementación es tan sencilla como la de los gráficos de control por atributos, pero con mejor desempeño estadístico que los gráficos de control por variables. / [CAT] En el Control Estadístic de Processos, els gràfics de control per variables solen ser la ferramenta empleada per a vigilar el comportament d'una característica quantitativa de qualitat. Per a implementar estos gràfics es requerix del mesurament periòdic d'una mostra d'unitats del procés. En alguns processos, obtindre un mesurament exacte de la variable de qualitat és una tasca complexa, que demanda gran quantitat de recursos (costos, temps, mà d'obra) , o que deteriora/ destruïx la peça inspeccionada. En estos casos, una alternativa més àgil i econòmica consistix a realitzar el control basat en la verificació de peces amb una llebrera. Atés que la verificació amb una llebrera sol ser tan senzilla com la verificació d'un atribut, el control basat en llebreres és molt més àgil i econòmic que el control basat en mesuraments exactes. En la literatura del Control Estadístic de Processos es troben múltiples propostes d'esquemes de control basat en inspecció per llebreres. En esta Tesi doctoral realitzem una detallada revisió d'estes propostes i proposem un nou esquema de control basat en llebreres, l'exercici estadístic del qual és sempre igual o millor que el de qualsevol de les propostes prèvies. Este esquema és dissenyat per al control de la media/varianza d'una variable de qualitat amb distribució normal i posteriorment és estés per al control d'estos paràmetres en distribucions asimètriques (log-normal, skew-normal i Weibull). Addicionalment, sobre el nou esquema de control basat en llebreres, es realitza una adaptació de les estratègies de grandària de mostra adaptatiu, Doble mostratge i Grandària de Mostra Variable, i incorporem memòria a l'estadístic de control a través d'un esquema de pesos exponencialment ponderats EWMA. Com resultat s'obtenen nous esquemes de control, l'operació i implementació és tan senzilla com la dels gràfics de control per atributs, però amb millor exercici estadístic que els gràfics de control per variables. / [EN] In Statistical Process Control, control charts by variables are usually the tool used to monitor a quantitative quality characteristic. To implement these charts, periodic measurement of a sample of process units is required. In some processes, obtaining an accurate measurement of the quality variable is a complex task, which demands a large amount of resources (costs, time, labor), or that deteriorates / destroys the inspected unit. In these cases, a more agile and economical alternative is to perform the control based on the verificatión of units with a gauge. Since the verificatión with a gauge is usually as simple as checking an attribute, the control based on gauges is much more agile and economical than the control based on exact measurements. Several proposals of control schemes based on inspectión by gauges are found in the Statistical Process Control literature. In this PhD thesis we review these proposals and propose a new control scheme based on gauges, whose statistical performance is always the same or better than that of any of the previous proposals. This scheme is designed for the control of the means / variance of a quality variable with normal distributión and is subsequently extended for the control of these parameters in asymmetric distributións (log-normal, skew-normal and Weibull). In additión, on the new gauge-based control scheme, an adaptatión of the adaptive sample size: double sampling and variable sample size strategies, is carried out, and incorporates memory to the control statistic through an exponentially weighted EWMA weights scheme. As a result, new control schemes were obtained, whose operatión and implementatión is as simple as that of the control charts by attributes, but with a best statistical performance than the control charts by variables. / Inicialmente quiero agradecer a la Universidad del Valle, Cali – Colombia, por el soporte económico que me brindaron para garantizar mi estancia en la ciudad de Valencia y para el desarrollo de esta tesis doctoral. / Mosquera Restrepo, J. (2019). Control estadístico de variables cuantitativas mediante inspección por atributos apoyada en el diseño de galgas con dimensiones óptimas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/133059 / TESIS
35

Expresiones analíticas para determinar el límite de velocidad de vehículos en curvas y su aplicación en carreteras del Perú

Pérez Ballón, Luis Vicente 29 October 2016 (has links)
A partir del análisis mecánico teórico de la operación de un vehículo circulando en carreteras y/o curvas, este trabajo pretende definir las expresiones analíticas que relacionen las variables participantes y determinar los valores críticos de la velocidad de circulación para evitar el derrape (deslizamiento lateral) y/o evitar también el vuelco (volcadura). Para esto se identificarán las cargas actuantes sobre el vehículo (analizado como un sólido rígido); se presentarán las hipótesis y los puntos de partida para obtener esas expresiones analíticas y calcular la velocidad crítica de vuelco y la velocidad crítica de derrape a partir de las magnitudes, recomendadas para las carreteras del Perú, como son el radio mínimo de curvatura de la carretera, el coeficiente de fricción máximo con la pista y el peralte máximo aceptable, relacionadas con la velocidad de ingreso a una curva; se compararán esos valores teóricos, con las magnitudes presentadas y obtenidas a partir de las pruebas y ensayos experimentales mostradas y se concluirán y recomendarán los valores permisibles en la velocidad, para una operación del vehículo en curvas que presente seguridad para sus ocupantes. Los principales resultados obtenidos muestran una velocidad crítica de derrape que se encuentra en el intervalo de [20 ; 60](km h) mientras que para la velocidad crítica de vuelco se ubica en el intervalo de valores entre [42 ; 80](km h). Por otro lado, de los ensayos experimentales presentados se muestra que la velocidad de circulación máxima experimental en curvas es de 60 (km/h). Entre las conclusiones más importantes podemos afirmar que la velocidad de derrape y la velocidad de vuelco presentan expresiones análogas, pudiendo cambiar indistintamente la magnitud del coeficiente de fricción μ por la relación entre las magnitudes del Centro de Gravedad del sólido (l h) para obtener correspondientemente, la velocidad de derrape o la velocidad de vuelco. Además al comparar los intervalos obtenidos para la velocidad crítica de derrape y para la velocidad crítica de vuelco concluimos que el vehículo tenderá a derrapar antes que volcar y, en función de mantener la estabilidad del mismo y asegurar la integridad física de los pasajeros, concluimos que el valor máximo de ingreso a una curva sería de 60 (km h). / Tesis
36

El análisis de correspondencias conjunto y múltiple ajustado

Saavedra López, Ricardo Elías 15 August 2012 (has links)
Esta tesis presenta una revisión de los fundamentos teóricos de dos de las más recientes extensiones de la técnica estadística conocida como análisis de correspondencia (AC): el análisis de correspondencia conjunto (ACC) y el análisis de correspondencia múltiple ajustado (ACMA); y muestra una aplicación práctica de éstas a una encuesta de egresados de la Pontificia Universidad Católica del Perú. El análisis de correspondencia simple (ACS) es el primer alcance del análisis de correspondencias y se presenta cuando cada categoría de una variable se describe en función de la dependencia existente de los valores de otra única variable. Su extensión a más de 2 variables es conocida como el análisis de correspondencia múltiple (ACM). Si bien se puede encontrar literatura sobre el ACS y el ACM, es importante destacar que el ACC y el ACMA han sido poco difundidos, encontrándose escasa literatura sobre el tema, más aún, en nuestro idioma. Por lo tanto, se hace necesaria una revisión de las dos primeras a modo de contexto y una presentación metodológica y detallada de las dos últimas. Con la aplicación práctica se pretende obtener una representación de las facultades de los egresados de la PUCP en función del ingreso en su primer empleo relacionado con la formación recibida en la universidad y la percepción del grado de desarrollo de la competencia de comunicación recibida en la universidad. Esta aplicación consistiría en aplicar los 4 métodos descritos, comparándolos mediante nuevas técnicas que permiten reproducir las tablas de contingencia originales a partir de las representaciones obtenidas por los métodos indicados.
37

Estimación estadística, modelado y análisis de la trasmisión y coste de la variabilidad en procesos multi-etapa. Aplicación en la fabricación de baldosas cerámicas

Gras Llopis, Matias Alberto 20 December 2010 (has links)
Metodología para estimar un modelo matemático desarrollado y validado a partir de la información obtenida en un proceso, para explicar y predecir la variación observable en una característica de calidad así como un modelo que explique el coste de la variación. Los modelos se obtienen utilizando herramientas de control estadístico y los conceptos de costes de calidad y su combinación permite identificar las actuaciones más eficaces para la mejora del proceso y predecir su resultado. La aplicación práctica se realiza en un proceso de fabriación de baldosas cerámicas para reducir la variación dimensional.
38

Órdenes de experimentación en diseños factoriales

Correa Espinal, Alexander Alberto 21 June 2007 (has links)
Cuando se plantea un diseño factorial la práctica habitual es recomendar que los experimentos se realicen en orden aleatorio. Esta aleatorización tiene como objetivo el proteger de la posible influencia de factores desconocidos, ya que se espera que esa influencia quede difuminada entre todos los efectos de forma que ninguno se vea especialmente afectado y no se cometan errores al valorar su significación estadística. Pero este proceder tiene dos inconvenientes importantes: 1. El número de cambios de nivel en los factores que exige la aleatorización puede ser grande (bastante mayor que otras posibles ordenaciones) y difícil de llevar a la práctica, lo que complica y encarece la experimentación. 2. Si se realizan unas hipótesis que parecen muy razonables respecto al tipo de influencia que ejercen los factores desconocidos, existen órdenes claramente mejores que otros para minimizar la influencia de esos factores ajenos a la experimentación.Numerosos autores han estado trabajando sobre este tema y ya han sido resueltos algunos aspectos, como el de determinar los órdenes de experimentación que mejor neutralizan la influencia de factores desconocidos, aunque sin tener en cuenta el número de cambios en los niveles de los factores que esa ordenación implica. Adicionalmente, se ha resuelto el problema de encontrar órdenes que presentan el mínimo número de cambios de nivel, pero sin considerar de forma simultánea la posible influencia de los factores desconocidos.Cuando se considera conjuntamente la influencia de los factores desconocidos y el número de cambios en los factores, se ha llegado hasta los diseños con 16 experimentos, pero no más allá porque los procedimientos de búsqueda empleados son inviables cuando el número de ordenaciones posibles se hace tan grande (con 32 experimentos el número de ordenaciones posibles es 32! = 2,6 · 1035)La tesis que se presenta tiene por objetivo encontrar un procedimiento que permita obtener órdenes de experimentación con el mínimo número de cambios en los factores y que además minimicen la influencia de los factores desconocidos en la estimación de los efectos, para cualquier diseño factorial a 2 niveles. Además, se pretende elaborar un procedimiento de forma que dichas ordenaciones, con las propiedades deseadas, puedan ser obtenidas de forma fácil por el experimentador. El contenido se presenta estructurado en 7 capítulos y 8 apéndices. El capitulo 1 presenta las motivaciones que se consideraron para seleccionar este tema de investigación y define los elementos fundamentales que se presentan a lo largo del trabajo, tales como los diseños factoriales a dos niveles -completos o fraccionales- los problemas que puede causar la aleatorización en estos diseños, y cómo cuantificar la influencia de los factores ajenos a la experimentación en la estimación de los efectos. Asimismo, se plantean las hipótesis y el contexto en que se buscarán los órdenes de ejecución que presentan las propiedades deseadas.En el capitulo 2, se realiza una revisión bibliográfica exhaustiva de las propuestas existentes respecto a los órdenes de ejecución de este tipo de diseños para conseguir que las conclusiones del análisis no se vean afectadas por la influencia de factores ajenos a la experimentación y/o que el número de cambios a realizar en los niveles de los factores sea mínimo. Al final del capítulo se comentan las debilidades del estado del arte actual y se plantean los aportes previstos en esta tesis. En el capitulo 3, se presenta un procedimiento original que permite encontrar órdenes de experimentación para diseños factoriales a 2 niveles con el mínimo número de cambios en los factores y un sesgo conocido. A este procedimiento lo denominamos método de duplicación, ya que duplicando las filas de un diseño 2k y agregando un factor adicional con una determinada secuencia de signos, permite obtener un diseño 2k+1 que conserve las características del diseño anterior. Una importante propiedad de este método es que puede aplicarse a cualquier número de factores. Este procedimiento garantiza el mínimo número de cambios de nivel, pero no siempre garantiza el mínimo sesgo (medida de la influencia de los factores desconocidos en la estimación de los efectos). En el capitulo 4, se utilizan diferentes métodos de búsqueda para hallar órdenes de experimentación que presenten un sesgo menor al proporcionado por el método de la duplicación.Estos métodos son:- Búsqueda aleatoria con restricciones: Se utiliza un procedimiento que va generando aleatoriamente el orden de ejecución de los experimentos pero de forma que a una condición experimental solo puede seguirle otra condición que presente solo un cambio en los niveles de los factores (para garantizar el mínimo número de cambios). Una vez completada una ordenación se calcula su sesgo, y se almacenan las ordenaciones con un sesgo por debajo de un cierto umbral.- Búsqueda exhaustiva: Se utiliza un algoritmo planteado por Dickinson (1974) y que fue adaptado por De León (2005). Es similar al algoritmo anterior, pero no genera las condiciones de experimentación de forma aleatoria sino que sigue una sistemática para encontrar todas las ordenaciones posibles. De esta forma se ha encontrado la mejor ordenación para diseños con 32 experimentos, hasta ahora desconocida, entendiendo por mejor la que presenta mínimo número de cambios en los niveles de los factores y de entre estas, la que presenta menor sesgo. - Búsqueda exhaustiva con alimentación forzada. Es imposible explorar exhaustivamente todas las ordenaciones posibles si el número de experimentos es mayor a 32. Para explorar la zona de ordenaciones más prometedora se ha aplicado el procedimiento de búsqueda exhaustiva en tono a una ordenación que ya es buena y que ha sido obtenida por los métodos anteriores.Para diseños con más de 32 experimentos los mejores órdenes se obtienen de una combinación de los diferentes métodos propuestos. Así, para diseños con 64 experimentos el mejor orden se obtiene con el método de búsqueda exhaustiva con alimentación forzada, alimentando el algoritmo con una ordenación obtenida a través de la búsqueda aleatoria con restricciones. La mejor ordenación para 128 experimentos se obtiene de la misma forma, pero alimentando el algoritmo con una ordenación obtenida por duplicación del orden obtenido para 64 experimentos.Los métodos descritos en el capítulo 4 proporcionan lo que denominamos "órdenes semilla", ya que a partir de estos órdenes se pueden deducir otros con sus mismas propiedades. En el capitulo 5, se presentan dos procedimientos para obtener órdenes con las características deseadas a partir de los órdenes semilla. Estos métodos los denominamos método de permutación y cambios de signo y el método de las columnas de expansión. Ambos métodos han sido programados en macros de Minitab, lo cual permite generar de forma automática y aleatoria (de entre todos los posibles) los órdenes con las características propuestas. En el capitulo 6, se presenta un nueva medida de atenuación de la influencia de los factores ajenos a la experimentación que permite comparar la atenuación entre diseños factoriales con diferente número de factores, mostrando que el procedimiento de duplicación presentado en el capitulo 3, es adecuado para obtener órdenes de experimentación con las características propuestas en diseños con más de 128 experimentos. Finalmente, en el capitulo 7 se presentan las principales conclusiones obtenidas y se definen posibles futuras líneas de investigación que podrían ampliar los estudios realizados.En el anexo 1 se presentan los órdenes propuestos por De León (2005) para diseños con 8 y 16 experimentos, citados en diversas ocasiones a lo largo de la tesis y que constituyen uno de los puntos de partida. El anexo 2 presenta el lenguaje de programación FreeBasic, utilizado para implementar los algoritmos de búsqueda de ordenaciones, y en los anexos 3 y 4 se incluyen 2 de los programas realizados: el de búsqueda aleatoria para diseños con 64 experimentos (anexo 3) y búsqueda exhaustiva para diseño con 32 experimentos (anexo 4). En el anexo 5 se presenta uno de los órdenes obtenidos con las propiedades deseadas para los diseños con 128 experimentos, y en los anexos 6 y 7 se incluyen las macros realizadas con el lenguaje de programación de Minitab y que a partir de las semillas para cada tipo de experimento, propone una ordenación de entre todas las posibles que tienen las propiedades deseadas. Finalmente, en el anexo 8 se realizan algunas consideraciones sobre el análisis de los órdenes propuestos, con restricciones en la aleatorización, y se resumen las propuestas realizadas sobre este tema. / A common recommendation when thinking in a factorial design is randomizing the run order. The purpose of this randomization is to protect the response from the possible influence of unknown factors. This influence is expected to be blurred among all the effects, thus none of them is specially affected and no mistakes are made when estimating its statistical significance. But this praxis has two essential problems: 1. The number of factor's level changes due to randomization might be large (much larger than in other sequences). It can be also difficult to conduct, making the experimentation complicated and more expensive. 2. Making some reasonable hypothesis regarding the influence of the unknown factors, there are some sequences clearly better than others for minimizing the influence of this undesirable factors.Many authors have worked on this topic, and some matters have already been solved. For instance, the experimentation sequence that better neutralises the influence of unknown factors is already determined, but without taking into consideration the number of level changes that this sequence implies. It has also been solved the problem of finding sequences that have the minimum number of level changes, but without considering simultaneously the potential influence of unknown factors. When both the influence of unknown factors and the number of level changes is considered, the problem has been solved up to designs with 16 runs. But not further as the searching procedures used are nonviable when the number of possible sequences becomes so huge (with 32 runs the number of different sequences is 32! = 2,6 · 1035) The aim of this thesis is finding a procedure that makes it possible to obtain run sequences with the minimum number of level changes, and that besides minimize the influence of unknown factors in the effect estimation, for any 2 level factorial design.Moreover, the desired run sequence should be obtained easily by the experimenter when using the proposed procedure.The content is structured in 7 chapters and 8 appendixes. Chapter 1 shows the motivation that lead to chose this research topic. It also defines the basic elements of this work (complete and fractional 2 level factorial designs, problems that appear when randomizing this designs, and how to quantify the influence of unknown and undesired factors in the effect estimation). In addition, the hypothesis and context in which the search for run orders with the desired properties will take place are presented.Chapter 2 gives an exhaustive bibliographic review of the current solutions related with run orders in these designs robust to the influenceof factors alien to the experimentationand/or with minimum number of level changes. The end of the chapter lists weaknesses of the current state of the art and advances the expected contributions of this thesis. Chapter 3 presents an original procedure for finding run orders for 2 level factorial designswith the minimum number of changes in the level factors and a known bias. We called this procedure duplication method, as duplicating the rows of a 2k design and adding a factor with a specific sign sequence, a 2k+1 design with the same properties as the first design is achieved. An important property of this method is that it can be applied to any number of factors. This procedure guarantees the minimum number of level changes, but not always guaranties the minimum bias (measure of the influence that unknown factors have in the effect estimation). Chapter 4 shows different methods for finding run orders with less bias than the one produced by the duplication method. These methods are: - Random search with restrictions: The procedure randomly generates the run order, but in a way that a run is followed by another one that has only one change in the factor levels (the minimum number of changes is then guaranteed). Once the sequence is completed its bias is calculated, and the sequences with a bias under a threshold are stored.- Exhaustive search: An algorithm proposed by Dickinson (1974) and adapted by De León (2005) is used. It is similar to the previous algorithm, but it does not generate the runs in a random manner. Instead, it behaves systematically in order to find all the possible run orders. With this algorithm the best run order for designs with 32 experiments has been found (and it was unknown until now). The best run order means the one that has minimum number of changes in the levels and, among these, the one with less bias.- Exhaustive search with forced feeding. The exhaustive exploration of all possible run orders with more than 32 runs is impossible. The procedure of exhaustive search around a good run order already found with one of the previous methods allowed the exploration of the most promising run order area. For designs with more than 32 runs the best run orders are obtained from a combination of the proposed methods. For designs with 64 runs the best order comes from the exhaustive search with forced feeding method, feeding the algorithm with a run order obtained from the random search with restrictions method. We used the same procedure for obtaining the best run order for 128 runs, but feeding the algorithm with a run order obtained from duplication of the one for 64 runs.Methods described in chapter 4 provide the so called "seed orders": from this orders new ones with the same properties can be deduced. Chapter5 shows two procedures for obtaining orders with the expected properties from the seed orders. These methods are called permutation and sign change method, and expansion columns method. Both methods have been programmed as Minitab macros, making it possible to automatically and randomly generate (among all possible ones) the orders with the desired properties. A new measure for attenuating the influence of factors alien to experimentation is presented in chapter 6. This allows the comparison among the attenuation of factorial designs with different number of factors, thus showing that the duplication procedure shown in chapter 3 is appropriate for obtaining run orders with the properties desired in designs with more than 128 runs. Finally, chapter 7 gives the main conclusions and defines possible future research areas that could extend our studies.Appendix 1 shows the orders proposed by De León (2005) for designs with 8 and 16 experiments, cited several times in the thesis and one of our starting points. Appendix 2 explains the FreeBasic programming language, used for implementing the search algorithms. Appendixes 3 and 4 include 2 programs: random search for designs with 32 runs (appendix 3) and exhaustive search for designs with 32 experiments (appendix 4). Appendix 5 shows one of the obtained orders with the desired properties for designs with 128 runs. Appendixes 6 and 7 have the Minitab macros that using the seed orders for each kind of experiment proposes an order among all the possible ones with the desired properties. Finally, appendix 8 has some comments about the proposed run orders, with restrictions in the randomization, and summarizes the proposals about this topic.
39

Estadística aplicada 2 (MA145), ciclo 2013-2

Cuadros, Gonzalo, Cárdenas Solís, Celia, Ramírez Infante, Raúl, Tarazona, Enver 19 July 2013 (has links)
El curso de Estadística Aplicada 2 para estudiantes de Ingeniería Industrial e Ingeniería de Sistemas, comprende el estudio de diversos métodos de Estadística Inferencial que sirven de apoyo en el proceso de toma de decisiones a partir de información proveniente de las diferentes ramas de la ingeniería. Contenido: Muestreo -- Pruebas de hipótesis -- Uso de la distribución Ji Cuadrada -- Uso de la distribución Ji cuadrada -- Diseños experimentales -- Análisis de regresión lineal simple -- Regresión Múltiple -- Análisis -- Series de tiempo -- Método de Atenuación Exponencial.
40

Estadística Aplicada 2 (MA145), ciclo 2014-0

Cuadros, Gonzalo, Cárdenas Solís, Celia, Ramírez Infante, Raúl, Tarazona, Enver 02 December 2013 (has links)
El curso de Estadística Aplicada 2 para estudiantes de Ingeniería Industrial e Ingeniería de Sistemas, comprende el estudio de diversos métodos de Estadística Inferencial que sirven de apoyo en el proceso de toma de decisiones a partir de información proveniente de las diferentes ramas de la ingeniería. Contenido: Muestreo -- Pruebas de hipótesis -- Uso de la distribución Ji Cuadrada -- Diseños experimentales -- Análisis de regresión lineal simple -- Regresión Múltiple -- Series de tiempo -- Método de Atenuación Exponencial.

Page generated in 0.4102 seconds