• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 3
  • Tagged with
  • 10
  • 10
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Metodología de Caracterización Conceptual por Condicionamientos Sucesivos. Una Aplicación a Sistemas Medioambientales.

Pérez Bonilla, Alejandra Alicia 12 January 2010 (has links)
La validación de un cluster sigue siendo un problema abierto por no haberse encontrado aún un criterio objetivo para determinar la calidad de un conjunto de clases en el contexto del clustering. La interpretación de un clustering se convierte así en una fase fundamental del proceso de validación y sigue siendo, aún hoy, uno de los criterios más utilizados en la práctica.Así, actualmente es necesario introducir herramientas para asistir al usuario en las tareas de interpretación de una partición sobre un conjunto de objetos, con el fin de establecer el significado de las clases resultantes. Si las clases obtenidas no tienen sentido para los expertos, los resultados no son considerados válidos, ni tampoco se podrán utilizar, ni darán apoyo a ninguna decisión posterior. La literatura abunda algoritmos (técnicas) de validación orientados a la vertiente estructural de la partición, pero disponer de clases bien formadas estructuralmente no ofrece garantía de que un experto vaya a ser capaz de asociar cada uno de esos grupos a una entidad semántica. Esta tesis pretende contribuir a la mejora de este proceso, fundamental para comprender el significado de las clases obtenidas y dar soporte efectivo a la posterior toma de decisiones.La alternativa que parece más prometedora es el desarrollo de técnicas que a partir de la evidencia empírica, identifiquen las variables más relevantes y formulen conceptos que expresen las particularidades de cada clase y se expresen en una forma de representación conceptual generable automáticamente y directamente comprensible para el experto.Incorporar procedimientos que trasladen los resultados del análisis a una representación explícita del conocimiento obtenido, se sitúa en la línea de lo que Fallad propone para los sistemas de Knowledge Discovery from Data (KDD), donde la fase de post-proceso de los resultados para generar conocimiento es casi tan importante como el análisis en si mismo.La metodología de Caracterización Conceptual por Condicionamientos Sucesivos (CCCS) trata de aproximar en un modelo formal el proceso natural que sigue un experto en su fase de interpretación de resultados realizando una aproximación iterativa basada en el clustering jerárquico. La CCCS:· Aporta una sistematización al proceso de interpretación de clases procedentes de un cluster jerárquico y supone un avance significativo respecto al estado actual en que la interpretación se realiza de forma artesanal.· Contribuye a sistematizar y objetivar los mecanismos de interpretación que usan los expertos humanos.· Genera resultados que permiten que el experto pueda comprender más fácilmente las características principales de la clasificación obtenida ya que genera conocimiento explícito directamente a partir de las clases.Si bien la CCCS es general, se ha centrado la aplicación a estaciones depuradoras de aguas residuales por ser éste uno de los dominios donde las aproximaciones clásicas funcionan peor.Desde un punto de vista teórico, el interés de esta tesis es presentar una propuesta metodológica híbrida que combine herramientas y técnicas de Estadística e Inteligencia Artificial (IA) en forma cooperativa, siguiendo un enfoque transversal y multidiciplinar combinando elementos de la inducción de conceptos en IA, lógica proposicional y teoría de probabilidad. Es así como, ésta tesis, contribuye a la concepción genérica de sistema de KDD y a objetivar los procedimientos de validación de resultados, ya que el hecho de que un clustering tenga una interpretación clara está relacionado con su utilidad; evaluarla requiere un mecanismo a posteriori de comprensión del significado de las clases.La CCCS aprovecha la estructura jerárquica de la clasificación objetivo para inducir conceptos iterando sobre las divisiones binarias que indica el dendrograma, de tal forma que, a partir de las variables que describen los objetos pertenecientes a cierto dominio, se puedan encontrar las particularidades de cada clase, contribuyendo así al proceso de interpretación conceptual automática de clases. / The validation of a cluster is still an open problem as an objective criteria for determining the quality of a set of classes has not yet been found in the context of clustering. The interpretation constitutes a fundamental phase of the process and still today remains one of the most commonly used criteria to validate the cluster. Thus, it is now necessary to introduce tools to assist the user in the task of interpreting a partition of a set of objects in order to establish the meaning of the resulting classes. If the classes obtained don't do not make sense to the experts, the results of the classification are not considered valid, nor could be used or support any subsequent decision. All validation techniques and algorithms focus on the structure of the partition, but having well-structured classes does not guarantee that an expert will be able to associate each of these groups with a semantic entity. This thesis wants to make a contribution to this process, fundamental for understanding the meaning of the obtained classes and to give effective support to the subsequent decision-making.The most promising alternative seems to be the development of techniques based on empirical evidence to identify the most important variables and formulate concepts that express the specifics (or: specific nature) of each class and are expressed in a conceptual representation able apt for automatic generation and directly understandable to the expert.To incorporate procedures that translate the results of analysis (in this case of clustering) into a representation of explicit knowledge is in line with what Fayyad in 1996 suggests for systems of Knowledge Discovery from Data (KDD) where the phase of post-process of the results to generate knowledge is almost as important as the analysis itself. Perhaps due to its semantic nature, the automatic generation of interpretations of a classification has not been formally treated by statistics, but to resolve it is essential.The methodology of Characterization by Embedded Conditioning (CCEC) proposed tries to approximate in a formal model the natural process that an expert follows in its phase of interpretation of results by making an iterative approximation based on a hierarchical clustering. The CCEC:· Provides a systematizing of the process of interpretation of classes from a hierarchical cluster and represents a significant advance to the current situation in which the interpretation is done manually and more or less crafted.· Helps to systematize and objectify the mechanisms of interpretation used by human experts.· The results generated by the methodology allow the expert to better understand the main characteristics of the classification obtained by generating explicit knowledge directly from the classes.While the methodology proposed is general, the application focuses on Waste Water Treatment Plant (WWTP) because this is one of the domains where conventional approaches lack efficiency.From a theoretical point of view, the main focus of this thesis has been to present a hybrid methodology that combines tools and techniques of statistics and Artificial Intelligence in a cooperative way, using a transversal and multidisciplinary approach combining elements of the induction of concepts from Artificial Intelligence, propositional logic and probability theory. Thus, this thesis contributes to the generic design of KDD system. It also contributes to objectivate procedures for the validation of results, as the fact that clustering has a clear interpretation is related to the usefulness of a classification; evaluating the usefulness requires a posteriori mechanism of understanding the meaning of classes.The methodology CCEC benefits from the hierarchical structure of the target classification by induceing concepts iterating with binary divisions from dendrogram, so that, based on the variables that describe the objects belonging to a certain domain, the specifics of each class can be found, thus contributing to the automatic interpretation of conceptual description of clustering.
2

Models i índexs de concentració. Aplicació al volum empresarial de Lleida

Cabasés i Piqué, Ma. Àngels 22 October 1993 (has links)
Actualment un dels temes més debatuts per l'opinió pública és la desigualtat existent en els diferents àmbits de la societat i, per tant, aquest tema esdevé un objectiu de les formacions polítiques les quals concedeixen molta importància a l'impacte de les mesures específiques en matèria de distribució.Com a conseqüència, en l'esfera econòmica assistim a la proliferació d'estudis empírics i a l'ús de mesures capaces de quantificar el grau de desigualtat que pot presentar la distribució de la riquesa, renda o consum.Dos són els criteris a l'hora de mesurar la desigualtat:a.- L'enfocament tradicional, pretén únicament estudiar la desigualtat sense entrar en qüestions de tipus ètic. Són mesures estadístiques positives que es poden aplicar a qualsevol distribució sense disposar d'informació addicional. Les més freqüents i utilitzades són: GINI, ÍNDEX DE THEIL i COEFICIENT DE VARIACIÓ.b.- L'enfocament modern, iniciat per Atkinson (1970) va mostrar que en les diverses mesures de desigualtat estan immersos criteris ètics i per tant, s'han d'evitar incompatibilitats entre els criteris ètics de les mesures i els criteris ètics de les Funcions de Benestar Social. Es creen les anomenades mesures normatives de desigualtat. Per construcció els índexs normatius no seran apropiats per mesurar la desigualtat en la distribució de magnituds econòmiques diferents de la renda. / Actualmente uno de los temas más debatidos por la opinión pública es la desigualdad existente en los diferentes ámbitos de la sociedad y, por lo tanto, este tema acontece uno objetivo de las formaciones políticas las cuales conceden mucha importancia al impacto de las medidas específicas en materia de distribución.Como consecuencia, en la esfera económica asistamos a la proliferación de estudios empíricos y al uso de medidas capaces de cuantificar el grado de desigualdad que puede presentar la distribución de la riqueza, renta o consumo.Dos son los criterios a la hora de mesurar la desigualdad:a.- El enfoque tradicional, pretende únicamente estudiar la desigualdad sin entrar en cuestiones de tipo ético. Son medidas estadísticas positivas que se pueden aplicar a cualquiera distribución sin disponer de información adicional. Las más frecuentes y utilizadas son: GINI, ÍNDICE DE THEIL y COEFICIENTE DE VARIACIÓN.b.- El enfoque moderno, iniciado por Atkinson (1970) mostró que en las diversas medidas de desigualdad están inmersos criterios éticos y por lo tanto, se tienen que evitar incompatibilidades entre los criterios éticos de las medidas y los criterios éticos de las Funciones de Bienestar Social. Se crean las nominadas mesuras normativas de desigualdad. Por construcción los índices normativos no serán apropiados por mesurar la desigualdad en la distribución de magnitudes económicas diferentes de la renta.
3

Optimización de la producción en una terminal marítima de contenedores. Umbrales y punto de equilibrio.

Muñoz Cinca, Victor Eusebi 18 July 2008 (has links)
Esta tesis analiza el conjunto de operaciones que se realizan en una Terminal de Contenedores Marítima para crear un modelo que optimice el volumen de producción en función de costes, precios, estructura y recursos.Para ello se analizan todos los procesos, en especial el rendimiento de explanada y su influencia en la productividad de operaciones de transferencia en muelle (buque) y tierra (camiones y ferrocarril). En base al rendimiento de explanada, costes y precios se determinan los umbrales de producción. Definimos una Terminal de Contenedores como una interfaz o conexión entre varios modos de transporte (carretera, ferrocarril, marítimo y aguas interiores). Sus funciones son la transferencia de contenedores entre los diferentes modos y hacer de almacenamiento temporal (buffer) en el ínterin. No confundir con una función de almacenaje, la Terminal solo amortigua la conexión entre los diferentes modos de transporte. El Sistema Operativo es el conjunto de procesos que optimizan la transferencia y almacenamiento temporal de los contenedores. Generalizando las operaciones se pueden dividir en dos tipos, operaciones de muelle y operaciones de tierra. Siguiendo otro criterio también podríamos clasificarlos en procesos dinámicos, que serían los de transferencia y en procesos estáticos como el almacenamiento y estiba de la explanada. El Capítulo Primero, describe la evolución histórica de los procedimientos de carga y descarga en los puertos hasta la aparición del contenedor. Continuamos con una introducción de las premisas para el diseño de una Terminal de contenedores. Para finalizar se definen objetivos y metodología del trabajo.El Capítulo Segundo, describe la evolución de las Terminales de Contenedores Marítimas. Antecedentes y normalización del Contenedor, Transporte Combinado, Infraestructuras, la Investigación de Operaciones como herramienta para la creación de modelos y los diferentes estudios realizados sobre terminales de contenedores en función del método, alcance y objetivo. El Capítulo Tercero es una introducción de los diferentes procesos tanto a nivel de transferencia o dinámicos como de planificación o estáticos. Se analizan las operaciones y los principales subprocesos relacionados como ciclos de máquina, planificación de explanada, tráfico, asignación de medios (humanos y mecánicos), asignación de atraques y análisis del flujo de camiones en puertas. El Capítulo Cuarto es un estudio del rendimiento de explanada, se analizan las remociones, rotación del inventario y su relación con la ocupación y la productividad de las operaciones.En el Capítulo Quinto, se definen, analizan y calculan los umbrales de producción y punto de equilibrio. El rendimiento de explanada combinado con los costes y precios de mercado determina los diferentes puntos a partir de los cuales la Terminal amortiza sus costes y maximiza el beneficio.En el Capítulo Sexto concluye con la necesidad de aplicar modelos conjuntos en la operativa de terminales para obtener mejoras en su productividad y costes. Básicamente se trata de equilibrar la función dinámica con relación a la función estática. En el Capítulo Séptimo finalmente se concluye que el grado de homogenización y la estancia de los containers conjuntamente con su layout son los factores determinantes que maximizan su rendimiento conjunto. Económicamente podemos llegar a saturar el nivel de producción pero es el cliente quien pone límite y obliga a optimizar rendimientos operativos, es por ello que la terminal debe buscar sus umbrales de producción siempre y cuando sus rendimientos operativos entren dentro de los márgenes del sector. Por último en los anexos, se relacionan las características de las principales terminales del mundo, para finalizar con un análisis de las tendencias del sector. / In this thesis we analyze the whole Terminal Operating Processes being conducted in a Marine Container Terminal, to create a model that optimizes the production volume in terms of costs, price, structure and resources.It analyzes all the processes, especially yard performance and its influence on the productivity of transfer operations on berthing line (ships) and land (truck and rail). Based on the yard performance, prices and costs we determine the production thresholds.We define a container terminal as an interface or connection between various modes of transport (road, rail, maritime and inland waters). Its functions include the transfer of containers between different modes and make temporary storage (buffer) in the meantime. Not to be confused with a storage terminal or warehouse as it only dampens the connection between different modes.The operating system is the set of processes that optimize the transfer and temporary storage of containers. Generalizing operations can be divided into two types dock operations and ground operations. Following another approach could also classify them in dynamic processes, which would be the transfer and static processes such as yard storage and stowage.The First Chapter describes the historic development of procedures for loading and unloading at ports until the emergence of the container. We continue with an introduction of the premises for the design of a container terminal. Finally we define objectives and methodology of work. The Second Chapter describes the evolution of Marine Container Terminals. Background and standardization of Container, Combined Transport, Infrastructures and Operations Research as a tool for creating models and different studies on container terminals depending on the method, scope and objective. The Third Chapter is an introduction of different processes both at the level of transfer or dynamic as planning or static. We analyze the operations and the main related sub processes as machine cycles, yard planning, traffic, allocation of resources (human and mechanical), berth allocation and analysis of the flow of trucks at terminal gates. The Fourth Chapter is a study of yard performance, thus we analyze the yard container shiftings (container removals), the rotation of inventory and its relationship to the occupancy and productivity of operations.In the Fifth Chapter we define, analyze and calculate the thresholds of production and break-even point. Yard performance combined with the costs and market prices, determines different points from which the Terminal depreciates their costs and maximizes profit.The Sixth Chapter concludes with the need to improve the combined operational models of terminal processes to obtain improvements in its productivity and costs. Basically it comes to balancing the dynamic role with regard to its static role.In Chapter Seventh finally concluded that the degree of homogenization and container dwell times in conjunction with its layout are the determinants that maximize their overall performance. Economically we can reach saturation level of production but is the costumer who limits and obliges to optimize the operational performance, thus the Terminal must find their thresholds of production bearing in mind that its performance falls within the industry limits.Finally in the annexes there are related the characteristics of the main terminals in the world, to finish with an analysis of the industry trends.
4

El modelo de larga duración Weibull-Geométrica

Torres Salinas, Karina Hesi 20 March 2019 (has links)
Los modelos de larga duración son una extensión de los modelos de supervivencia tradicional y nos permiten modelar una proporción de la población que no llegan a experimentar un evento de interés, incluso después de un largo periodo de seguimiento. En este trabajo se presenta y deduce la distribución de larga duración Weibull-Geométrica y su proceso de estimación e inferencia. Se desarrolló un estudio de simulación con el un de evaluar el desempeño de las estimaciones y determinar si se recuperan los parámetros. Asimismo el modelo fue aplicado a una muestra de clientes que adquirieron y activaron una tarjeta de crédito entre enero a diciembre del año 2015 y donde el principal objetivo del análisis era entender el comportamiento del tiempo hasta la cancelación de la tarjeta de crédito del cliente. Comparamos al modelo de larga duración Weibull-Geométrica con otros modelos de larga duración, Exponencial-Geométrica y Weibull. Los resultados indican que nuestro modelo muestra un mejor ajuste en los datos. / Tesis
5

Aportacions als mètodes estadístics per a modelar dades agregades amb correlació espacial

Abellana Sangrà, Rosa Maria 28 July 2003 (has links)
L'objectiu d'aquesta tesi ha estat estudiar i millorar les tècniques utilitzades en el modelatge de la variabilitat geogràfica del risc de patir o morir d'una determinada malaltia al llarg d'una àrea. Donat que aquestes dades sovint presenten correlació espacial, una metodologia adequada per modelar-les són els models lineals generalitzats mixtos. L'estimació d'aquests models es pot realitzar mitjançant dos perspectives: la bayesiana i la frequentista Des d'un punt de vista bayesià el procediment d'estimació és la fully bayesian y des de la frequentista el mètode més utilitzat és la quasiversosimilitut penalitzada. El primer objectiu de la tesis ha estat comparar aquests dos procediments. Aquesta comparació s'ha realitzat en termes de biaix i precisió mitjançant un estudi de simulació. La principal conclusió que s'ha obtingut es que els dos procediments no presenten grans diferències tot i que en situacions d'un nombre petit de regions i de casos esperats les estimacions fully bayesian presenten uns resultats més consistents i en canvi amb moltes regions i casos esperats el procediment quasiversemblança penalitzada presenta més precisió en les estimacions. El segon objectiu ha estat millorar la convergència de l'algoritme de maximització utilitzat en el procediment de la quasiversosimilitud penalitzada quan es modelen dades amb correlació espacial. Aquesta millora s'ha aconseguit reparametritzant la matriu de variàncies i covariàncies dels efectes aleatoris. El tercer objectiu ha estat buscar mètodes per testar la absència d'un patró geogràfic, és a dir, la existència d'independència espacial. Per això s'han avaluat diverses proves per contrastar aquesta hipòtesis com: el test de Wald, el quocient de versemblances, el Score test, i el AKAIKE information criterion i a més s'ha estudiat el comportament del coeficient de concordança entre matrius. Els principals resultats que s'han obtingut són: el score test es la prova que presenta un millor equilibri entre l'error de tipus I i potència i el coeficient de concordança entre matrius és una mesura útil per prendre decisions sobre independència espacial, sobretot en aquells casos on el nombre de regions, casos esperats i la variància dels efectes aleatoris són petites.Finalment, s'ha il·lustrat la metodologia presentada al llarg de la tesi mitjançant una aplicació sobre el risc de diabetis tipus I a Catalunya durant els anys 1989 i 1998. / The main objective of this thesis has been to study and to improve the techniques used in the analysis of the geographical variability of the disease risk across a region. In these studies the data are spatial correlated. The useful methodology to analyze this kind of data is the generalized linear mixed models. The estimation of these models can be carried out by two point of view: bayesian and frequentist. From a bayesian point of view, the estimation is done by fully bayesian and from frequentist the approach more used is the penalized quasi likelihood. The first objective of this thesis has been to compare both approaches. The comparison has been performed in terms of bias and precision by a study of simulation. The main conclusion has been that both approaches don't present great differences but when the number of regions and expected counts are small the Fully Bayesian gives a more consistent results. However when the number of regions and expected counts are large the estimates by the penalized quasilikelihood are more precise. The second objective has been to improve the convergence of the maximization algorithm used with the approach of the penalized quasi likelihood when the data are spatial correlated. The improvement has been obtained by a reparameterization of the variance and covariance matrix of the random effects. The third objective has been to introduce the concordance coefficient between matrixes as a useful approach to evaluate the hypothesis of spatial independence. In addition, its performance has been compared to the Wald test, the score test, the likelihood ratio test and the AKAIKE information criterion. The main conclusions have been: the concordance coefficient has been shown to be a useful measure to decide spatial independence, mainly in those cases in which the region number, expected counts and the random effects variance are small and the score test is the test which presents a better balance between type I error and power. Finally, the results of this thesis has been applied to the Insulin-Dependent Diabetes type I data from Catalonia.
6

Gráficos de control por atributos con curvas ARL cuasi insesgadas: Análisis y desarrollo de métodos

Argoti Morales, Marco Antonio 06 May 2019 (has links)
[ES] Los gráficos de control por atributos son herramientas estadísticas ampliamente utilizadas tanto en la industria de bienes como en la de servicios y sirven para monitorizar procesos mediante atributos de calidad. Los gráficos por atributos uni-variantes están entre los más conocidos y son el tema central de esta tesis. Estos gráficos se dividen en dos tipos: los basados en la distribución binomial (Gráficos np y p) y aquellos basados en la distribución de Poisson (Gráficos c y u). Los gráficos por atributos Shewhart son sin lugar a duda los más populares y tienen la particularidad de que sus límites de control se basan en la aproximación normal a las distribuciones binomial y de Poisson. Cuando se utilizan estos gráficos lo habitual es asumir que, siempre y cuando la aproximación normal sea adecuada, su capacidad de monitorización será idónea, es decir que podrán detectar de igual manera tanto mejoras como deterioros del proceso. En esta tesis se demuestra que, debido a la asimetría de las distribuciones binomial y de Poisson, el ajuste de la aproximación normal es impreciso en las colas de esas distribuciones y que eso afecta negativamente la potencia de detección de los gráficos Shewhart. Para poder establecer la magnitud de la afectación, se desarrollaron varios parámetros novedosos que sirven para evaluar y caracterizar la capacidad de monitorización de cualquier gráfico por atributos del tipo uni-variante. Por medio de estos parámetros se estableció que los gráficos Shewhart, al contrario de lo que se presume, están lejos de ser idóneos. Los nuevos parámetros mencionados en el párrafo anterior, también sirvieron para analizar gráficos de control planteados como alternativas superiores a los Shewhart. Los resultados de los análisis demostraron que esos gráficos tampoco tienen una capacidad de monitorización del todo satisfactoria. Dos nuevos gráficos de control, el p Kmod y el u Kmod, son propuestos. Estos gráficos tienen una capacidad de monitorización superior a cualquier otro gráfico de control (p y u respectivamente) incluido en esta tesis y además cuentan con un método de fácil uso mediante el cual es posible establecer si esa capacidad es o no óptima. Los resultados de la investigación han sido publicados en actas de congresos y en revistas científicas internacionales. / [CA] Els gràfics de control per atributs són ferramentes estadístiques àmpliament utilitzades tant en la indústria de béns com en la de serveis i serveixen per a monitoritzar processos per mitjà d'atributs de qualitat. Els gràfics per atributs uni- variants estan entre els més coneguts i són el tema central d'esta tesi. Existeixen dos tipus: els gràfics basats en la distribució binomial (Gràfics np i p) i els gràfics basats en la distribució de Poisson (Gràfics c i u). Els gràfics per atributs Shewhart són sens dubte els més populars i tenen la particularitat que els seus límits de control es basen en l'aproximació normal a les distribucions binomial i de Poisson. Quan s'utilitzen estos gràfics allò més habitual és assumir que, sempre que l'aproximació normal siga adequada, la seua capacitat de monitorització serà idònia, és a dir que podran detectar de la mateixa manera tant millores com deterioraments del procés. En aquesta tesi es demostra que, a causa de la asimetria de les distribucions binomial i de Poisson, l'ajust de l'aproximació normal és imprecís en les cues d'eixes distribucions i que això afecta negativament la potència de detecció dels gràfics Shewhart. Per a poder establir la magnitud de l'afectació es van desenrotllar diversos paràmetres nous que servixen per a avaluar i caracteritzar la capacitat de monitorització de qualsevol gràfic per atributs del tipus univariant. A través d'ells es va establir que els gràfics Shewhart, al contrari del que es presumeix, estan lluny de ser idonis. Els nous paràmetres mencionats en el paràgraf anterior també van servir per a analitzar gràfics de control plantejats com a alternatives superiors als Shewhart. Els resultats de les anàlisis van demostrar que tampoc tenen una capacitat de monitorització del tot satisfactòria. Dos nous gràfics de control, el p Kmod i el u Kmod, són proposats. Estos gràfics tenen una capacitat de monitorització superior a qualsevol altre gràfic de control (p i u respectivament) inclòs en esta tesi, a més de comptar amb un mètode de fàcil ús, per mitjà del qual és possible establir si eixa capacitat és òptima o no. Els resultats de la investigació han sigut publicats en actes de congressos i en revistes científiques internacionals. / [EN] Attribute control charts are statistical tools that are widely used in the goods and services industries, they serve to monitor processes by means of product quality attributes. The uni-variant attribute charts are amongst the most well-known and are the main topic of this thesis. Two types of such charts exist, namely: the ones based on the binomial distribution (np and p Charts) and the ones based on the Poisson distribution (c and u Charts). The Shewhart attribute charts are without doubt the most popular and have the peculiarity that their control limits are based on the normal approximation to the binomial and Poisson distributions. When these charts are used it is commonly assumed that, as long as the normal approximation is adequate, their monitoring capability will be ideal, or in other words, that they will be able to detect with equal capacity, either process improvements or deteriorations. In this thesis we show that due to asymmetry of the binomial and Poisson distributions, the adjustment of the normal approximation is inaccurate on their tail sides and that this affects on a detrimental way the detection power of the Shewhart charts. In order to be able to establish the magnitude of the affectation, various novel parameters that serve to assess and characterised the monitoring capability of any uni-attribute type chart were developed. Through them it was established that the Shewhart charts, contrary to what is commonly assumed, are far from being ideal. The aforementioned novel parameters, also served to analyse other control charts posed as superior alternatives to the Shewhart¿s. The analysis results demonstrated that those charts, although superior to the Shewhart¿s, also have a far from satisfactory monitoring capability. Two new control charts, the p Kmod and the u Kmod, are proposed. These charts have a superior monitoring capability compared to any other chart (p and u respectively) included in this thesis, in addition they have an easy to use method that makes it possible to establish if their monitoring capability is, or is not, ideal. The results of the research have been published in congress proceedings and international scientific journals. / A la Secretaria de Educación Superior, Ciencia, Tecnología e Innovación (SENESCYT) del Ecuador, por auspiciar y darme la oportunidad de realizar mis estudios doctorales en España. / Argoti Morales, MA. (2019). Gráficos de control por atributos con curvas ARL cuasi insesgadas: Análisis y desarrollo de métodos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/120025
7

Modelo de regresión robusta con censura intervalar

Aliaga Flores, Luis Carlos 10 January 2023 (has links)
El presente trabajo de tesis propone el modelo de regresion log t de Student, el cual permite modelar variables respuesta que presentan censura intervalar y se muestra robusto frente a la presencia de observaciones atípicas. Luego, se desarrolla aquí un estudio de simulacion clásico, con el n de analizar la sensibilidad frente a distintos niveles de valores atípicos. Finalmente, se desarrolla la aplicacion del modelo para la estimación de las demoras en órdenes de compras de los proveedores de las empresas en el Perú, concluyendo que el modelo propuesto en esta tesis tiene un mejor ajuste a los datos en comparación con el modelo Log Normal.
8

Órdenes de experimentación en diseños factoriales

Correa Espinal, Alexander Alberto 21 June 2007 (has links)
Cuando se plantea un diseño factorial la práctica habitual es recomendar que los experimentos se realicen en orden aleatorio. Esta aleatorización tiene como objetivo el proteger de la posible influencia de factores desconocidos, ya que se espera que esa influencia quede difuminada entre todos los efectos de forma que ninguno se vea especialmente afectado y no se cometan errores al valorar su significación estadística. Pero este proceder tiene dos inconvenientes importantes: 1. El número de cambios de nivel en los factores que exige la aleatorización puede ser grande (bastante mayor que otras posibles ordenaciones) y difícil de llevar a la práctica, lo que complica y encarece la experimentación. 2. Si se realizan unas hipótesis que parecen muy razonables respecto al tipo de influencia que ejercen los factores desconocidos, existen órdenes claramente mejores que otros para minimizar la influencia de esos factores ajenos a la experimentación.Numerosos autores han estado trabajando sobre este tema y ya han sido resueltos algunos aspectos, como el de determinar los órdenes de experimentación que mejor neutralizan la influencia de factores desconocidos, aunque sin tener en cuenta el número de cambios en los niveles de los factores que esa ordenación implica. Adicionalmente, se ha resuelto el problema de encontrar órdenes que presentan el mínimo número de cambios de nivel, pero sin considerar de forma simultánea la posible influencia de los factores desconocidos.Cuando se considera conjuntamente la influencia de los factores desconocidos y el número de cambios en los factores, se ha llegado hasta los diseños con 16 experimentos, pero no más allá porque los procedimientos de búsqueda empleados son inviables cuando el número de ordenaciones posibles se hace tan grande (con 32 experimentos el número de ordenaciones posibles es 32! = 2,6 · 1035)La tesis que se presenta tiene por objetivo encontrar un procedimiento que permita obtener órdenes de experimentación con el mínimo número de cambios en los factores y que además minimicen la influencia de los factores desconocidos en la estimación de los efectos, para cualquier diseño factorial a 2 niveles. Además, se pretende elaborar un procedimiento de forma que dichas ordenaciones, con las propiedades deseadas, puedan ser obtenidas de forma fácil por el experimentador. El contenido se presenta estructurado en 7 capítulos y 8 apéndices. El capitulo 1 presenta las motivaciones que se consideraron para seleccionar este tema de investigación y define los elementos fundamentales que se presentan a lo largo del trabajo, tales como los diseños factoriales a dos niveles -completos o fraccionales- los problemas que puede causar la aleatorización en estos diseños, y cómo cuantificar la influencia de los factores ajenos a la experimentación en la estimación de los efectos. Asimismo, se plantean las hipótesis y el contexto en que se buscarán los órdenes de ejecución que presentan las propiedades deseadas.En el capitulo 2, se realiza una revisión bibliográfica exhaustiva de las propuestas existentes respecto a los órdenes de ejecución de este tipo de diseños para conseguir que las conclusiones del análisis no se vean afectadas por la influencia de factores ajenos a la experimentación y/o que el número de cambios a realizar en los niveles de los factores sea mínimo. Al final del capítulo se comentan las debilidades del estado del arte actual y se plantean los aportes previstos en esta tesis. En el capitulo 3, se presenta un procedimiento original que permite encontrar órdenes de experimentación para diseños factoriales a 2 niveles con el mínimo número de cambios en los factores y un sesgo conocido. A este procedimiento lo denominamos método de duplicación, ya que duplicando las filas de un diseño 2k y agregando un factor adicional con una determinada secuencia de signos, permite obtener un diseño 2k+1 que conserve las características del diseño anterior. Una importante propiedad de este método es que puede aplicarse a cualquier número de factores. Este procedimiento garantiza el mínimo número de cambios de nivel, pero no siempre garantiza el mínimo sesgo (medida de la influencia de los factores desconocidos en la estimación de los efectos). En el capitulo 4, se utilizan diferentes métodos de búsqueda para hallar órdenes de experimentación que presenten un sesgo menor al proporcionado por el método de la duplicación.Estos métodos son:- Búsqueda aleatoria con restricciones: Se utiliza un procedimiento que va generando aleatoriamente el orden de ejecución de los experimentos pero de forma que a una condición experimental solo puede seguirle otra condición que presente solo un cambio en los niveles de los factores (para garantizar el mínimo número de cambios). Una vez completada una ordenación se calcula su sesgo, y se almacenan las ordenaciones con un sesgo por debajo de un cierto umbral.- Búsqueda exhaustiva: Se utiliza un algoritmo planteado por Dickinson (1974) y que fue adaptado por De León (2005). Es similar al algoritmo anterior, pero no genera las condiciones de experimentación de forma aleatoria sino que sigue una sistemática para encontrar todas las ordenaciones posibles. De esta forma se ha encontrado la mejor ordenación para diseños con 32 experimentos, hasta ahora desconocida, entendiendo por mejor la que presenta mínimo número de cambios en los niveles de los factores y de entre estas, la que presenta menor sesgo. - Búsqueda exhaustiva con alimentación forzada. Es imposible explorar exhaustivamente todas las ordenaciones posibles si el número de experimentos es mayor a 32. Para explorar la zona de ordenaciones más prometedora se ha aplicado el procedimiento de búsqueda exhaustiva en tono a una ordenación que ya es buena y que ha sido obtenida por los métodos anteriores.Para diseños con más de 32 experimentos los mejores órdenes se obtienen de una combinación de los diferentes métodos propuestos. Así, para diseños con 64 experimentos el mejor orden se obtiene con el método de búsqueda exhaustiva con alimentación forzada, alimentando el algoritmo con una ordenación obtenida a través de la búsqueda aleatoria con restricciones. La mejor ordenación para 128 experimentos se obtiene de la misma forma, pero alimentando el algoritmo con una ordenación obtenida por duplicación del orden obtenido para 64 experimentos.Los métodos descritos en el capítulo 4 proporcionan lo que denominamos "órdenes semilla", ya que a partir de estos órdenes se pueden deducir otros con sus mismas propiedades. En el capitulo 5, se presentan dos procedimientos para obtener órdenes con las características deseadas a partir de los órdenes semilla. Estos métodos los denominamos método de permutación y cambios de signo y el método de las columnas de expansión. Ambos métodos han sido programados en macros de Minitab, lo cual permite generar de forma automática y aleatoria (de entre todos los posibles) los órdenes con las características propuestas. En el capitulo 6, se presenta un nueva medida de atenuación de la influencia de los factores ajenos a la experimentación que permite comparar la atenuación entre diseños factoriales con diferente número de factores, mostrando que el procedimiento de duplicación presentado en el capitulo 3, es adecuado para obtener órdenes de experimentación con las características propuestas en diseños con más de 128 experimentos. Finalmente, en el capitulo 7 se presentan las principales conclusiones obtenidas y se definen posibles futuras líneas de investigación que podrían ampliar los estudios realizados.En el anexo 1 se presentan los órdenes propuestos por De León (2005) para diseños con 8 y 16 experimentos, citados en diversas ocasiones a lo largo de la tesis y que constituyen uno de los puntos de partida. El anexo 2 presenta el lenguaje de programación FreeBasic, utilizado para implementar los algoritmos de búsqueda de ordenaciones, y en los anexos 3 y 4 se incluyen 2 de los programas realizados: el de búsqueda aleatoria para diseños con 64 experimentos (anexo 3) y búsqueda exhaustiva para diseño con 32 experimentos (anexo 4). En el anexo 5 se presenta uno de los órdenes obtenidos con las propiedades deseadas para los diseños con 128 experimentos, y en los anexos 6 y 7 se incluyen las macros realizadas con el lenguaje de programación de Minitab y que a partir de las semillas para cada tipo de experimento, propone una ordenación de entre todas las posibles que tienen las propiedades deseadas. Finalmente, en el anexo 8 se realizan algunas consideraciones sobre el análisis de los órdenes propuestos, con restricciones en la aleatorización, y se resumen las propuestas realizadas sobre este tema. / A common recommendation when thinking in a factorial design is randomizing the run order. The purpose of this randomization is to protect the response from the possible influence of unknown factors. This influence is expected to be blurred among all the effects, thus none of them is specially affected and no mistakes are made when estimating its statistical significance. But this praxis has two essential problems: 1. The number of factor's level changes due to randomization might be large (much larger than in other sequences). It can be also difficult to conduct, making the experimentation complicated and more expensive. 2. Making some reasonable hypothesis regarding the influence of the unknown factors, there are some sequences clearly better than others for minimizing the influence of this undesirable factors.Many authors have worked on this topic, and some matters have already been solved. For instance, the experimentation sequence that better neutralises the influence of unknown factors is already determined, but without taking into consideration the number of level changes that this sequence implies. It has also been solved the problem of finding sequences that have the minimum number of level changes, but without considering simultaneously the potential influence of unknown factors. When both the influence of unknown factors and the number of level changes is considered, the problem has been solved up to designs with 16 runs. But not further as the searching procedures used are nonviable when the number of possible sequences becomes so huge (with 32 runs the number of different sequences is 32! = 2,6 · 1035) The aim of this thesis is finding a procedure that makes it possible to obtain run sequences with the minimum number of level changes, and that besides minimize the influence of unknown factors in the effect estimation, for any 2 level factorial design.Moreover, the desired run sequence should be obtained easily by the experimenter when using the proposed procedure.The content is structured in 7 chapters and 8 appendixes. Chapter 1 shows the motivation that lead to chose this research topic. It also defines the basic elements of this work (complete and fractional 2 level factorial designs, problems that appear when randomizing this designs, and how to quantify the influence of unknown and undesired factors in the effect estimation). In addition, the hypothesis and context in which the search for run orders with the desired properties will take place are presented.Chapter 2 gives an exhaustive bibliographic review of the current solutions related with run orders in these designs robust to the influenceof factors alien to the experimentationand/or with minimum number of level changes. The end of the chapter lists weaknesses of the current state of the art and advances the expected contributions of this thesis. Chapter 3 presents an original procedure for finding run orders for 2 level factorial designswith the minimum number of changes in the level factors and a known bias. We called this procedure duplication method, as duplicating the rows of a 2k design and adding a factor with a specific sign sequence, a 2k+1 design with the same properties as the first design is achieved. An important property of this method is that it can be applied to any number of factors. This procedure guarantees the minimum number of level changes, but not always guaranties the minimum bias (measure of the influence that unknown factors have in the effect estimation). Chapter 4 shows different methods for finding run orders with less bias than the one produced by the duplication method. These methods are: - Random search with restrictions: The procedure randomly generates the run order, but in a way that a run is followed by another one that has only one change in the factor levels (the minimum number of changes is then guaranteed). Once the sequence is completed its bias is calculated, and the sequences with a bias under a threshold are stored.- Exhaustive search: An algorithm proposed by Dickinson (1974) and adapted by De León (2005) is used. It is similar to the previous algorithm, but it does not generate the runs in a random manner. Instead, it behaves systematically in order to find all the possible run orders. With this algorithm the best run order for designs with 32 experiments has been found (and it was unknown until now). The best run order means the one that has minimum number of changes in the levels and, among these, the one with less bias.- Exhaustive search with forced feeding. The exhaustive exploration of all possible run orders with more than 32 runs is impossible. The procedure of exhaustive search around a good run order already found with one of the previous methods allowed the exploration of the most promising run order area. For designs with more than 32 runs the best run orders are obtained from a combination of the proposed methods. For designs with 64 runs the best order comes from the exhaustive search with forced feeding method, feeding the algorithm with a run order obtained from the random search with restrictions method. We used the same procedure for obtaining the best run order for 128 runs, but feeding the algorithm with a run order obtained from duplication of the one for 64 runs.Methods described in chapter 4 provide the so called "seed orders": from this orders new ones with the same properties can be deduced. Chapter5 shows two procedures for obtaining orders with the expected properties from the seed orders. These methods are called permutation and sign change method, and expansion columns method. Both methods have been programmed as Minitab macros, making it possible to automatically and randomly generate (among all possible ones) the orders with the desired properties. A new measure for attenuating the influence of factors alien to experimentation is presented in chapter 6. This allows the comparison among the attenuation of factorial designs with different number of factors, thus showing that the duplication procedure shown in chapter 3 is appropriate for obtaining run orders with the properties desired in designs with more than 128 runs. Finally, chapter 7 gives the main conclusions and defines possible future research areas that could extend our studies.Appendix 1 shows the orders proposed by De León (2005) for designs with 8 and 16 experiments, cited several times in the thesis and one of our starting points. Appendix 2 explains the FreeBasic programming language, used for implementing the search algorithms. Appendixes 3 and 4 include 2 programs: random search for designs with 32 runs (appendix 3) and exhaustive search for designs with 32 experiments (appendix 4). Appendix 5 shows one of the obtained orders with the desired properties for designs with 128 runs. Appendixes 6 and 7 have the Minitab macros that using the seed orders for each kind of experiment proposes an order among all the possible ones with the desired properties. Finally, appendix 8 has some comments about the proposed run orders, with restrictions in the randomization, and summarizes the proposals about this topic.
9

Incidència de les grans erupcions volcàniques en el clima de la Península Ibèrica i Balears

Prohom Duran, Marc Jaume 10 December 2003 (has links)
La incidència de les grans erupcions volcàniques sobre el clima de la Terra és un aspecte inherent a la pròpia variabilitat climàtica natural del planeta. En aquesta tesi, s'analitza la resposta del clima de la Península Ibèrica i les illes Balears davant d'aquest forçament extern. Mitjançant l'ús principalment de dues tècniques estadístiques, l'Anàlisi d'Èpoques Superposades i l'Anàlisi per Components Principals (PCA) s'aprecien les següents respostes:· Des del punt de vista exclusivament tèrmic, la temperatura mitjana mensual experimenta un descens durant els dos o tres anys posteriors a erupcions volcàniques. En funció de la localització, la resposta presenta matisos. Així per a grans erupcions volcàniques de localització tropical la incidència es més perllongada però de magnitud modesta, mentre que per a erupcions d'elevades latituds (de l'hemisferi nord) la resposta té una durada molt inferior (4-6 mesos), però sent aquesta molt més aguda. Espacialment, tendeix a ser més sensible al refredament el sector meridional peninsular, mentre que estacionalment els mesos de tardor i estiu semblen ser els quins mostren un major descens tèrmic.· La circulació atmosfèrica sobre Europa presenta anomalies durant el primer any posterior a una gran erupció tropical. Així, mitjançant l'ús de la tècnica PCA, en el primer hivern (desembre, gener i febrer) s'aprecia una major persistència de situacions zonals, amb un desplaçament cap al nord de l'anticicló subtropical de les Açores.·´Com a conseqüència de l'anterior, és possible detectar significatives anomalies de precipitació en el sector peninsular y balear durant els tres hiverns posteriors a fenòmens volcànics de gran magnitud. Així, els dos primers hiverns registren anomalies negatives de precipitació a tota la Península, especialment al sector nord-oest. / La incidencia de las grandes erupciones volcánicas sobre el clima de la Tierra es un aspecto inherente a la propia variabilidad climática natural del planeta. En esta tesis, se analiza la respuesta del clima de la Península Ibérica e islas Baleares ante este tipo de forzamiento externo. Mediante el uso principalmente de dos técnicas estadísticas, el Análisis de Épocas Superpuestas y el Análisis por Componentes Principales (PCA), se ha podido apreciar la siguiente respuesta: * Desde el punto de vista exclusivamente térmico, la temperatura media peninsular experimenta un descenso durante los dos a tres años posteriores a eventos volcánicos. En función de la localización, la respuesta presenta matices. Así para grandes erupciones tropicales la incidencia es más prolongada pero de magnitud modesta, mientras que para erupciones de elevadas latitudes (del hemisferio norte) la respuesta tiene una duración mucho menor (4-6 meses), pero siendo esta mucha más aguda. Espacialmente, tiende a ser más sensible al enfriamiento el sector meridional peninsular, mientras que estacionalmente los meses otoñales y estivales parecen ser los que reflejan un mayor descenso térmico. * La circulación atmosférica sobre Europa presenta anomalías durante el primer año posterior a una gran erupción tropical. Así, mediante el uso de la técnica PCA, en el primer invierno (diciembre, enero y febrero) se aprecia una mayor persistencia de situaciones zonales, con un desplazamiento hacia el norte del anticiclón subtropical de las Azores. * Como consecuencia de lo anterior, es posible detectar significativas anomalías de precipitación en el sector peninsular y Baleares durante los tres inviernos posteriores a eventos volcánicos de gran magnitud. Así, los dos primeros inviernos registran anomalías negativas de precipitación en toda la Península, especialmente en el sector NW. / ABSTRACT:Large volcanic eruptions are a well-known source of natural variability of climate. The main goal of this research is to detect the volcanic signal in the climate of the Iberian Peninsula and Balearic Islands. Superposed Epoch Analysis and Principal Component Analysis (PCA) are the two techniques used for this purpose.The main results show:· Mean surface temperature of Iberia shows a decrease during the two or three years following main volcanic events. For tropical eruptions, the response is more persistent but of moderate magnitude, while for high latitude volcanic events (northern hemisphere) the response is shorter (4-6 months) but more intense. The southern sector of Iberia shows a more intense cooling, being summer and autumn the seasons more affected.· The atmospheric circulation over Europe shows significant anomalies during the first year following a large tropical eruption. Thus, during the first post-volcanic winter season a more persistent westerly circulation is displayed, with a northward displacement of the subtropical Azores high. · As a consequence, significant negative rainfall anomalies are clearly detected all over the Iberian Peninsula during the first two winter seasons.
10

El modelo de larga duración Weibull-Geométrica

Torres Salinas, Karina Hesi 20 March 2019 (has links)
Los modelos de larga duración son una extensión de los modelos de supervivencia tradicional y nos permiten modelar una proporción de la población que no llegan a experimentar un evento de interés, incluso después de un largo periodo de seguimiento. En este trabajo se presenta y deduce la distribución de larga duración Weibull-Geométrica y su proceso de estimación e inferencia. Se desarrolló un estudio de simulación con el un de evaluar el desempeño de las estimaciones y determinar si se recuperan los parámetros. Asimismo el modelo fue aplicado a una muestra de clientes que adquirieron y activaron una tarjeta de crédito entre enero a diciembre del año 2015 y donde el principal objetivo del análisis era entender el comportamiento del tiempo hasta la cancelación de la tarjeta de crédito del cliente. Comparamos al modelo de larga duración Weibull-Geométrica con otros modelos de larga duración, Exponencial-Geométrica y Weibull. Los resultados indican que nuestro modelo muestra un mejor ajuste en los datos.

Page generated in 0.1206 seconds