• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 107
  • 49
  • 38
  • 23
  • 20
  • 20
  • 18
  • 9
  • 8
  • 7
  • 6
  • 5
  • 4
  • 4
  • Tagged with
  • 687
  • 151
  • 84
  • 77
  • 71
  • 66
  • 54
  • 54
  • 49
  • 48
  • 45
  • 43
  • 42
  • 42
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

TAMANHO AMOSTRAL PARA ENSAIOS EM ESTEIRA DE DISTRIBUIÇÃO LONGITUDINAL DE SEMENTES DE MILHO E SOJA / SAMPLE SIZE FOR TESTS IN BELT TO EVALUATE THE LONGITUDINAL DISTRIBUTION WITH CORN AND SOYBEAN SEEDS

Dias, Vilnei de Oliveira 19 October 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / To evaluate the performance of precision sowing, it is necessary to collect a sample of seed spacing to be classified in accordance with current standards, thus demonstrating the performance of the machine as its quality that is expressed in regularity distribution . Generally, how much higher percentage of acceptable spacing between seeds, will be better the performance of the feeder. Due to the great heterogeneity of sample sizes used in these evaluations, the objective of this study was to estimate the sample size for laboratory experiments with horizontal plate and pneumatic seed meters, under the conditions described in rules, still evaluating the regularity of distribution of seeds of corn and soybeans. Experiments were conducted under laboratory conditions, according to the international standards ISO, UNE and design of ABNT, with four different seed feeders, two pneumatic and two horizontal plate. In test 1, the treatments comprised the combination of the four metering mechanisms with three seeding rates of 2.5, 5.0 and 7.5 km h-1. In test 2, were combined the four metering mechanisms and four peripheral speeds of the plate, 0.09, 0.18, 0.28 and 0.38 m s-1, both in a factorial design with three replications. We used three methods for determining the sample size: sampling intensity, bootstrap adapted and practical method. Regarding the distribution of maize seeds, the meter mechanism studied showed no differences in the regularity of seed distribution and response to elevated peripheral speed was negatively linear for the percentage of acceptable spacing. For soybean, the meter mechanism valued tires perform better mechanisms for horizontal plate, no direct correlation with the regularity of the peripheral speed of the plate. About the sample size, it is possible to reduce both cultures, but in a more pronounced for maize, the reduction of which can reach 73% of the value above the standard. For soybean, it is possible to reduce by 27% the sample size for testing in the laboratory with a high level of accuracy. / Para avaliar o desempenho de semeadoras de precisão, torna-se necessária a coleta de uma amostra de espaçamentos entre sementes, para que estes sejam classificados de acordo com as normas vigentes, denotando assim, o desempenho da máquina quanto a sua qualidade, expressa na regularidade de distribuição. De uma maneira geral, quanto maior o percentual de espaçamentos aceitáveis entre sementes, melhor o desempenho de um dosador. Devido à grande heterogeneidade de tamanhos amostrais empregados nestas avaliações, o objetivo deste trabalho foi estimar o tamanho de amostra para experimentos em laboratório, com dosadores de sementes tipo disco alveolado horizontal e pneumático, nas condições estabelecidas em normas, avaliando ainda na regularidade de distribuição de sementes das culturas de milho e soja. Para isso, foram conduzidos experimentos em condições de laboratório, conforme as normas internacionais ISO, UNE e o projeto de norma da ABNT, com quatro diferentes dosadores de sementes, sendo dois pneumáticos e dois de disco alveolado horizontal. No ensaio 1, os tratamentos compreenderam a combinação dos quatro mecanismos dosadores com três velocidades de semeadura, de 2,5, 5,0 e 7,5 km h-1. No ensaio 2, foram combinados os quatro mecanismos dosadores com quatro velocidades periféricas do disco dosador, de 0,09, 0,18, 0,28 e 0,38 m s-1, ambos em esquema fatorial com três repetições. Foram utilizados três métodos de determinação do tamanho de amostra: intensidade de amostragem, bootstrap adaptado e método prático. Quanto à distribuição de sementes de milho, os mecanismos dosadores estudados não apresentaram diferenças na regularidade de distribuição de sementes e a resposta à elevação da velocidade periférica foi negativamente linear para o percentual de espaçamentos aceitáveis. Para a cultura da soja, os mecanismos dosadores pneumáticos avaliados apresentam desempenho superior aos mecanismos de disco alveolado, sem correlação direta da regularidade com a velocidade periférica do disco. No que se refere ao tamanho da amostra, é possível reduzir para ambas as culturas, porém de maneira mais acentuada para a cultura do milho, cuja redução pode chegar a 73% do valor referido em norma. Para a cultura da soja, é possível reduzir em 27% o tamanho de amostra para ensaios em laboratório com um nível de precisão elevado.
242

Modélisation statistique de l'exposition humaine aux ondes radiofréquences / Statistical modeling of the Human exposure to radio-frequency waves

Kersaudy, Pierric 12 November 2015 (has links)
L'objectif de cette thèse est de traiter la problématique de la caractérisation et du traitement de la variabilité de l'exposition humaine aux ondes radio à travers l'utilisation de la dosimétrie numérique. En effet, si les progrès dans le domaine du calcul hautes performances ont contribué à significativement réduire les temps de simulation pour l'évaluation de l'exposition humaine, ce calcul du débit d'absorption spécifique reste un processus coûteux en temps. Avec la grande variabilité des usages, cette contrainte fait que la prise en compte de l'influence de paramètres d'entrée aléatoires sur l'exposition ne peut se faire par des méthodes classiques telles que les simulations de Monte Carlo. Nous proposons dans ces travaux deux approches pour répondre à cette problématique. La première s'appuie sur l'utilisation et l'hybridation de méthodes de construction de modèles de substitution afin d'étudier l'influence globale des paramètres d'entrée. La deuxième vise à l'évaluation efficace et parcimonieuse des quantiles à 95% des distributions de sortie et s'appuie sur le développement d'une méthode de planification d'expériences adaptative et orientée couplée à la construction de modèles de substitution. Les méthodes proposées dans ce manuscrit sont comparées et testées sur des exemples analytiques et ensuite appliquées à des problèmes concrets issus de la dosimétrie numérique / The purpose of this thesis is to deal with the problem of the management and the characterization of the variability of the human exposure to radio frequency waves through the use of the numerical dosimetry. As a matter of fact, if the recent advances in the high performance computing domain led to reduce significantly the simulation duration for the evaluation of the human exposure, this computation of the specific absorption rate remains a time-consuming process. With the variability of the usage, this constraint does not allow the analysis of the influence of random input parameters on the exposure to be achieved with classical approaches such as Monte Carlo simulations. In this work, two approaches are proposed to address this problem. The first one is based on the use and the hybridization of construction methods of surrogate models in order to study the global influence of the input parameters. The second one aims at assessing efficiently the 95th-percentiles of the output distributions in a parcimonous way. It is based on the development of an adaptive and oriented methodology of design of experiments combined with the construction of surrogate models. In this manuscript, the proposed methods are compared and tested on analytical examples and then applicated to full-scale problems from the numerical dosimetry
243

Modélisation de la dépendance temporelle des sinistres en assurance non vie et enjeux de l’évaluation du Passif / Modelling temporal dependence of claims in non life insurance

Araichi, Sawssen 29 September 2015 (has links)
Initialement, la modélisation des risques en assurance non vie, supposait l'indépendance entre les différentes variables des modèles actuariels. De nos jours, cette hypothèse d'indépendance est souvent relâchée afin de tenir compte de possibles interactions entre les différents éléments. Cette thèse a pour but de contribuer à la littérature existante de la modélisation de la dépendance en assurance non vie. Concrètement, nous introduisons une nouvelle méthodologie d'analyse des risques en assurance à travers le développement des modèles de dépendance, principalement dans un cadre dynamique. Dans le premier chapitre de la thèse nous introduisons le contexte actuel de solvabilité, ainsi que la modélisation de la dépendance en assurance, avec une présentation des principaux résultats. Le deuxième chapitre est essentiellement constitué d'un article coécrit avec Christian de Peretti et Lotfi Belkacem, intitulé "Modelling Temporal Dependence of Claims In Insurance Using Autoregressive Conditional Amount Models" (voir Araichi et al. (2013)). Dans ce chapitre nous montrons l'existence d'une forme de dépendance temporelle (dynamique) entre les montants de sinistres d'une même branche d'assurance. Nous proposons un nouveau modèle nommé Autoregressive Conditional Amount Model (ACA), qui permet de capturer le comportement dynamique des sinistres. Également, nous développons un nouveau modèle nommé Generalized Extreme Value ACA model (GEVACA), afin d'analyser la dépendance dynamique des montants élevés, au niveau des queues de distribution. Enfin, nous donnons une nouvelle expression pour la Value at Risk (VaR) paramétrique adaptée pour des risques à dépendance temporelle. Des applications sur des données réelles et des techniques de backtesting sont ensuite effectuées afin de montrer la pertinence des modèles proposés. Le troisième chapitre est constitué d'un article coécrit avec Christian de Peretti et Lotfi Belkacem, intitulé "Generalized Autoregressive Conditional Sinistrality Model : A novel model for claims reserving in Non life insurance", (voir Araichi et al. (2015)). Dans ce chapitre, nous abordons d'abord le problème de l'évaluation des réserves dans un cadre dynamique. Nous montrons l'existence d'une forme de dépendance dynamique dans un triangle de liquidation. En particulier, nous nous intéressons à l'analyse de la dépendance temporelle entre les sinistres, ainsi qu'entre les années de développement. Nous proposons un nouveau modèle nommé "Generalized Autoregressive Conditional Sinistrality Model (GACSM), qui constitue une extension du modèle linéaire généralisé classique. Ensuite, nous fournissons une méthode de simulation bootstrap basée sur le modèle GACSM, qui permet d'évaluer les réserves en tenant compte du caractère dynamique des sinistres. Enfin, afin de montrer l'impact du modèle proposé sur l'évaluation des réserves et du capital, nous effectuons une comparaison des résultats obtenus avec ceux obtenus des modèles classiques (Chain Ladder et modèle linéaire généralisé). Dans le quatrième chapitre de la thèse, qui est constitué d'un article, coécrit avec Christian de Peretti et Lotfi Belkacem, intitulé "Time Varying Copula Model for claims reserving in Non life insurance". Nous intéressons à évaluer le montant agrégé des sinistres, en analysant conjointement la dépendance dynamique inter-sinistres ainsi qu'entre les sinistres de deux branches. Nous proposons un modèle basé sur le modèle GACSM et les copules conditionnelles, qui permettent de suivre l'évolution de la dépendance au cours du temps. Enfin, nous effectuons des applications sur des données réelles, ainsi que des méthodes de simulation sont considérées. En comparant les résultats obtenus, nous avons pu illustrer l'impact de la dépendance dynamique sur les réserves et le besoin en capital / In this thesis a different aspects of dependence modeling are considered. Indeed, temporal dependence structures between claims amounts and between lines of business are analyzed. In the first chapter, a general introduction on modeling dependence in insurance is provided. The second chapter is essentially constituted by the article "Modeling Temporal Dependence of Claims In Insurance Using Autoregressive Conditional Amount Models", written with Christian de Peretti and Lotfi Belkacem, (see Araichi et al. (2013)) It deals with the problem of existing a temporal dependence structure between claims amounts of one line of business. To this end, we propose a new model for handling the dynamic behaviour of claims amounts in insurance companies using an Autoregressive Conditional Amount (ACA) framework. This model will be named Autoregressive Conditional Amount Model (ACA). A Gamma ACA model and a Generalized Extreme Value ACA model are proposed. It is shown that these models are more appropriate to describe and to forecast the process of claims of the lines Auto Damage and Auto Liability than traditional models. Furthermore, a parametric Value at Risk based on ACA framework (VaR ACA) is proposed for evaluating a coverage amount of these claims. Using backtesting techniques, the VaR ACA provides an accurate estimation of risk. The third chapter of this thesis is based on the article "Generalized Autoregressive Conditional Sinistrality Model: A novel model for claims reserving in Non life insurance", written with Christian de Peretti and Lotfi Belkacem, (see Araichi et al. (2015)). In this chapter, a Generalized Autoregressive Conditional Sinistrality Model (GACSM) for claims is proposed. We extend the Generalized Linear Model (GLM) by incorporating temporal dependence between claims amounts of one triangle. The GACSM is used for model parameter estimation and consistency of such estimate is proved. Bootstrap procedure is implemented for prediction reserves and prediction errors. Results show that taking into account the temporal dependence between losses improves the precision of the reserve distribution estimate, and thus evaluates an accurate SCR. Finally the fourth chapter is based on the article "Time Varying Copula Model for claims reserving in Non life insurance", written with Christian de Peretti and LotfiBelkacem. In this chapter, a time varying copula models to understand the behavior of claims amounts of two lines of business. Time varying copula functions with a Generalized Autoregressive Conditional Sinistrality model are used to analyze the evolution in time of dependence between two lines and the temporal dependence between claims of each line. Simulation study is performed to highlight the impact on reserves and Solvency Capital Requirement. Results show that our approach provides a diversification effect between claims amounts
244

Bootstrap and uniform bounds for Harris Markov chains / Bootstrap et bornes uniformes pour des chaînes de Markov Harris récurrentes

Ciolek, Gabriela 14 December 2018 (has links)
Cette thèse se concentre sur certaines extensions de la théorie des processus empiriques lorsque les données sont Markoviennes. Plus spécifiquement, nous nous concentrons sur plusieurs développements de la théorie du bootstrap, de la robustesse et de l’apprentissage statistique dans un cadre Markovien Harris récurrent positif. Notre approche repose sur la méthode de régénération qui s’appuie sur la décomposition d’une trajectoire de la chaîne de Markov atomique régénérative en blocs d’observations indépendantes et identiquement distribuées (i.i.d.). Les blocs de régénération correspondent à des segments de la trajectoire entre des instants aléatoires de visites dans un ensemble bien choisi (l’atome) formant une séquence de renouvellement. Dans la premiére partie de la thèse nous proposons un théorème fonctionnel de la limite centrale de type bootstrap pour des chaînes de Markov Harris récurrentes, d’abord dans le cas de classes de fonctions uniformément bornées puis dans un cadre non borné. Ensuite, nous utilisons les résultats susmentionnés pour obtenir unthéorème de la limite centrale pour des fonctionnelles Fréchet différentiables dans un cadre Markovien. Motivés par diverses applications, nous discutons la manière d’étendre certains concepts de robustesse à partir du cadre i.i.d. à un cas Markovien. En particulier, nous considérons le cas où les données sont des processus Markoviens déterministes par morceaux. Puis, nous proposons des procédures d’échantillonnage résiduel et wild bootstrap pour les processus périodiquement autorégressifs et établissons leur validité. Dans la deuxième partie de la thèse, nous établissons des versions maximales d’inégalités de concentration de type Bernstein, Hoeffding et des inégalités de moments polynomiales en fonction des nombres de couverture et des moments des temps de retour et des blocs. Enfin, nous utilisons ces inégalités sur les queues de distributions pour calculer des bornes de généralisation pour une estimation d’ensemble de volumes minimum pour les chaînes de Markov régénératives. / This thesis concentrates on some extensions of empirical processes theory when the data are Markovian. More specifically, we focus on some developments of bootstrap, robustness and statistical learning theory in a Harris recurrent framework. Our approach relies on the regenerative methods that boil down to division of sample paths of the regenerative Markov chain under study into independent and identically distributed (i.i.d.) blocks of observations. These regeneration blocks correspond to path segments between random times of visits to a well-chosen set (the atom) forming a renewal sequence. In the first part of the thesis we derive uniform bootstrap central limit theorems for Harris recurrent Markov chains over uniformly bounded classes of functions. We show that the result can be generalized also to the unbounded case. We use the aforementioned results to obtain uniform bootstrap central limit theorems for Fr´echet differentiable functionals of Harris Markov chains. Propelledby vast applications, we discuss how to extend some concepts of robustness from the i.i.d. framework to a Markovian setting. In particular, we consider the case when the data are Piecewise-determinic Markov processes. Next, we propose the residual and wild bootstrap procedures for periodically autoregressive processes and show their consistency. In the second part of the thesis we establish maximal versions of Bernstein, Hoeffding and polynomial tail type concentration inequalities. We obtain the inequalities as a function of covering numbers and moments of time returns and blocks. Finally, we use those tail inequalities toderive generalization bounds for minimum volume set estimation for regenerative Markov chains.
245

Bootstrap in high dimensional spaces

Buzun, Nazar 28 January 2021 (has links)
Ziel dieser Arbeit ist theoretische Eigenschaften verschiedener Bootstrap Methoden zu untersuchen. Als Ergebnis führen wir die Konvergenzraten des Bootstrap-Verfahrens ein, die sich auf die Differenz zwischen der tatsächlichen Verteilung einer Statistik und der Resampling-Näherung beziehen. In dieser Arbeit analysieren wir die Verteilung der l2-Norm der Summe unabhängiger Vektoren, des Summen Maximums in hoher Dimension, des Wasserstein-Abstands zwischen empirischen Messungen und Wassestein-Barycenters. Um die Bootstrap-Konvergenz zu beweisen, verwenden wir die Gaussche Approximations technik. Das bedeutet dass man in der betrachteten Statistik eine Summe unabhängiger Vektoren finden muss, so dass Bootstrap eine erneute Abtastung dieser Summe ergibt. Ferner kann diese Summe durch Gaussche Verteilung angenähert und mit der Neuabtastung Verteilung als Differenz zwischen Kovarianzmatrizen verglichen werden. Im Allgemeinen scheint es sehr schwierig zu sein, eine solche Summe unabhängiger Vektoren aufzudecken, da einige Statistiken (zum Beispiel MLE) keine explizite Gleichung haben und möglicherweise unendlich dimensional sind. Um mit dieser Schwierigkeit fertig zu werden, verwenden wir einige neuartige Ergebnisse aus der statistischen Lerntheorie. Darüber hinaus wenden wir Bootstrap bei Methoden zur Erkennung von Änderungspunkten an. Im parametrischen Fall analysieren wir den statischen Likelihood Ratio Test (LRT). Seine hohen Werte zeigen Änderungen der Parameter Verteilung in der Datensequenz an. Das Maximum von LRT hat eine unbekannte Verteilung und kann mit Bootstrap kalibriert werden. Wir zeigen die Konvergenzraten zur realen maximalen LRT-Verteilung. In nicht parametrischen Fällen verwenden wir anstelle von LRT den Wasserstein-Abstand zwischen empirischen Messungen. Wir testen die Genauigkeit von Methoden zur Erkennung von Änderungspunkten anhand von synthetischen Zeitreihen und Elektrokardiographiedaten. Letzteres zeigt einige Vorteile des nicht parametrischen Ansatzes gegenüber komplexen Modellen und LRT. / The objective of this thesis is to explore theoretical properties of various bootstrap methods. We introduce the convergence rates of the bootstrap procedure which corresponds to the difference between real distribution of some statistic and its resampling approximation. In this work we analyze the distribution of Euclidean norm of independent vectors sum, maximum of sum in high dimension, Wasserstein distance between empirical measures, Wassestein barycenters. In order to prove bootstrap convergence we involve Gaussian approximation technique which means that one has to find a sum of independent vectors in the considered statistic such that bootstrap yields a resampling of this sum. Further this sum may be approximated by Gaussian distribution and compared with the resampling distribution as a difference between variance matrices. In general it appears to be very difficult to reveal such a sum of independent vectors because some statistics (for example, MLE) don't have an explicit equation and may be infinite-dimensional. In order to handle this difficulty we involve some novel results from statistical learning theory, which provide a finite sample quadratic approximation of the Likelihood and suitable MLE representation. In the last chapter we consider the MLE of Wasserstein barycenters model. The regularised barycenters model has bounded derivatives and satisfies the necessary conditions of quadratic approximation. Furthermore, we apply bootstrap in change point detection methods. In the parametric case we analyse the Likelihood Ratio Test (LRT) statistic. Its high values indicate changes of parametric distribution in the data sequence. The maximum of LRT has a complex distribution but its quantiles may be calibrated by means of bootstrap. We show the convergence rates of the bootstrap quantiles to the real quantiles of LRT distribution. In non-parametric case instead of LRT we use Wasserstein distance between empirical measures. We test the accuracy of change point detection methods on synthetic time series and electrocardiography (ECG) data. Experiments with ECG illustrate advantages of the non-parametric approach versus complex parametric models and LRT.
246

Úplně nejmenší čtverce a jejich asymptotické vlastnosti / Total Least Squares and Their Asymptotic Properties

Chuchel, Karel January 2020 (has links)
Tato práce se zabývá metodou úplně nejmenších čtverc·, která slouží pro odhad parametr· v lineárních modelech. V práci je uveden základní popis metody a její asymptotické vlastnosti. Je vysvětleno, jakým zp·sobem lze v konceptu metody využít neparametrický bootstrap pro hledání odhadu. Vlastnosti bootstrap od- had· jsou pak simulovány na pseudo náhodně vygenerovaných datech. Simulace jsou prováděny pro dvourozměrný parametr v r·zných nastaveních základního modelu. Jednotlivé bootstrap odhady jsou v rovině řazeny pomocí Mahalanobis a Tukey statistical depth function. Simulace potvrzují, že bootstrap odhad dává dostatečně dobré výsledky, aby se dal využít pro reálné situace.
247

Dynamics of high-dimensional covariance matrices

Avanesov, Valeriy 15 February 2018 (has links)
Wir betrachten die Detektion und Lokalisation von plötzlichen Änderungen in der Kovarianzstruktur hochdimensionaler zufälliger Daten. Diese Arbeit schlägt zwei neuartige Ansätze für dieses Problem vor. Die Vorgehensweise beinhaltet im Wesentlichen Verfahren zum Test von Hypothesen, welche ihrerseits die Wahl geeigneter kritischer Werte erfordern. Dafür werden Kalibrierungsschemata vorgeschlagen, die auf unterschiedlichen Nichtstandard-Bootstrap-Verfahren beruhen. Der eine der beiden Ansätze verwendet Techniken zum Schätzen inverser Kovarianzmatrizen und ist durch Anwendungen in der neurowissenschaftlichen Bildgebung motiviert. Eine Beschränkung dieses Ansatzes besteht in der für die Schätzung der „Precision matrix“ wesentlichen Voraussetzung ihrer schwachen Besetztheit. Diese Bedingung ist im zweiten Ansatz nicht erforderlich. Die Beschreibung beider Ansätze wird gefolgt durch ihre theoretische Untersuchung, welche unter schwachen Voraussetzungen die vorgeschlagenen Kalibrierungsschemata rechtfertigt und die Detektion von Änderungen der Kovarianzstruktur gewährleistet. Die theoretischen Resultate für den ersten Ansatz basieren auf den Eigenschaften der Verfahren zum Schätzen der Präzisionsmatrix. Wir können daher die adaptiven Schätzverfahren für die Präzisionsmatrix streng rechtfertigen. Alle Resultate beziehen sich auf eine echt hochdimensionale Situation (Dimensionalität p >> n) mit endlichem Stichprobenumfang. Die theoretischen Ergebnisse werden durch Simulationsstudien untermauert, die durch reale Daten aus den Neurowissenschaften oder dem Finanzwesen inspiriert sind. / We consider the detection and localization of an abrupt break in the covariance structure of high-dimensional random data. The study proposes two novel approaches for this problem. The approaches are essentially hypothesis testing procedures which requires a proper choice of a critical level. In that regard calibration schemes, which are in turn different non-standard bootstrap procedures, are proposed. One of the approaches relies on techniques of inverse covariance matrix estimation, which is motivated by applications in neuroimaging. A limitation of the approach is a sparsity assumption crucial for precision matrix estimation which the second approach does not rely on. The description of the approaches are followed by a formal theoretical study justifying the proposed calibration schemes under mild assumptions and providing the guaranties for the break detection. Theoretical results for the first approach rely on the guaranties for inference of precision matrix procedures. Therefore, we rigorously justify adaptive inference procedures for precision matrices. All the results are obtained in a truly high-dimensional (dimensionality p >> n) finite-sample setting. The theoretical results are supported by simulation studies, most of which are inspired by either real-world neuroimaging or financial data.
248

Utvecklingav ordersida i SmartOff 2.0 / Developmentof Order Page in SmartOff 2.0

Kardell, Linus January 2017 (has links)
SmartOff är ett småföretag i Fellingsbro som utvecklar en webbapplikation för hantering av ordrar, offerter, planering, fakturor o s v. Företaget grundandes och ägs av Henning Baeckström. Deras huvudprodukt, SmartOff, är ett orderprogram för småföretag. När detta exjobb genomfördes så utvecklade företaget en ny version av applikationen, SmartOff 2.0, vilken var omskriven från grunden. Denna skrevs med stort fokus på strukturering av koden, modularitet och ”clean code”, för att se till att den fick bra underhållsmässighet, och att det var lätt att lägga till nya funktioner. Den är också designad med ett mer simplistiskt och strukturerat gränssnitt, som anpassar sig beroende på skärmstorleken. Detta möjliggör att samma sida fungerar bra både på PC och mobiler. Målet var att utveckla SmartOff 2.0 så att denna på sikt skulle kunna ta över efter den gamla versionen, i vilket fall man får en enda kodbas som används både på mobiler och på webben. Detta exjobb gick ut på att utveckla två vyer under orderfliken i SmartOff 2.0: en offertvy och en kalkylvy. Innan projektets start fanns där en ordersida.   Offertvyn skulle nås genom att klicka på en vänsterpil på ordervyn. Denna skulle efterlikna en offert som den ser ut på papper, och i stort sett se ut som en redigerbar version av en pappersoffert. Den skulle visa de element som fanns på offerten, inklusive företagets uppgifter, kundens uppgifter, artikellista och texter över och under artikellistan. Dessa skulle alla vara redigerbara eller valbara.   Det skulle finnas en kalkyl (en lista med material och arbete för som krävs för att tillverka artikeln, samt mängd, priser o s v för dessa) för varje artikel på ordern, och man skulle komma till en artikels kalkyl genom att klicka på en pil på artikeln i artikellistan på ordervyn. Kalkylvyn skulle ha en tabell med kalkylrader, där varje rad representerar ett material som måste köpas in, eller ett arbete som måste utföras. På varje rad skulle man kunna slå in t ex pris och antal för att räkna ut hur mycket den raden kostar, och det skulle finnas ett totalpris på varje rad. Under kalkyltabellen skulle det finnas totalpriser; redigerbart påslag samt ett sätt att redigera artikelpriset och föra över priset från kalkylen till artikeln. / SmartOff is a small company in Fellingsbro, developing a web app for managing orders, offers, planning, invoices etc. The company was founded and is owned by Henning Baeckström. Their main product, SmartOff, is an order program for small companies. When this project was done, they were developing a new version of the application, SmartOff 2.0, which was rewritten from the ground up. This was written with a great focus on code structure, modularity, and “clean code”, to make sure it was maintainable, and it was easy to add new functions. It’s also designed with a more simplistic and well structured user interface, which adapts depending on the screen size. This allows the same page to function well on both PCs and phones. The goal was to develop SmartOff 2.0, so that eventually it could entirely replace the old version, at which point they could use a single code base on both phones and the web site. This project consisted of developing two new views under the order tab of SmartOff 2.0: an offer view and a calculation view. Before the start of the project the tab contained an order view.   The offer view was to be reached by clicking a left arrow on the order view. It was to resemble an offer as it appears on paper, and essentially look like an editable version of a paper offer. It should contain all the elements that were on an offer, including the company information, the customer information, an article list, and some texts above and below the article list. All of these were to be editable or selectable.   There was to be one calculation (a list of materials and work needed to make the article, as well as amounts, prices etc for these) for each article in an order, and you should be able to get to the calculation by clicking an arrow on the article in the article list on the order view. The calculation view was to have a table with calculation rows, where each row represents a piece of material that needs to be purchased, or some work that needs to be done. On each row you were supposed to be able to input e g price and amount, to calculate the price of the row, and each row was to have a total price. Below the calculation table, there was to be total prices; an editable surcharge; as well as a way to edit the article price and transfer the price from the calculation to the article.
249

Méthodes de rééchantillonnage en méthodologie d'enquête

Mashreghi, Zeinab 10 1900 (has links)
Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables. / The aim of this thesis is to study the bootstrap variance estimators of a statistic based on imputed survey data. Applying a bootstrap method designed for complete survey data (full response) in the presence of imputed values and treating them as true observations may lead to underestimation of the variance. In this context, Shao and Sitter (1996) introduced a bootstrap procedure in which the variable under study and the response status are bootstrapped together and bootstrap non-respondents are imputed using the imputation method applied on the original sample. The resulting bootstrap variance estimator is valid when the sampling fraction is small. In Chapter 1, we begin by doing a survey of the existing bootstrap methods for (complete and imputed) survey data and, for the first time in the literature, present them in a unified framework. In Chapter 2, we introduce a new bootstrap procedure to estimate the variance under the non-response model approach when the uniform non-response mechanism is assumed. Using only information about the response rate, unlike Shao and Sitter (1996) which requires the individual response status, the bootstrap response status is generated for each selected bootstrap sample leading to a valid bootstrap variance estimator even for non-negligible sampling fractions. In Chapter 3, we investigate pseudo-population bootstrap approaches and we consider a more general class of non-response mechanisms. We develop two pseudo-population bootstrap procedures to estimate the variance of an imputed estimator with respect to the non-response model and the imputation model approaches. These procedures are also valid even for non-negligible sampling fractions.
250

Essays on bootstrap in econometrics

Kaffo Melou, Maximilien 08 1900 (has links)
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé. / My dissertation consists of three essays on bootstrap inference in both large panel data models and instrumental variable (IV) models with many instruments and possibly, many weak instruments. Since the asymptotic theory is often not a good approximation to the sampling distribution of test statistics and estimators, I consider the bootstrap as an alternative. These essays try to study the asymptotic validity of existing bootstrap procedures and when they are invalid, to propose new valid bootstrap methods. The first chapter (co-authored with Sílvia Gonçalves) studies the validity of the bootstrap for inference on a stationary linear dynamic panel data model with individual fixed effects. We consider three bootstrap methods: the recursive-design wild bootstrap, the fixed-design wild bootstrap and the pairs bootstrap. These methods are natural generalizations to the panel context of the bootstrap methods considered by \citeasnoun{GK} in pure time series autoregressive models. We show that the recursive-design wild bootstrap fixed effects OLS estimator contains a built-in bias correction term that mimics the incidental parameter bias. This is in contrast with the fixed-design wild bootstrap and the pairs bootstrap whose distributions are incorrectly centered at zero. As it turns out, both the recursive-design and the pairs bootstrap are asymptotically valid when applied to the bias-corrected estimator, but the fixed-design bootstrap is not. In the simulations, the recursive-design bootstrap is the method that does best overall. The second chapter extends our pairwise bootstrap results to dynamic nonlinear panel data models with fixed effects. These models are often estimated with the Maximum Likelihood Estimator (MLE) which also suffers from an incidental parameter bias. Recently, \citeasnoun{DhaeneJochmans} have proposed the split-jackknife estimation method. Although these estimators have asymptotic normal approximations that are centered at the true parameter, important size distortions remain in finite samples. \citeasnoun{DhaeneJochmans} have proposed the pairs bootstrap as an alternative in this context without a theoretical justification. To fill this gap, I show that this method is asymptotically valid when used to estimate the distribution of the half-panel jackknife estimator although it does not consistently estimate the distribution of the MLE. A Monte Carlo experiment shows that bootstrap-based confidence intervals that rely on the half-panel jackknife estimator greatly help to reduce the distortions associated to the normal approximation in finite samples. In addition, I apply this bootstrap method to a canonical model of female-labor participation to construct valid confidence intervals. In the last chapter (co-authored with Wenjie Wang), we study the asymptotic validity of bootstrap procedures for instrumental variable (IV) models with many weak instruments. We show analytically that a standard residual-based bootstrap and the restricted efficient (RE) bootstrap of Davidson and MacKinnon (2008, 2010, 2014) cannot consistently estimate the limiting distribution of the LIML estimator. The foremost reason is that they fail to adequately mimic the identification strength in the sample. Therefore, we propose a modified bootstrap procedure which consistently estimates this limiting distribution. Our simulations show that the modified bootstrap procedure greatly reduces the distortions associated to asymptotic Wald ($t$) tests in finite samples, especially when the degree of endogeneity is high.

Page generated in 0.0551 seconds