• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 171
  • 54
  • 50
  • 49
  • 10
  • 8
  • 8
  • 6
  • 5
  • 5
  • 5
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 447
  • 95
  • 73
  • 71
  • 66
  • 56
  • 46
  • 43
  • 43
  • 38
  • 37
  • 33
  • 32
  • 32
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

La résolution du problème de formation de cellules dans un contexte multicritère

Ahadri, Mohamed Zaki 01 1900 (has links)
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales. / Group technology techniques are now widely used in many manufacturing systems. Those techniques aim to decompose industrial systems into subsystems or cells of parts and machines. The problem of finding the most effectivegroup technology is formulated in operations research as the Cell Formation Problem. Several criteria can be used to specify the optimal solution such as flood intercellular, intracellular load balancing, etc. Solving this problem leads to several advantages such as reducing inventory and simplifying programming. The Cell Formation Problem is an NP-hard problem; therefore, exact methods cannot be used to solve large problems within a reasonabletime, whereas heuristics can generate solutions of lower quality, but in a reasonable execution time. We suggest in this work, three different metaheuristics to solve the cell formation problem having two objectives functions: cell autonomy and load balancing between the cells.We compare numerically these metaheuristics. Furthermore, for problems of smaller dimension that can be solved exactly with CPLEX, we verify that the metaheuristics can reach the optimal value.
322

Velké odchylky a jejich aplikace v pojistné matematice / Large deviations and their applications in insurance mathematics

Fuchsová, Lucia January 2011 (has links)
Title: Large deviations and their applications in insurance mathematics Author: Lucia Fuchsová Department: Department of Probability and Mathematical Statistics Supervisor: RNDr. Zbyněk Pawlas, Ph.D. Supervisor's e-mail address: Zbynek.Pawlas@mff.cuni.cz Abstract: In the present work we study large deviations theory. We discuss heavy-tailed distributions, which describe the probability of large claim oc- curence. We are interested in the use of large deviations theory in insurance. We simulate claim sizes and their arrival times for Cramér-Lundberg model and first we analyze the probability that ruin happens in dependence on the parameters of our model for Pareto distributed claim size, next we compare ruin probability for other claim size distributions. For real life data we model the probability of large claim size occurence by generalized Pareto distribu- tion. 1
323

Metody modelování a statistické analýzy procesu extremálních hodnot / Methods of modelling and statistical analysis of an extremal value process

Jelenová, Klára January 2012 (has links)
In the present work we deal with the problem of etremal value of time series, especially of maxima. We study times and values of maximum by an approach of point process and we model distribution of extremal values by statistical methods. We estimate parameters of distribution using different methods, namely graphical methods of data analysis and subsequently we test the estimated distribution by tests of goodness of fit. We study the stationary case and also the cases with a trend. In connection with distribution of excesess and exceedances over a threshold we deal with generalized Pareto distribution.
324

Teorie extrémních hodnot v aktuárských vědách / Extreme Value Theory in Actuarial Sciences

Jamáriková, Zuzana January 2013 (has links)
This thesis is focused on the models based on extreme value theory and their practical applications. Specifically are described the block maxima models and the models based on threshold exceedances. Both of these methods are described in thesis theoretically. Apart from theoretical description there are also practical calculations based on simulated or real data. The applications of block maxima models are focused on choice of block size, suitability of the models for specific data and possibilities of extreme data analysis. The applications of models based on threshold exceedances are focused on choice of threshold and on suitability of the models. There is an example of the model used for calculations of reinsurance premium for extreme claims in the case of nonproportional reinsurance.
325

Modelování operačního rizika / Operational risk modelling

Mináriková, Eva January 2013 (has links)
In the present thesis we will firstly familiarize ourselves with the term of operational risk, it's definition presented in the directives Basel II and Solvency II, and afterwards with the methods of calculation Capital Requirements for Operational Risk, set by these directives. In the second part of the thesis we will concentrate on the methods of modelling operational loss data. We will introduce the Extreme Value Theory which describes possible approaches to modelling data with significant values that occur infrequently; the typical characteristic of operational risk data. We will mainly focus on the model for threshold exceedances which utilizes Generalized Pareto Distribution to model the distribution of those excesses. The teoretical knowledge of this theory and the appropriate modelling will be applied on simulated loss data. Finally we will test the ability of presented methods to model loss data distributions.
326

Efficient driving of CBTC ATO operated trains

Carvajal Carreño, William January 2017 (has links)
Energy consumption reduction is one of the priorities of metro operators, due to financial cost and environmental impact. The new signalling system Communications-Based Train Control (CBTC) is being installed in new and upgraded metro lines to increase transportation capacity. But its continuous communication feature also permits to improve the energy performance of traffic operation, by updating the control command of the Automatic Train Operation (ATO) system at any point of the route. The present research addresses two main topics. The first is the design of efficient CBTC speed profiles for undisturbed train trajectory between two stations. The second takes into account the interaction between two consecutive trains under abnormal traffic conditions and proposes a tracking algorithm to save energy. In the first part of the research an off-line methodology to design optimal speed profiles for CBTC-ATO controlled trains is proposed. The methodology is based on a new multi-objective optimisation algorithm named NSGA-II-F, which is used to design speed profiles in such a way that can cover all the possible efficient solutions in a pseudo-Pareto front. The pseudo–Pareto front is built by using dominated solutions to make available a complete set of feasible situations in a driving scenario. The uncertainty in the passenger load is modelled as a fuzzy parameter. Each of the resulting speed profiles is obtained as a set of parameters that can be sent to the ATO equipment to perform the driving during the operation. The proposed optimisation algorithm makes use of detailed simulation of the train motion. Therefore, a simulator of the train motion has been developed, including detailed model of the specific ATO equipment, the ATP constraints, the traction equipment, the train dynamics and the track. A subsequent analysis considers the effect in the design of considering the regenerative energy flow between the train and the surrounding railway system. The second part of the research is focused on the proposal and validation of a fuzzy tracking algorithm for controlling the motion of two consecutive trains during disturbed conditions. A disturbed condition is understood as a change in the nominal driving command of a leading train and its consequences in the subsequent trains. When a train runs close enough to the preceding one, a tracking algorithm is triggered to control the distance between both trains. The following train receives the LMA (limit of movement authority) via radio, which is updated periodically as the preceding train runs. The aim of the proposed algorithm is to take actions in such a way that the following train could track the leading train meeting the safety requirements and applying an energy saving driving technique (coasting command). The uncertainty in the variations of the speed of the preceding train is modelled as a fuzzy quantity. The proposed algorithm is based on the application of coasting commands when possible, substituting traction/braking cycles by traction/coasting cycles, and hence saving energy. Both algorithms were tested and validated by using a detailed simulation program. The NSGA-II-F algorithm provided additional energy savings when compared to fixed block distance-to-go configurations, and giving a more even distribution of the solutions. The fuzzy tracking algorithm provides energy savings with a minor impact on running times while improving comfort, because of the reduction of the inefficient traction/braking cycles. / <p>QC 20170216</p>
327

Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes

Diamoutene, Abdoulaye 26 November 2018 (has links) (PDF)
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold"
328

Stochastic process customer lifetime value models with time-varying covariates

Harman, David M. 01 December 2016 (has links)
Customer lifetime value (CLV) is a forecasted expectation of the future value of a customer to the firm. There are two customer behavioral components of CLV that represent a particular modeling challenge: 1) how many transactions we expect from a customer in the future, and 2) how likely it is the customer remains active. Existing CLV models like the Pareto/NBD are valuable managerial tools because they are able to provide forward-looking estimates of transaction patterns and customer churn when the event of a customer leaving is unobservable, which is typical for most noncontractual goods and services. The CLV model literature has for the most part maintained its original assumption that the number of customer transactions follows a stable transaction process. Yet there are many categories of noncontractual goods and services where the stable transaction rate assumption is violated, particularly seasonal purchase patterns. CLV model estimates are further biased when there is an excess of customers with no repeat transactions. To address these modeling challenges, within this thesis I develop a generalized CLV modeling framework that combines three elements necessary to reduce bias in model estimates: 1) the incorporation of time-varying covariates to model data with transaction rates that change over time, 2) a zero-inflated model specification for customers with no repeat transactions, and 3) generalizes to different transaction process distributions to better fit diverse customer transaction patterns. This CLV modeling framework provides firms better estimates of the future activity of their customers, a critical CRM application.
329

OPTIMISATION MULTICRITERES DE L'EFFICACITE PROPULSIVE DE MINI-DRONES BIOMIMETIQUES A AILES BATTANTES PAR ALGORITHMES EVOLUTIONNAIRES

Hamdaoui, Mohamed 16 December 2010 (has links) (PDF)
L'optimisation multicritère de la cinématique de battement d'aile d'un mini-drône à ailes battantes est réalisée en vol de croisière. L'objectif est, pour différentes familles de cinématiques et pour différentes vitesses d'avancement, de trouver des solutions maximisant l'efficacité propulsive, minimisant l'écart à la portance cible et minimisant le moment aérodynamique. Nous avons choisi les algorithmes évolutionnaires pour résoudre ce problème multicritère pour leur simplicité d'implantation, leur flexibilité et leur bon rapport qualité des résultats/coût de calcul. En raison de la nature multicritère du problème, il existe un ensemble de solutions optimales et non pas une unique solution au problème, ce qui pose la question de la maniere de visualiser, d'analyser et d'extraire une solution satisfaisante parmi le groupe de solutions Pareto optimales. Nous avons identifié des methodes simples susceptibles d'aider a accomplir cette tâche, la "Scatter-Plot Matrix Method" pour visualiser les surfaces et ensembles de Pareto, l'utilisation d'une régression multivariée pour établir le lien entre paramètres cinématiques et critères optimisés, la méthode des normes Lp pour identifier une solution compromis au sein de la surface de Pareto, les arbres de décision pour trouver les paramètres de la cinématique auxquels le voisinage de la solution compromis est sensible et les cartes de Kohonen pour étudier la structure de ce voisinage. Ces différents outils nous ont permis, pour chaque famille de cinématiques (dièdre, dièdre et tangage, dièdre et tangage à deux panneaux), d'identifier une solution compromis et les paramètres cinématiques qui impactent le plus le voisinage du point compromis. Les caractéristiques de chaque solution compromis ont ete comparées à des mesures de puissance et de coefficients de traînée faites sur des oiseaux en vol de croisiere, et la légitimité d'appliquer un modèle linéarisé dans le cas de cette solution compromis est mise à l'épreuve en calculant des nombres adimensionés caractéristiques comme le nombre de Strouhal ou la fréquence réduite dont les petites valeurs attestent d'un cas favorable à une approche linéarisée. Puis, la comparaison de la fréquence de battement d'aile obtenue à celle d'un oiseau géométriquement similaire est faite, et elle montre que plus la cinématique est riche plus cette fréquence de battement se rapproche de celle de l'oiseau en question, ce qui constitue un résultat encourageant pour notre approche.
330

Tail Estimation for Large Insurance Claims, an Extreme Value Approach.

Nilsson, Mattias January 2010 (has links)
In this thesis are extreme value theory used to estimate the probability that large insuranceclaims are exceeding a certain threshold. The expected claim size, given that the claimhas exceeded a certain limit, are also estimated. Two different models are used for thispurpose. The first model is based on maximum domain of attraction conditions. A Paretodistribution is used in the other model. Different graphical tools are used to check thevalidity for both models. Länsförsäkring Kronoberg has provided us with insurance datato perform the study.Conclusions, which have been drawn, are that both models seem to be valid and theresults from both models are essential equal. / I detta arbete används extremvärdesteori för att uppskatta sannolikheten att stora försäkringsskadoröverträffar en vis nivå. Även den förväntade storleken på skadan, givetatt skadan överstiger ett visst belopp, uppskattas. Två olika modeller används. Den förstamodellen bygger på antagandet att underliggande slumpvariabler tillhör maximat aven extremvärdesfördelning. I den andra modellen används en Pareto fördelning. Olikagrafiska verktyg används för att besluta om modellernas giltighet. För att kunna genomförastudien har Länsförsäkring Kronoberg ställt upp med försäkringsdata.Slutsatser som dras är att båda modellerna verkar vara giltiga och att resultaten ärlikvärdiga.

Page generated in 0.0158 seconds