• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 187
  • 42
  • 36
  • 23
  • 20
  • 18
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 2
  • Tagged with
  • 381
  • 156
  • 77
  • 51
  • 46
  • 46
  • 43
  • 40
  • 40
  • 39
  • 39
  • 36
  • 33
  • 33
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Univariate and multivariate symmetry: statistical inference and distributional aspects / Symétrie univariée et multivariée: inférence statistique et aspects distributionnels

Ley, Christophe 26 November 2010 (has links)
This thesis deals with several statistical and probabilistic aspects of symmetry and asymmetry, both in a univariate and multivariate context, and is divided into three distinct parts.<p><p>The first part, composed of Chapters 1, 2 and 3 of the thesis, solves two conjectures associated with multivariate skew-symmetric distributions. Since the introduction in 1985 by Adelchi Azzalini of the most famous representative of that class of distributions, namely the skew-normal distribution, it is well-known that, in the vicinity of symmetry, the Fisher information matrix is singular and the profile log-likelihood function for skewness admits a stationary point whatever the sample under consideration. Since that moment, researchers have tried to determine the subclasses of skew-symmetric distributions who suffer from each of those problems, which has led to the aforementioned two conjectures. This thesis completely solves these two problems.<p><p>The second part of the thesis, namely Chapters 4 and 5, aims at applying and constructing extremely general skewing mechanisms. As such, in Chapter 4, we make use of the univariate mechanism of Ferreira and Steel (2006) to build optimal (in the Le Cam sense) tests for univariate symmetry which are very flexible. Actually, their mechanism allowing to turn a given symmetric distribution into any asymmetric distribution, the alternatives to the null hypothesis of symmetry can take any possible shape. These univariate mechanisms, besides that surjectivity property, enjoy numerous good properties, but cannot be extended to higher dimensions in a satisfactory way. For this reason, we propose in Chapter 5 different general mechanisms, sharing all the nice properties of their competitors in Ferreira and Steel (2006), but which moreover can be extended to any dimension. We formally prove that the surjectivity property holds in dimensions k>1 and we study the principal characteristics of these new multivariate mechanisms.<p><p>Finally, the third part of this thesis, composed of Chapter 6, proposes a test for multivariate central symmetry by having recourse to the concepts of statistical depth and runs. This test extends the celebrated univariate runs test of McWilliams (1990) to higher dimensions. We analyze its asymptotic behavior (especially in dimension k=2) under the null hypothesis and its invariance and robustness properties. We conclude by an overview of possible modifications of these new tests./<p><p>Cette thèse traite de différents aspects statistiques et probabilistes de symétrie et asymétrie univariées et multivariées, et est subdivisée en trois parties distinctes.<p><p>La première partie, qui comprend les chapitres 1, 2 et 3 de la thèse, est destinée à la résolution de deux conjectures associées aux lois skew-symétriques multivariées. Depuis l'introduction en 1985 par Adelchi Azzalini du plus célèbre représentant de cette classe de lois, à savoir la loi skew-normale, il est bien connu qu'en un voisinage de la situation symétrique la matrice d'information de Fisher est singulière et la fonction de vraisemblance profile pour le paramètre d'asymétrie admet un point stationnaire quel que soit l'échantillon considéré. Dès lors, des chercheurs ont essayé de déterminer les sous-classes de lois skew-symétriques qui souffrent de chacune de ces problématiques, ce qui a mené aux deux conjectures précitées. Cette thèse résoud complètement ces deux problèmes.<p><p>La deuxième partie, constituée des chapitres 4 et 5, poursuit le but d'appliquer et de proposer des méchanismes d'asymétrisation très généraux. Ainsi, au chapitre 4, nous utilisons le méchanisme univarié de Ferreira and Steel (2006) pour construire des tests de symétrie univariée optimaux (au sens de Le Cam) qui sont très flexibles. En effet, leur méchanisme permettant de transformer une loi symétrique donnée en n'importe quelle loi asymétrique, les contre-hypothèses à la symétrie peuvent prendre toute forme imaginable. Ces méchanismes univariés, outre cette propriété de surjectivité, possèdent de nombreux autres attraits, mais ne permettent pas une extension satisfaisante aux dimensions supérieures. Pour cette raison, nous proposons au chapitre 5 des méchanismes généraux alternatifs, qui partagent toutes les propriétés de leurs compétiteurs de Ferreira and Steel (2006), mais qui en plus sont généralisables à n'importe quelle dimension. Nous démontrons formellement que la surjectivité tient en dimension k > 1 et étudions les caractéristiques principales de ces nouveaux méchanismes multivariés.<p><p>Finalement, la troisième partie de cette thèse, composée du chapitre 6, propose un test de symétrie centrale multivariée en ayant recours aux concepts de profondeur statistique et de runs. Ce test étend le célèbre test de runs univarié de McWilliams (1990) aux dimensions supérieures. Nous en analysons le comportement asymptotique (surtout en dimension k = 2) sous l'hypothèse nulle et les propriétés d'invariance et de robustesse. Nous concluons par un aperçu sur des modifications possibles de ces nouveaux tests. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
362

Hotlinks and dictionaries

Douieb, Karim 29 September 2008 (has links)
Knowledge has always been a decisive factor of humankind's social evolutions. Collecting the world's knowledge is one of the greatest challenges of our civilization. Knowledge involves the use of information but information is not knowledge. It is a way of acquiring and understanding information. Improving the visibility and the accessibility of information requires to organize it efficiently. This thesis focuses on this general purpose.<p><p>A fundamental objective of computer science is to store and retrieve information efficiently. This is known as the dictionary problem. A dictionary asks for a data structure which allows essentially the search operation. In general, information that is important and popular at a given time has to be accessed faster than less relevant information. This can be achieved by dynamically managing the data structure periodically such that relevant information is located closer from the search starting point. The second part of this thesis is devoted to the development and the understanding of self-adjusting dictionaries in various models of computation. In particular, we focus our attention on dictionaries which do not have any knowledge of the future accesses. Those dictionaries have to auto-adapt themselves to be competitive with dictionaries specifically tuned for a given access sequence. <p><p>This approach, which transforms the information structure, is not always feasible. Reasons can be that the structure is based on the semantic of the information such as categorization. In this context, the search procedure is linked to the structure itself and modifying the structure will affect how a search is performed. A solution developed to improve search in static structure is the hotlink assignment. It is a way to enhance a structure without altering its original design. This approach speeds up the search by creating shortcuts in the structure. The first part of this thesis is devoted to this approach. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
363

Analyse mathématique de modèles de trafic routier congestionné / Mathematical analysis of models of congested road traffic

Hatchi, Roméo 02 December 2015 (has links)
Cette thèse est dédiée à l'étude mathématique de quelques modèles de trafic routier congestionné. La notion essentielle est l'équilibre de Wardrop. Elle poursuit des travaux de Carlier et Santambrogio avec des coauteurs. Baillon et Carlier ont étudié le cas de grilles cartésiennes dans $\RR^2$ de plus en plus denses, dans le cadre de la théorie de $\Gamma$-convergence. Trouver l'équilibre de Wardrop revient à résoudre des problèmes de minimisation convexe. Dans le chapitre 2, nous regardons ce qui se passe dans le cas de réseaux généraux, de plus en plus denses, dans $\RR^d$. Des difficultés nouvelles surgissent par rapport au cas initial de réseaux cartésiens et pour les contourner, nous introduisons la notion de courbes généralisées. Des hypothèses structurelles sur ces suites de réseaux discrets sont nécessaires pour s'assurer de la convergence. Cela fait alors apparaître des fonctions qui sont des sortes de distances de Finsler et qui rendent compte de l'anisotropie du réseau. Nous obtenons ainsi des résultats similaires à ceux du cas cartésien. Dans le chapitre 3, nous étudions le modèle continu et en particulier, les problèmes limites. Nous trouvons alors des conditions d'optimalité à travers une formulation duale qui peut être interprétée en termes d'équilibres continus de Wardrop. Cependant, nous travaillons avec des courbes généralisées et nous ne pouvons pas appliquer directement le théorème de Prokhorov, comme cela a été le cas dans \cite{baillon2012discrete, carlier2008optimal}. Pour pouvoir néanmoins l'utiliser, nous considérons une version relaxée du problème limite, avec des mesures d'Young. Dans le chapitre 4, nous nous concentrons sur le cas de long terme, c'est-à-dire, nous fixons uniquement les distributions d'offre et de demande. Comme montré dans \cite{brasco2013congested}, le problème de l'équilibre de Wardrop est équivalent à un problème à la Beckmann et il se réduit à résoudre une EDP elliptique, anisotropique et dégénérée. Nous utilisons la méthode de résolution numérique de Lagrangien augmenté présentée dans \cite{benamou2013augmented} pour proposer des exemples de simulation. Enfin, le chapitre 5 a pour objet l'étude de problèmes de Monge avec comme coût une distance de Finsler. Cela se reformule en des problèmes de flux minimal et une discrétisation de ces problèmes mène à un problème de point-selle. Nous le résolvons alors numériquement, encore grâce à un algorithme de Lagrangien augmenté. / This thesis is devoted to the mathematical analysis of some models of congested road traffic. The essential notion is the Wardrop equilibrium. It continues Carlier and Santambrogio's works with coauthors. With Baillon they studied the case of two-dimensional cartesian networks that become very dense in the framework of $\Gamma$-convergence theory. Finding Wardrop equilibria is equivalent to solve convex minimisation problems.In Chapter 2 we look at what happens in the case of general networks, increasingly dense. New difficulties appear with respect to the original case of cartesian networks. To deal with these difficulties we introduce the concept of generalized curves. Structural assumptions on these sequences of discrete networks are necessary to obtain convergence. Sorts of Finsler distance are used and keep track of anisotropy of the network. We then have similar results to those in the cartesian case.In Chapter 3 we study the continuous model and in particular the limit problems. Then we find optimality conditions through a duale formulation that can be interpreted in terms of continuous Wardrop equilibria. However we work with generalized curves and we cannot directly apply Prokhorov's theorem, as in \cite{baillon2012discrete, carlier2008optimal}. To use it we consider a relaxed version of the limit problem with Young's measures. In Chapter 4 we focus on the long-term case, that is, we fix only the distributions of supply and demand. As shown in \cite{brasco2013congested} the problem of Wardrop equilibria can be reformulated in a problem à la Beckmann and reduced to solve an elliptic anisotropic and degenerated PDE. We use the augmented Lagrangian scheme presented in \cite{benamou2013augmented} to show a few numerical simulation examples. Finally Chapter 5 is devoted to studying Monge problems with as cost a Finsler distance. It leads to minimal flow problems. Discretization of these problems is equivalent to a saddle-point problem. We then solve it numerically again by an augmented Lagrangian algorithm.
364

Combined Computational-Experimental Design of High-Temperature, High-Intensity Permanent Magnetic Alloys with Minimal Addition of Rare-Earth Elements

Jha, Rajesh 20 May 2016 (has links)
AlNiCo magnets are known for high-temperature stability and superior corrosion resistance and have been widely used for various applications. Reported magnetic energy density ((BH) max) for these magnets is around 10 MGOe. Theoretical calculations show that ((BH) max) of 20 MGOe is achievable which will be helpful in covering the gap between AlNiCo and Rare-Earth Elements (REE) based magnets. An extended family of AlNiCo alloys was studied in this dissertation that consists of eight elements, and hence it is important to determine composition-property relationship between each of the alloying elements and their influence on the bulk properties. In the present research, we proposed a novel approach to efficiently use a set of computational tools based on several concepts of artificial intelligence to address a complex problem of design and optimization of high temperature REE-free magnetic alloys. A multi-dimensional random number generation algorithm was used to generate the initial set of chemical concentrations. These alloys were then examined for phase equilibria and associated magnetic properties as a screening tool to form the initial set of alloy. These alloys were manufactured and tested for desired properties. These properties were fitted with a set of multi-dimensional response surfaces and the most accurate meta-models were chosen for prediction. These properties were simultaneously extremized by utilizing a set of multi-objective optimization algorithm. This provided a set of concentrations of each of the alloying elements for optimized properties. A few of the best predicted Pareto-optimal alloy compositions were then manufactured and tested to evaluate the predicted properties. These alloys were then added to the existing data set and used to improve the accuracy of meta-models. The multi-objective optimizer then used the new meta-models to find a new set of improved Pareto-optimized chemical concentrations. This design cycle was repeated twelve times in this work. Several of these Pareto-optimized alloys outperformed most of the candidate alloys on most of the objectives. Unsupervised learning methods such as Principal Component Analysis (PCA) and Heirarchical Cluster Analysis (HCA) were used to discover various patterns within the dataset. This proves the efficacy of the combined meta-modeling and experimental approach in design optimization of magnetic alloys.
365

Étude théorique et numérique de la stabilité de certains systèmes distribués avec contrôle frontière de type dynamique / Theoretical and numerical study of the stability of some distributed systems with dynamic boundary control

Sammoury, Mohamad Ali 08 December 2016 (has links)
Cette thèse est consacrée à l’étude de la stabilisation de certains systèmes distribués avec contrôle frontière de type dynamique. Nous considérons, d’abord, la stabilisation de l’équation de la poutre de Rayleigh avec un seul contrôle frontière dynamique moment ou force. Nous montrons que le système n’est pas uniformément (autrement dit exponentiellement) stable; mais par une méthode spectrale, nous établissons le taux polynomial optimal de décroissance de l’énergie du système. Ensuite, nous étudions la stabilisation indirecte de l’équation des ondes avec un amortissement frontière de type dynamique fractionnel. Nous montrons que le taux de décroissance de l’énergie dépend de la nature géométrique du domaine. En utilisant la méthode fréquentielle et une méthode spectrale, nous montrons la non stabilité exponentielle et nous établissons, plusieurs résultats de stabilité polynomiale. Enfin, nous considérons l’approximation de l’équation des ondes mono-dimensionnelle avec un seul amortissement frontière de type dynamique par un schéma de différence finie. Par une méthode spectrale, nous montrons que l’énergie discrétisée ne décroit pas uniformément (par rapport au pas du maillage) polynomialement vers zéro comme l’énergie du système continu. Nous introduisons, alors, un terme de viscosité numérique et nous montrons la décroissance polynomiale uniforme de l’énergie de notre schéma discret avec ce terme de viscosité. / This thesis is devoted to the study of the stabilization of some distributed systems with dynamic boundary control. First, we consider the stabilization of the Rayleigh beam equation with only one dynamic boundary control moment or force. We show that the system is not uniformly (exponentially) stable. However, using a spectral method, we establish the optimal polynomial decay rate of the energy of the system. Next, we study the indirect stability of the wave equation with a fractional dynamic boundary control. We show that the decay rate of the energy depends on the nature of the geometry of the domain. Using a frequency approach and a spectral method, we show the non exponential stability of the system and we establish, different polynomial stability results. Finally, we consider the finite difference space discretization of the 1-d wave equation with dynamic boundary control. First, using a spectral approach, we show that the polynomial decay of the discretized energy is not uniform with respect to the mesh size, as the energy of the continuous system. Next, we introduce a viscosity term and we establish the uniform (with respect to the mesh size) polynomial energy decay of our discrete scheme.
366

Návrh autopilota a letových řídících módů v prostředí Simulink / Development of Autopilot and Flight Director Modes inside a Simulink Environment

Novák, Jiří January 2020 (has links)
Tato diplomová práce je zaměřena na vývoj simulačního prostředí v Matlab/Simulink zvoleného letadla ve známém letovém režimu. Pozice a orientace letadla pohybujícího se ve vzduchu je popsána pohybovými rovnicemi se šesti stup\v{n}i volnosti. Soustava translačních, rotačních a kinematických rovnic tvoří soustavu devíti nelineárních diferenciálních rovnic prvního řádu. Tyto rovnice lze linearizovat okolo nějakého rovnovážného stavu, který budeme nazývat letovým režimem. Součástí simulačního prostředí je řídící systém letadla založený na PID regulaci. Základem je návrh autopilota, který řídí úhel podélného sklonu a úhel příčného náklonu. Součástí návrhu jsou takzvané „flight director\textquotedblright \phantom{s}m\'dy jako udržení výšky, volba kursu, regulace vertikální rychlosti, změna výšky, zachycení požadované výšky a navigační m\'{o}d založený na nelineárním navigačním zákonu. Optimalizace regulátorů za použití PSO algoritmu a Pareto optimalitě je využita pro nastavení parametrů PID regulátoru. Simulační prostředí je vizualizováno v softwaru FlightGear.
367

Problèmes de premier passage et de commande optimale pour des chaînes de Markov à temps discret

Kounta, Moussa 03 1900 (has links)
No description available.
368

A behavioral approach of decision making under risk and uncertainty / Une approche comportementale de la prise de décision dans les domaines du risque et de l'incertitude

Garcia, Thomas 01 July 2019 (has links)
Cette thèse porte sur la façon dont les individus prennent des décisions en présence de risque et d'incertitude. Elle est composée de quatre essais qui étudient théoriquement et expérimentalement la prise de décision.Les deux premiers essais étudient des situations où un décideur doit décider si un événement a eu lieu en utilisant des informations incertaines. Le fait d'identifier correctement que cet événement s'est produit est plus rémunéré que le fait d'identifier correctement qu'il ne s'est pas produit. Ce problème de décision induit une divergence entre deux qualités d'une décision : l'optimalité et l'exactitude. Les deux essais reproduisent de telles situations dans une expérience de laboratoire basée sur des tâches perceptuelles et analysent les décisions en utilisant la théorie de la détection du signal pour étudier l'arbitrage optimalité-exactitude. Le premier essai confirme l'existence d'un tel arbitrage avec un rôle dominant de la recherche de l'exactitude. Il explique l'existence de cet arbitrage par utilité non-monétaire associée au fait d'avoir raison. Le deuxième chapitre montre que présenter les informations perceptuelles en dernier contribue à l'existence de l'arbitrage optimalité-exactitude.Le troisième essai étudie comment les préférences vie-à-vie d'autrui interagissent avec l'attitude face à l'ambiguïté. Il présente les résultats d'une expérience où les sujets doivent faire des dons à des associations caritatives. Les dons peuvent avoir des coûts ou des bénéfices ambigus. Nous constatons que l'ambiguïté a pour effet de rendre les individus plus égoïstes. En d'autres termes, nous montrons que les individus utilisent l'ambiguïté comme une excuse pour ne pas donner. Ce comportement d’auto-justification est plus marqué pour les coûts ambigus que pour les avantages ambigus.Le quatrième essai examine la validité externe des mesures de préférence pour le risque en laboratoire en utilisant des décisions dans d'autres tâches expérimentales risquées et des décisions prisent sur en dehors du laboratoire. Nous constatons que les mesures de préférence pour le risque permettent d'expliquer les premières, mais qu'elles n'expliquent pas les secondes. / This thesis investigates how individuals make decisions under risk and uncertainty. It is composed of four essays that theoretically and experimentally investigate decision-making.The first two essays study situations where a decision maker has to decide whether an event has occurred using uncertain evidence. Accurately identifying that this event has occurred is more rewarded than accurately identifying that it has not occurred. This decision problem induces a divergence between two qualities of a decision: optimality and accuracy. Both essays reproduce such situations in a laboratory experiment based on perceptual tasks and analyze behavior using Signal Detection Theory to study the optimality-accuracy trade-off. The first essay confirms the existence of the trade-off with a leading role of accuracy. It explains the trade-off by the concern of individuals for being right. The second chapter finds that presenting perceptual evidence last contributes to the existence of the optimality-accuracy trade-off.The third essay studies how other-regarding preferences interact with attitude toward ambiguity. It reports the results of an experiment where subjects have to make donations to charities. Donations may have either ambiguous costs or ambiguous benefits. We find that other-regarding preferences are decreased under ambiguity. In other terms, we highlight that individual use ambiguity has an excuse not to give. This excuse-driven behavior is stronger for ambiguous costs than ambiguous benefits.The fourth essay challenges the external validity of laboratory risk preference measures using behavior in experimental risk tasks and naturally occurring behavior under risk. We find that risk preference measures are related with the former but that they fail to explain the latter.
369

Duality investigations for multi-composed optimization problems with applications in location theory

Wilfer, Oleg 29 March 2017 (has links)
The goal of this thesis is two-fold. On the one hand, it pursues to provide a contribution to the conjugate duality by proposing a new duality concept, which can be understood as an umbrella for different meaningful perturbation methods. On the other hand, this thesis aims to investigate minimax location problems by means of the duality concept introduced in the first part of this work, followed by a numerical approach using epigraphical splitting methods. After summarizing some elements of the convex analysis as well as introducing important results needed later, we consider an optimization problem with geometric and cone constraints, whose objective function is a composition of n+1 functions. For this problem we propose a conjugate dual problem, where the functions involved in the objective function of the primal problem are decomposed. Furthermore, we formulate generalized interior point regularity conditions for strong duality and give necessary and sufficient optimality conditions. As applications of this approach we determine the formulae of the conjugate as well as the biconjugate of the objective function of the primal problem and analyze an optimization problem having as objective function the sum of reciprocals of concave functions. In the second part of this thesis we discuss in the sense of the introduced duality concept three classes of minimax location problems. The first one consists of nonlinear and linear single minimax location problems with geometric constraints, where the maximum of nonlinear or linear functions composed with gauges between pairs of a new and existing points will be minimized. The version of the nonlinear location problem is additionally considered with set-up costs. The second class of minimax location problems deals with multifacility location problems as suggested by Drezner (1991), where for each given point the sum of weighted distances to all facilities plus set-up costs is determined and the maximal value of these sums is to be minimized. As the last and third class the classical multifacility location problem with geometrical constraints is considered in a generalized form where the maximum of gauges between pairs of new facilities and the maximum of gauges between pairs of new and existing facilities will be minimized. To each of these location problems associated dual problems will be formulated as well as corresponding duality statements and necessary and sufficient optimality conditions. To illustrate the results of the duality approach and to give a more detailed characterization of the relations between the location problems and their corresponding duals, we consider examples in the Euclidean space. This thesis ends with a numerical approach for solving minimax location problems by epigraphical splitting methods. In this framework, we give formulae for the projections onto the epigraphs of several sums of powers of weighted norms as well as formulae for the projection onto the epigraphs of gauges. Numerical experiments document the usefulness of our approach for the discussed location problems.
370

Co-optimization of design and control of electrified vehicles using coordination schemes

Fahim, Muhammad Qaisar 09 August 2022 (has links)
No description available.

Page generated in 0.0978 seconds