• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 13
  • 3
  • Tagged with
  • 36
  • 18
  • 9
  • 8
  • 8
  • 7
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Ecologie physique du piège des fourmillons : une construction animale en milieu granulaire.

A., Fertin 22 June 2007 (has links) (PDF)
L'utilisation d'outils en tant qu'aide à la nutrition a évolué indépendamment dans plusieurs groupes taxonomiques. Parmi ces outils, certaines constructions animales sont destinées à piéger les proies (e.g. les toiles d'araignées). Le fonctionnement physique de ces pièges reste largement inconnu à ce jour. Les pièges de type « toile » sont particulièrement difficiles à analyser car leurs architectures et leurs propriétés mécaniques sont complexes. Le fourmilion utilise du sable sec pour creuser un piège afin de capturer des fourmis. La proie est amenée jusqu'au prédateur sans effort de sa part dans les conditions optimales. Ce piège offre une architecture simple en forme de cratère, modèle idéal pour la compréhension physique du fonctionnement d'un piège. Une architecture optimale théorique est définie comme un cratère parfaitement conique, mais avec une pente inférieure à ce qu'autorise la physique du sable, afin d'éviter des avalanches inutiles. Un système de balayage et de modélisation tridimensionnelle a permis une reconstitution fine de l'architecture des pièges. Grâce à cet appareillage, il a été montré que le piège construit par le fourmilion était proche de l'optimalité, mais qu'une dégradation architecturale suscitait un comportement d'attaque et un coût de prédation : des jets de sable, pour déstabiliser les fourmis s'échappant du piège, et des morsures. Un stimulus artificiel modélisant les pas d'une fourmi sur le sable à aboutit à l'élaboration d'un biotest. Il a prouvé que le fourmilion utilise l'information mécanique propagée dans le sable pour orienter morsures et jets de sable. L'exploitation des particularités physiques du milieu granulaire « sable » garantit ainsi l'efficacité de la prédation. Ces résultats sont discutés dans une perspective d'écologie évolutive.
22

Essais sur la conception de mécanismes et les enchères

Njiki Njiki, Paul Samuel 11 1900 (has links)
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées. / This thesis is made of three essays related to mechanism design and auctions. In first essay I study Bayesian efficient mechanism design in environments where agents' utility functions depend on the chosen alternative even if they do not participate to the mechanism. In addition to an allocation rule and a payment rule the designer may choose appropriate threats in order to give agents the incentive to participate and maximize his own expected surplus; The planner may presume the type of an agent who does not participate. I show that the solution of the design problem can be found by a max - min choice of the presumed types and threats. I apply this to the design of an efficient multi-unit auction when a buyer in possession of the good causes negative externalities on other buyers.\\ The second essay considers the fair return rule used by the European Space Agency (ESA). It ensures each member state of ESA a return proportional to its contribution, in the form of contracts awarded to firms coming from that state. The fair return rule is in conflict with the principle of free competition since contracts are not necessarily awarded to firms with the lowest bids. This has raised debates on the use of this rule: it is well accepted by small states, but larger states with strong national space programs, see its strict use as an obstacle to competitiveness and cost effectiveness. It is easy to believe that this rule is more costly to the agency than traditional auctions. We show on the contrary that an adequate implementation of the fair return rule may cause it to be less expensive to the agency than the traditional auctions of free competition. We consider the case of complete information where firms' technology levels are common knowledge, and the case of incomplete information where firms observe privately their production costs. In both cases we show that adequate implementation of the fair return rule may help take advantage of asymmetries between countries in order to expect a lower cost than with traditional auctions.\\ Finally, in the third essay I derive an optimal procurement mechanism in an environment where a buyer of heterogeneous items faces potential suppliers from different groups, and is constrained to choose a winning list that is consistent with some exogenous quotas assigned to the different groups. The optimal allocation rule consists of assigning priority levels to suppliers on the basis of their cost reports. The way these priority levels are determined is subjective but known to all before the auction. The individual reports induce scores for each potential winning list. The items are then purchased from one of the lists with the best score, provided it is not greater than the buyer's valuation for the items. I also find that it is not optimal to purchase the items through separate auctions, unless the buyer's valuation is sufficiently high or low.
23

Diversité morphologique et instabilité locomotrice des proies du fourmilion / Morphological diversity and locomotory instability of the prey of antlions

Humeau, Antoine 27 November 2015 (has links)
Nous avons étudié les mécanismes d’interaction entre le piège du fourmilion, une dépression conique dans le sable, et ses proies. Nous avons identifié un spectre optimal de proies, pesant environ 2 à 3 mg, par une expérience d’écologie comportementale sur des fourmis. Les proies plus petites et plus grosses sont moins capturées, pour des raisons différentes. Nous avons également découvert que la compacité du milieu granulaire où les fourmilions construisent influence la probabilité de capture. Le piège garde donc en mémoire l’état du milieu, avec des conséquences sur l’alimentation du prédateur. / We studied the interactions between an antlion pit, a conical depression in sand, and its prey. We identified an optimal range of prey size with a behavioural ecology experiment with ants. Prey that are lighter or heavier are less captured, for different causes, than prey of around 2 and 3 mg. We also found that the compaction of the granular medium where antlion built impacts on the probability of capture of prey. The pit so has a memory of the initial state of the immediate soil environment, with consequences for the predator success.
24

Comment sélectionner les zones prioritaires pour la conservation et la restauration des communautés de poissons de rivière ? Applications aux échelles de la France et du Pas-de-Calais / Identification of priority areas for the conservation and restoration of stream fish assemblages. Application at the scale of France and Pas-de-Calais

Maire, Anthony 20 November 2014 (has links)
Face à l’érosion globale de la biodiversité des écosystèmes aquatiques continentaux, l’identification des mesures de gestion les plus urgentes à mettre en place est cruciale. En s’appuyant sur une approche innovante et multi-facettes de la diversité, les priorités de conservation pour les assemblages de poissons de rivière ont pu être déterminées à l’échelle de la France. La durabilité de ces priorités de conservation face aux principales composantes des changements globaux a ensuite été évaluée afin d’identifier les zones qui protégeront efficacement la biodiversité actuelle dans le futur. La méthodologie développée a finalement été appliquée au réseau hydrographique du département du Pas-de-Calais dans le but d’identifier précisément les priorités locales de conservation et de restauration. Ces outils pourront par la suite être utilisés comme support d’aide à la décision et adaptés selon les besoins des gestionnaires des milieux aquatiques. / The global loss of biodiversity affects freshwater ecosystems, making it crucial to identify the priority management actions in order to protect freshwater biodiversity in an effective and sustainable way. Based on an innovative multi-faceted framework of diversity, the spatial priorities for the conservation of stream fish assemblages have been identified at the scale of France. Their robustness to several drivers of global changes has then been assessed to identify the areas that are likely to efficiently protect the present-day biodiversity in the future. The methodological framework proposed herein has finally been applied to the river network of the Pas-de-Calais department located in northern France to accurately identify the local conservation and restoration priorities. These management tools can be used to support the establishment of management actions in accordance with the needs of the local environmental decision-makers.
25

Quelques problèmes de stabilisation directe et indirecte d’équations d’ondes par des contrôles de type fractionnaire frontière ou de type Kelvin-Voight localisé / Some problems of direct and indirect stabilization of wave equations with locally boundary fractional damping or with localised Kelvin-Voigh

Akil, Mohammad 06 October 2017 (has links)
Cette thèse est consacrée à l’étude de la stabilisation directe et indirecte de différents systèmes d’équations d’ondes avec un contrôle frontière de type fractionnaire ou un contrôle local viscoélastique de type Kelvin-Voight. Nous considérons, d’abord, la stabilisation de l’équation d’ondes multidimensionnel avec un contrôle frontière fractionnaire au sens de Caputo. Sous des conditions géométriques optimales, nous établissons un taux de décroissance polynomial de l’énergie de système. Ensuite, nous nous intéressons à l’étude de la stabilisation d’un système de deux équations d’ondes couplées via les termes de vitesses, dont une seulement est amortie avec contrôle frontière de type fractionnaire au sens de Caputo. Nous montrons différents résultats de stabilités dans le cas 1-d et N-d. Finalement, nous étudions la stabilité d’un système de deux équations d’ondes couplées avec un seul amortissement viscoélastique localement distribué de type Kelvin-Voight. / This thesis is devoted to study the stabilization of the system of waves equations with one boundary fractional damping acting on apart of the boundary of the domain and the stabilization of a system of waves equations with locally viscoelastic damping of Kelvin-Voight type. First, we study the stability of the multidimensional wave equation with boundary fractional damping acting on a part of the boundary of the domain. Second, we study the stability of the system of coupled onedimensional wave equation with one fractional damping acting on a part of the boundary of the domain. Next, we study the stability of the system of coupled multi-dimensional wave equation with one fractional damping acting on a part of the boundary of the domain. Finally, we study the stability of the multidimensional waves equations with locally viscoelastic damping of Kelvin-Voight is applied for one equation around the boundary of the domain.
26

Conception d’environnement instrumenté pour la veille à la personne / Design of instrumented environment for human monitoring

Massein, Aurélien 22 November 2018 (has links)
L'instrumentation permet à notre environnement, maison ou bâtiment, de devenir intelligent en s'adaptant à nos modes de vie et en nous assistant au quotidien. Un environnement intelligent est sensible et réactif à nos activités, afin d'améliorer notre qualité de vie. La fiabilité d'identification des activités est ainsi essentielle pour cette intelligence ambiante : elle est directement dépendante du positionnement des capteurs au sein de l'environnement. Cette question essentielle du placement des capteurs est très peu considérée par les systèmes ambiants commercialisés ou même dans la littérature. Pourtant, elle est la source principale de leurs dysfonctionnements où une mauvaise reconnaissance des activités entraîne une mauvaise assistance fournie. Le placement de capteurs consiste à choisir et à positionner des capteurs pertinents pour une identification fiable des activités. Dans cette thèse, nous développons et détaillons une méthodologie de placement de capteurs axée sur l'identifiabilité des activités d'intérêt. Nous la qualifions en nous intéressant à deux évaluations différentes : la couverture des intérêts et l'incertitude de mesures. Dans un premier temps, nous proposons un modèle de l'activité où nous décomposons l'activité en actions caractérisées afin d'être indépendant de toute technologie ambiante (axée connaissances ou données). Nous représentons actions et capteurs par un modèle ensembliste unifiant, permettant de fusionner des informations homogènes de capteurs hétérogènes. Nous en évaluons l'identifiabilité des actions d'intérêt au regard des capteurs placés, par des notions de précision (performance d'identification) et de sensibilité (couverture des actions). Notre algorithme de placement des capteurs utilise la Pareto-optimalité pour proposer une large palette de placements-solutions pertinents et variés, pour ces multiples identifiabilités à maximiser. Nous illustrons notre méthodologie et notre évaluation en utilisant des capteurs de présence, et en choisissant optimalement la caractéristique à couvrir pour chaque action. Dans un deuxième temps, nous nous intéressons à la planification optimale des expériences où l'analyse de la matrice d'information permet de quantifier l'influence des sources d'incertitudes sur l'identification d'une caractéristique d'action. Nous représentons les capteurs continus et l'action caractérisée par un modèle analytique, et montrons que certaines incertitudes doivent être prises en compte et intégrées dans une nouvelle matrice d'information. Nous y appliquons les indices d'observabilité directement pour évaluer l'identifiabilité d'une action caractérisée (incertitude d'identification). Nous illustrons cette évaluation alternative en utilisant des capteurs d'angle, et nous la comparons à la matrice d'information classique. Nous discutons des deux évaluations abordées et de leur complémentarité pour la conception d’environnement instrumenté pour la veille à la personne. / Instrumentation enables our environment, house or building, to get smart through self-adjustment to our lifestyles and through assistance of our daily-life. A smart environment is sensitive and responsive to our activities, in order to improve our quality of life. Reliability of activities' identification is absolutely necessary to such ambient intelligence: it depends directly on sensors' positioning within the environment. This fundamental issue of sensor placement is hardly considered by marketed ambient systems or even into the literature. Yet, it is the main source of ambient systems' malfunctions and failures, because a bad activity recognition leads to a bad delivered assistance. Sensor placement is about choosing and positioning relevant sensors for a reliable identification of activities. In this thesis, we develop and detail a sensor placement methodology driven by identifiability of activities of interest. We quantify it by looking at two different evaluations: coverage of interests and uncertainty of measures. First, we present an activity model that decomposes each activity into characterised actions to be technology-free (either knowledge or data driven one). We depict actions and sensors by a set theoretic model, enabling to fuse homogeneous informations of heterogeneous sensors. We then evaluate each action of interest's identifiability regarding placed sensors, through notions of precision (identification's performance) and sensitivity (action's coverage). Our sensor placement algorithm use Pareto-optimality to offer a wide range of relevant solution-placements, for these multiple identifiabilities to maximise. We showcase our methodology and our evaluation through solving a problem featuring motion and binary sensors, by optimally choosing for each action the characteristic to cover. Finally, we look into optimal design of experiments by analysing the information matrix to quantify how sources of uncertainties influence the identification of an action's characteristic. We depict continuous sensors and the characterised action by an analytical model, and we show that some uncertainties should be considered and included in a new information matrix. We then apply directly observability indexes to evaluate identifiability of a characterised action (uncertainty of identification), and compare our new information matrix to the classical one. We showcase our alternate evaluation through solving a sensor placement problem featuring angular sensors. We discuss both covered evaluations and their complementarity towards the design of instrumented environment for human monitoring.
27

Essais sur la conception de mécanismes et les enchères

Njiki Njiki, Paul Samuel 11 1900 (has links)
No description available.
28

Approche efficace pour la conception des architectures multiprocesseurs sur puce électronique

Elie, Etienne 12 1900 (has links)
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système. / On-Chip Multiprocessor (OCM) systems are considered to be the best structures to occupy the abundant space available on today integrated circuits (IC). In our thesis, we are interested on an architectural model, called Isometric on-Chip Multiprocessor Architecture (ICMA), that optimizes the OCM systems by focusing on an effective organization of cores (processors and memories) and on methodologies that optimize the use of these architectures. In the first part of this work, we study the topology of ICMA and propose an architecture that enables efficient and massive use of on-chip memories. ICMA organizes processors and memories in an isometric structure with the objective to get processed data close to the processors that use them rather than to optimize transfers between processors and memories, arranged in a conventional manner. ICMA is a mesh model in three dimensions. The organization of our architecture is inspired by the crystal structure of sodium chloride (NaCl), where each processor can access six different memories and where each memory can communicate with six processors at once. In the second part of our work, we focus on a methodology of decomposition. This methodology is used to find the optimal number of nodes for a given application or specification. The approach we use is to transform an application or a specification into an incidence matrix, where the entries of this matrix are the interactions between processors and memories as entries. In other words, knowing that the performance of a model depends on the intensity of the data flow exchanged between its units, namely their number, we aim to guarantee a good computing performance by finding the optimal number of processors and memories that are suitable for the application computation. We also consider the load balancing of the units of ICMA during the specification phase of the design. Our proposed decomposition is on three points: the transformation of the specification or application into an incidence matrix, a new methodology based on the Cell Formation Problem (CFP), and load balancing processes in the processors and data in memories. In the third part, we focus on the allocation of processor and memory by a two-step methodology. Initially, we allocate units to the nodes of the system structure, considered here as an undirected graph, and subsequently we assign values to the arcs of this graph. For the assignment, we propose modeling of the decomposed application using a matrix approach and the Quadratic Assignment Problem (QAP). For the assignment of the values to the arcs, we propose an approach of gradual changes of these values in order to seek the best combination of cost allocation, this under certain metric constraints such as temperature, heat dissipation, power consumption and surface occupied by the chip. The ultimate goal of this work is to propose a methodology for non-traditional, systematic and effective decision support design tools for multiprocessor system architects, from the phase of functional specification.
29

Inférences dans les modèles ARCH : tests localement asymptotiquement optimaux / Inference in ARCH models : asymptotically optimal local tests

Lounis, Tewfik 16 November 2015 (has links)
L'objectif de cette thèse est la construction des tests localement et asymptotiquement optimaux. Le problème traité concerne un modèle qui contient une large classe de modèles de séries chronologiques. La propriété de la normalité asymptotique locale (LAN) est l'outil fondamental utilisé dans nos travaux de recherches. Une application de nos travaux en finance est proposée / The purpose of this phD thesis is the construction of alocally asymptotically optimal tests. In this testing problem, the considered model contains a large class of time series models. LAN property was the fundamental tools in our research works. Our results are applied in financial area
30

Univariate and Multivariate Symmetry: Statistical Inference and Distributional Aspects/Symétrie Univariée et Multivariée: Inférence Statistique et Aspects Distributionnels

Ley, Christophe C. 26 November 2010 (has links)
This thesis deals with several statistical and probabilistic aspects of symmetry and asymmetry, both in a univariate and multivariate context, and is divided into three distinct parts. The first part, composed of Chapters 1, 2 and 3 of the thesis, solves two conjectures associated with multivariate skew-symmetric distributions. Since the introduction in 1985 by Adelchi Azzalini of the most famous representative of that class of distributions, namely the skew-normal distribution, it is well-known that, in the vicinity of symmetry, the Fisher information matrix is singular and the profile log-likelihood function for skewness admits a stationary point whatever the sample under consideration. Since that moment, researchers have tried to determine the subclasses of skew-symmetric distributions who suffer from each of those problems, which has led to the aforementioned two conjectures. This thesis completely solves these two problems. The second part of the thesis, namely Chapters 4 and 5, aims at applying and constructing extremely general skewing mechanisms. As such, in Chapter 4, we make use of the univariate mechanism of Ferreira and Steel (2006) to build optimal (in the Le Cam sense) tests for univariate symmetry which are very flexible. Actually, their mechanism allowing to turn a given symmetric distribution into any asymmetric distribution, the alternatives to the null hypothesis of symmetry can take any possible shape. These univariate mechanisms, besides that surjectivity property, enjoy numerous good properties, but cannot be extended to higher dimensions in a satisfactory way. For this reason, we propose in Chapter 5 different general mechanisms, sharing all the nice properties of their competitors in Ferreira and Steel (2006), but which moreover can be extended to any dimension. We formally prove that the surjectivity property holds in dimensions k>1 and we study the principal characteristics of these new multivariate mechanisms. Finally, the third part of this thesis, composed of Chapter 6, proposes a test for multivariate central symmetry by having recourse to the concepts of statistical depth and runs. This test extends the celebrated univariate runs test of McWilliams (1990) to higher dimensions. We analyze its asymptotic behavior (especially in dimension k=2) under the null hypothesis and its invariance and robustness properties. We conclude by an overview of possible modifications of these new tests./ Cette thèse traite de différents aspects statistiques et probabilistes de symétrie et asymétrie univariées et multivariées, et est subdivisée en trois parties distinctes. La première partie, qui comprend les chapitres 1, 2 et 3 de la thèse, est destinée à la résolution de deux conjectures associées aux lois skew-symétriques multivariées. Depuis l'introduction en 1985 par Adelchi Azzalini du plus célèbre représentant de cette classe de lois, à savoir la loi skew-normale, il est bien connu qu'en un voisinage de la situation symétrique la matrice d'information de Fisher est singulière et la fonction de vraisemblance profile pour le paramètre d'asymétrie admet un point stationnaire quel que soit l'échantillon considéré. Dès lors, des chercheurs ont essayé de déterminer les sous-classes de lois skew-symétriques qui souffrent de chacune de ces problématiques, ce qui a mené aux deux conjectures précitées. Cette thèse résoud complètement ces deux problèmes. La deuxième partie, constituée des chapitres 4 et 5, poursuit le but d'appliquer et de proposer des méchanismes d'asymétrisation très généraux. Ainsi, au chapitre 4, nous utilisons le méchanisme univarié de Ferreira and Steel (2006) pour construire des tests de symétrie univariée optimaux (au sens de Le Cam) qui sont très flexibles. En effet, leur méchanisme permettant de transformer une loi symétrique donnée en n'importe quelle loi asymétrique, les contre-hypothèses à la symétrie peuvent prendre toute forme imaginable. Ces méchanismes univariés, outre cette propriété de surjectivité, possèdent de nombreux autres attraits, mais ne permettent pas une extension satisfaisante aux dimensions supérieures. Pour cette raison, nous proposons au chapitre 5 des méchanismes généraux alternatifs, qui partagent toutes les propriétés de leurs compétiteurs de Ferreira and Steel (2006), mais qui en plus sont généralisables à n'importe quelle dimension. Nous démontrons formellement que la surjectivité tient en dimension k > 1 et étudions les caractéristiques principales de ces nouveaux méchanismes multivariés. Finalement, la troisième partie de cette thèse, composée du chapitre 6, propose un test de symétrie centrale multivariée en ayant recours aux concepts de profondeur statistique et de runs. Ce test étend le célèbre test de runs univarié de McWilliams (1990) aux dimensions supérieures. Nous en analysons le comportement asymptotique (surtout en dimension k = 2) sous l'hypothèse nulle et les propriétés d'invariance et de robustesse. Nous concluons par un aperçu sur des modifications possibles de ces nouveaux tests.

Page generated in 0.4461 seconds