• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 286
  • 173
  • 27
  • 1
  • 1
  • 1
  • Tagged with
  • 476
  • 182
  • 175
  • 106
  • 76
  • 73
  • 71
  • 69
  • 67
  • 63
  • 58
  • 53
  • 52
  • 51
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Lafaye de Micheaux, Pierre January 2002 (has links)
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
202

Construction et étude de quelques processus multifractals

Perpète, N. 19 February 2013 (has links) (PDF)
Mis en évidence dans les années 80 dans les domaines de la turbulence et des attracteurs étranges, les multifractals ont rapidement gagné en popularité. On les trouve aujourd'hui en finance, en géophysique, dans l'étude du trafic internet et dans bien d'autres domaines des sciences appliquées. Cet essor s'est accompagné de la nécessité de construire des modèles théoriques adaptés. La Mesure Aléatoire Multifractale de Bacry et Muzy est l'un de ces modèles. Du fait de son caractère très général, de sa grande souplesse et de sa relative simplicité, elle est devenue un outil central du domaine des multifractals depuis dix ans. Après un chapitre introductif, on propose dans cette thèse la construction de deux familles de processus multifractals. Ces constructions reposent sur les travaux de Schmitt et de ses co-auteurs et sur ceux de Bacry et Muzy. Dans le chapitre 2, on construit des processus multifractals à partir de moyennes mobiles alpha-stables, tandis que le chapitre 3 est consacré à la construction des Marches Aléatoires Fractionnaires Multifractales d'indice de Hurst 0
203

Analyse et optimisation de performance des réseaux de communication

Brun, Olivier 06 February 2012 (has links) (PDF)
Les réseaux de communication jouant un rôle de plus en plus important dans nos activités quotidiennes, l'interruption des services qu'ils fournissent, ou même une degradation significative de leur qualité, deviennent de moins en moins acceptables. La sécurisation des réseaux et le contrôle de qualité de service sont ainsi devenus des enjeux majeurs qui nécessitent de réelles avancées méthodologiques dans plusieurs domaines. Nos contributions en ce sens peuvent se répartir en deux volets : d'une part celui de l'évaluation de performance et d'autre part celui de l'optimisation de réseaux. Nos travaux en évaluation de performance sont basés sur la théorie des files d'attente et sur la théorie des jeux. Ils visent le développement de modèles stochastiques analytiques ou de simulation permettant le passage à l'échelle pour l'évaluation, en régimes stationnaire et transitoire, des principales métriques de performance au niveau paquet (délai, taux de perte et gigue), mais aussi au niveau flot (nombre de sessions actives, temps de téléchargement, etc.). Ils concernent également l'analyse pire cas de la performance des stratégies de routage décentralisées. Les travaux en optimisation sont quant à eux essentiellement consacrés au développement de méthodes pour la conception de réseaux (d'accès ou de backbone) résilients, leur dimensionnement et l'optimisation de leur routage (avec OSPF ou MPLS). Les problèmes abordés étant généralement des problèmes combinatoires difficiles, avec souvent des fonctions objectifs non-linéaires, les approaches heuristiques sont privilégiées. D'autres travaux sont consacrés à l'ordonnancement de tâches strictement périodiques dans les systèmes embarqués avioniques.
204

Approche probabiliste pour la commande orientée évènement des systèmes stochastiques à commutation

Mihaita, Adriana, Mihaita, Adriana 18 September 2012 (has links) (PDF)
Les systèmes hybrides sont des systèmes dynamiques, caractérisés par un comportementdual, une interaction entre une partie discrète et une partie continue de fonctionnement.Dans le centre de notre travail se trouve une classe particulière de systèmeshybrides, plus spécifiquement les systèmes stochastiques à commutation que nous modélisonsà l'aide des Chaînes de Markov en temps continu et des équations différentielles.Le comportement aléatoire de ce type de système nécessite une commande spécialequi s'adapte aux événements arbitraires qui peuvent changer complètement l'évolutiondu système. Nous avons choisi une politique de contrôle basée sur les événements quiest déclenchée seulement quand il est nécessaire (sur un événement incontrôlable - parexemple un seuil qui est atteint), et jusqu'à ce que certaines conditions de fonctionnementsont remplies (le système revient dans l'état normal).Notre approche vise le développement d'un modèle probabiliste qui permet de calculerun critère de performance (en occurrence l'énergie du système) pour la politiquede contrôle choisie. Nous proposons d'abord une méthode de simulation à événementsdiscrets pour le système stochastique à commutation commandé, qui nous donne la possibilitéde réaliser une optimisation directe de la commande appliquée sur le système etaussi de valider les modèles analytiques que nous avons construit pour l'application ducontrôle.Un modèle analytique pour déterminer l'énergie consommée par le système a étéconçu en utilisant les probabilités de sortie de la région de contrôle, respectivement lestemps de séjour dans la chaîne de Markov avant et après avoir atteint les limites decontrôle. La dernière partie du travail présente la comparaison des résultats obtenusentre la méthode analytique et la simulation.
205

Localisation Markovienne de Systèmes Mono-robot et Multi-robots Utilisant des Echantillons Auto-adaptatifs

Zhang, Lei 15 January 2010 (has links) (PDF)
Afin de parvenir à l'autonomie des robots mobiles, la localisation efficace est une condition préalable nécessaire. Le suivi de position, la localisation globale et le problème du robot kidnappé sont les trois sous-problèmes que nous étudions. Dans cette thèse, nous comparons en simulation trois algorithmes de localisation Markovienne. Nous proposons ensuite une amélioration de l'algorithme de localisation de Monte Carlo par filtre particulaire. Cet algorithme (nommé SAMCL) utilise des particules autoadaptatives. En employant une technique de pré-mise en cache pour réduire le temps de calcul en ligne, l'algorithme SAMCL est plus efficace que la méthode de Monte Carlo usuelle. En outre, nous définissons la notion de région d'énergie similaire (SER), qui est un ensemble de poses (cellules de la grille) dont l'énergie-capteur est similaire avec celle du robot dans l'espace réel. En distribuant les échantillons globaux dans SER lieu de les distribuer au hasard dans la carte, SAMCL obtient une meilleure performance dans la localisation et résout ces trois sous-problèmes. La localisation coopérative de plusieurs robots est également étudiée. Nous avons développé un algorithme (nommé PM) pour intégrer l'information de localisation échangée par les robots lors d'une rencontre au cours d'une mission commune. Cet algorithme apparaît comme une extension à l'algorithme de SAMCL et a été validé en simulation. La validité et l'efficacité de notre approche sont démontrées par des expériences sur un robot réel évoluant dans un environnement connu et préalablement cartographié.
206

Méthode d'optimisation et d'aide à la décision en conception mécanique : Application à une structure aéronautique

Collignan, Arnaud 30 November 2011 (has links) (PDF)
En conception de produits, l'étape de conception dite architecturale doit aboutir à une solution décrivant les caractéristiques du produit, telles que les dimensions ou le choix de composants. Parmi les nombreuses solutions potentielles, il est nécessaire d'effectuer un choix et de pouvoir le justifier de manière rigoureuse. Ce choix doit en outre intégrer l'éventuelle présence d'une solution de référence, pouvant par exemple être issue de projets antérieurs, ou d'études préliminaires. Dans ce but, nos travaux présentent une méthode d'aide à la décision en vue de sélectionner une solution de conception ; nous la nommons méthode OIA (Observation-Interprétation-Agrégation). Cette méthode emploie deux types de modèle, l'un pour formaliser le comportement objectif du produit (Observation), l'autre pour les préférences subjectives du concepteur (Interprétation). Dans ces préférences, nous incluons le comportement attendu du produit, la satisfaction du concepteur ainsi que les compromis intrinsèquement réalisés lors du processus de conception. Ces compromis sont réalisés au travers de stratégies de conception et de logiques de pondérations (Agrégation). La méthode OIA est employée une première fois pour qualifier les solutions de conception en termes de performance. Cette méthode est ensuite appliquée une seconde fois afin de qualifier la solution par rapport à la solution de référence, en termes de confiance accordée par le concepteur. Nous introduisons la notion d'arc-élasticité en conception comme un indicateur de compromis entre performance et confiance pour une solution de conception. Plusieurs algorithmes stochastiques d'optimisation sont comparés comme méthodes de recherche de solutions candidates pertinentes. Nous les détaillons, les comparons et proposons une méthode de sélection multicritère afin d'identifier l'algorithme le plus pertinent. Notre travail est appliqué au dimensionnement d'une jonction rivetée dans un contexte aéronautique industriel.
207

Stratégies d'introduction d'organismes dans un environnement spatialement structuré / Introduction strategies of organisms in a spatially structured environment

Morel Journel, Thibaut 09 December 2015 (has links)
L’établissement correspond à la formation d’une population pérenne dans l’aire d’introduction. Les populations introduites ayant des effectifs faibles, elles sont sujettes à plusieurs mécanismes augmentant leurs risques d’extinction. La structure spatiale de l’aire d’introduction, une mosaïque hétérogène de patchs d’habitat appelée « paysage », peut affecter la persistance de la population introduite. L’objectif de cette thèse est d’étudier l’interaction entre cette structure spatiale et ces mécanismes, ainsi que leur impact sur l’établissement. Les recherches entreprises ont été conduites en utilisant des modèles stochastiques afin de simuler des invasions et faire émerger des prédictions, et en testant expérimentalement ces prédictions grâce à des introductions artificielles de Trichogramma chilonis en microcosmes. Ces travaux ont permis d’identifier un effet fort de la connectivité du site d’introduction, qui peut diminuer les chances d’établissement au niveau local en favorisant l’émigration depuis le site d’introduction, et augmenter les chances d’établissement à un niveau plus large en permettant la colonisation d’autres patchs dans l’aire d’introduction. Au niveau du paysage, nous avons identifié l’impact des hubs, des patchs concentrant les flux de dispersion, qui accroissent fortement la vitesse de colonisation mais diminuent le taux d’établissement. L’établissement était également favorisé par l’agrégation de la ressource et la colonisation par sa dissémination à travers le paysage. La nature stochastique des dynamiques de colonisation est telle qu’il est nécessaire de les prendre en compte pour étudier l’établissement. / Establishment is an important stage of biological invasions, which corresponds to the formation of a persistent population in the introduction area. It is not trivial, as introduced populations are often small, and subject to various specific mechanisms, which increase extinction risks. The spatial structure of the introduction area, which is usually a heterogeneous mosaic of habitat patches called a “landscape”, can interact with those mechanisms and impact the introduced population persistence. This thesis objective is to study the interaction between this spatial structure and those mechanisms, as well as their impact on establishment. On the one hand, we used stochastic models to simulate invasions and formulate predictions. On the other hand, we tested these predictions by performing artificial introductions of Trichogramma chilonis in laboratory microcosms. We were able to identify the impact of the introduction site connectivity, which could decrease establishment probabilities at a local level by increasing the emigration rate from the introduction site, and increase establishment at the landscape level by increasing the colonisation rate of other patches in the introduction area. At the landscape level, we identified the impact of hubs, i.e. patches concentrating dispersal fluxes. They strongly increased colonisation speed, but also decreased establishment. The clustering of resources increased establishment, while its scattering increased colonization. Our results show that introduced population dynamics are highly sensitive to their size. The stochastic nature of colonization dynamics is also necessary to study establishment.
208

l’incertitude comme levier de co-construction au prisme du projet urbain : L'émergence d'un mode de conception "transitionnel" des espaces urbains : entre pratiques institutionnelles et pratiques alternatives / Uncertainty as a way to leverage the co-production process of urban projet

Ramirez cobo, Ines 16 December 2016 (has links)
Les crises actuelles de l’économie, mais aussi de la démocratie représentative, impactent fortement les processus de conception de la ville contemporaine, les faisant passer d’un modèle de planification traditionnelle (rationnel et hiérarchique) à un modèle consensuel fondé sur la négociation, la communication et l’interaction entre les différents acteurs du territoire. Le mode projet, en tant que mode de conception privilégié des espaces urbains, récupère à notre sens une bonne partie des limitations et des paradoxes d’une planification urbaine confrontée à un contexte de plus en plus complexe. L’étude de plusieurs interventions urbaines en France et en Espagne, conçues avec différents degrés d’incertitude, nous fournira des conditions qui permettront de discuter d’un renouvellement des pratiques de conception des espaces urbains, en même temps que nous nous interrogerons sur la pertinence de continuer à penser la ville « en mode projet ».Notre objectif de recherche concerne donc la définition d’un mode de conception alternatif et transitionnel, incorporant de l’incertitude. Celui-ci s’appuie sur la co-construction d’un projet-processus collectif, soutenu par l’expérimentation, la schématisation et la démocratisation des pratiques de conception, que nous appelons « Projet Urbain Stochastique ». / The current crises of the economy, but also of representative democracy, influence strongly the contemporary design processes of city, moving them from a traditional planning model (rational and hierarchical) to a consensual model based on negotiation, communication and interaction between several stakeholders in the territory.The “project mode”, as a preferred way of designing urban spaces, recovers a good part of limitations and paradoxes of urban planning confronted with an increasingly complex context.The study of several urban interventions in France and Spain, conceived with different degrees of uncertainty, will provide us with conditions that will allow us to discuss a renewal of the design practices of urban spaces, at the same time that we will question the relevance to continue thinking about city in “project mode”.Our research goal therefore concerns the definition of an alternative and transitional design mode, incorporating uncertainty. This latter is based on the co-construction of a collective project-process, supported by the experimentation, schematization and democratization of design practices, which we call "Stochastic Urban Project".
209

Nouvelles méthodes d'inférence de l'histoire démographique à partir de données génétiques / New methods for inference on demographic history from genetic data

Merle, Coralie 12 December 2016 (has links)
Cette thèse consiste à améliorer les outils statistiques adaptés à des modèles stochastiques de génétiques des populations et de développer des méthodes statistiques adaptées à des données génétiques de nouvelle génération. Pour un modèle paramétrique basé sur le coalescent, la vraisemblance en un point de l'espace des paramètres s'écrit comme la somme des probabilités de toutes les histoires (généalogies munies de mutations) possibles de l'échantillon observé. À l'heure actuelle, les meilleures méthodes d'inférence des paramètres de ce type de modèles sont les méthodes bayésiennes approchées et l'approximation de la fonction de vraisemblance.L'algorithme d'échantillonnage préférentiel séquentiel (SIS) estime la vraisemblance, en parcourant de manière efficace l'espace latent de ces histoires. Dans ce schéma, la distribution d'importance propose les histoires de l'échantillon observé les plus probables possibles. Cette technique est lourde en temps de calcul mais fournit des estimations par maximum de vraisemblance d'une grande précision.Les modèles que nous souhaitons inférer incluent des variations de la taille de la population. Les méthodes d'IS ne sont pas efficaces pour des modèles en déséquilibre car les distributions d'importance ont été développées pour une population de taille constante au cours du temps. Le temps de calcul augmente fortement pour la même précision de l'estimation de la vraisemblance. La première contribution de cette thèse a consisté à explorer l'algorithme SIS avec ré-échantillonnage (SISR). L'idée est de ré-échantillonner de façon à apprendre quelles sont les histoires proposées par la distribution d'importance qui seront les plus probables avant d'avoir terminé leur simulation et diminuer le temps de calcul. Par ailleurs, nous avons proposé une nouvelle distribution de ré-échantillonnage, tirant profit de l'information contenue dans la vraisemblance composite par paire de l'échantillon.Le développement récent des technologies de séquençage à haut débit a révolutionné la génération de données de polymorphisme chez de nombreux organismes. Les méthodes d'inférence classiques de maximum de vraisemblance ou basées sur le Sites Frequency Spectrum, adaptées à des jeux de données de polymorphisme génétique de quelques loci, supposent l'indépendance des généalogies des loci. Pour tirer parti de données beaucoup plus denses sur le génome, nous considérons la dépendance des généalogies sur des positions voisines du génome et modéliser la recombinaison génétique. Alors, la vraisemblance prend la forme d'une intégrale sur tous les graphes de recombinaison ancestraux possibles pour les séquences échantillonnées, un espace de bien plus grande dimension que l'espace des généalogies. Les méthodes d'inférence basées sur la vraisemblance ne peuvent plus être utilisées sans plus d'approximations. De nombreuses méthodes infèrent les changements historiques de la taille de la population mais ne considèrent pas la complexité du modèle ajusté. Même si certaines proposent un contrôle d'un potentiel sur-ajustement du modèle, à notre connaissance, aucune procédure de choix de modèle entre des modèles démographiques de complexité différente n'a été proposée à partir de longueurs de segments identiques. Nous nous concentrons sur un modèle de taille de population constante et un modèle de population ayant subit un unique changement de taille dans le passé. Puisque ces modèles sont emboîtés, la deuxième contribution de cette thèse a consisté à développer un critère de choix de modèle pénalisé basé sur la comparaison d'homozygotie haplotypique observée et théorique. Notre pénalisation, reposant sur des indices de sensibilité de Sobol, est liée à la complexité du modèle. Ce critère pénalisé de choix de modèle nous a permis de choisir entre un modèle de taille de population constante ou présentant un changement passé de la taille de la population sur des jeux de données simulés et sur un jeux de données de vaches. / This thesis aims to improve statistical methods suitable for stochastic models of population genetics and to develop statistical methods adapted to next generation sequencing data.Sequential importance sampling algorithms have been defined to estimate likelihoods in models of ancestral population processes. However, these algorithms are based on features of the models with constant population size, and become inefficient when the population size varies in time, making likelihood-based inferences difficult in many demographic situations. In the first contribution of this thesis, we modify a previous sequential importance sampling algorithm to improve the efficiency of the likelihood estimation. Our procedure is still based on features of the model with constant size, but uses a resampling technique with a new resampling probability distribution depending on the pairwise composite likelihood. We tested our algorithm, called sequential importance sampling with resampling (SISR) on simulated data sets under different demographic cases. In most cases, we divided the computational cost by two for the same accuracy of inference, in some cases even by one hundred. This work provides the first assessment of the impact of such resampling techniques on parameter inference using sequential importance sampling, and extends the range of situations where likelihood inferences can be easily performed.The recent development of high-throughput sequencing technologies has revolutionized the generation of genetic data for many organisms : genome wide sequence data are now available. Classical inference methods (maximum likelihood methods (MCMC, IS), methods based on the Sites Frequency Spectrum (SFS)) suitable for polymorphism data sets of some loci assume that the genealogies of the loci are independent. To take advantage of genome wide sequence data with known genome, we need to consider the dependency of genealogies of adjacent positions in the genome. Thus, when we model recombination, the likelihood takes the form of an integral over all possible ancestral recombination graph for the sampled sequences. This space is of much larger dimension than the genealogies space, to the extent that we cannot handle likelihood-based inference while modeling recombination without further approximations.Several methods infer the historical changes in the effective population size but do not consider the complexity of the demographic model fitted.Even if some of them propose a control for potential over-fitting, to the best of our knowledge, no model choice procedure between demographic models of different complexity have been proposed based on IBS segment lengths. The aim of the second contribution of this thesis is to overcome this lack by proposing a model choice procedure between demographic models of different complexity. We focus on a simple model of constant population size and a slightly more complex model with a single past change in the population size.Since these models are embedded, we developed a penalized model choice criterion based on the comparison of observed and predicted haplotype homozygosity.Our penalization relies on Sobol's sensitivity indices and is a form of penalty related to the complexity of the model.This penalized model choice criterion allowed us to choose between a population of constant size and a population size with a past change on simulated data sets and also on a cattle data set.
210

Reconstruction de l'atmosphère turbulente à partir d'un lidar doppler 3D et étude du couplage avec Meso-NH / Turbulent atmospher reconstruction from 3D doppler lidar measurements and study of the coupling with Meso-NH

Rottner, Lucie 02 December 2015 (has links)
Ces travaux s'articulent autour de la détection et de la prévision des phénomènes turbulents dans la couche limite atmosphérique. Nous proposons tout d'abord une méthode stochastique innovante de reconstruction locale de l'atmosphère. Nous utilisons des systèmes de particules pour modéliser l'écoulement atmosphérique et sa variabilité interne. L'apprentissage des paramètres turbulents et la mise à jour des particules se font à l'aide d'observations mesurées par un lidar Doppler 3D. Nous présentons ensuite une nouvelle méthode de descente d'échelle stochastique pour la prévision de la turbulence sous-maille. A partir du modèle en points de grille Meso-NH, nous forçons un système de particules qui évolue à l'intérieur des mailles. Notre méthode de descente d'échelle permet de modéliser des champs sous-maille cohérents avec le modèle en points de grille. Dans un troisième et dernier temps nous introduisons les problèmes de remontée d'échelle. La reconstruction de l'atmosphère modélise la turbulence dans un volume restreint qui couvre au plus quelques mailles des modèles météorologiques en points de grille. L'objectif de la remontée d'échelle est de construire une méthode d'assimilation de l'atmosphère reconstruite. En utilisant l'algorithme de nudging direct et rétrograde, nous explorons les problèmes liés à la taille du domaine observé. Nous proposons finalement un algorithme de nudging avec apprentissage de paramètre, illustré sur un cas simple. / Our work aims to improve the turbulent phenomena detection and forecast in the atmospheric boundary layer. First, we suggest a new stochastic method to reconstruct locally the turbulent atmosphere. Particle systems are used to model the atmospheric flow and its internal variability. To update particles and lean the turbulent parameters 3D Doppler lidar measurements are used. Then, a new stochastic downscaling technic for sub-grid turbulence forecast is presented. From the grid point model Meso-NH, a sub-grid particle system is forced. Here, the particles evolve freely in the simulated domain. Our downscaling method allows to model sub-grid fields coherent with the grid point model. Next, we introduce the upscaling issue. The atmosphere reconstruction covers at best few cells of meteorological grid point models. The issue is to assimilate the reconstructed atmosphere in such models. Using the back and forth nudging algorithm, we explore the problems induced by the size of the observed domain. Finally we suggest a new way to use the back and forth nudging algorithm for parameter identification.

Page generated in 0.0438 seconds