• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 65
  • 22
  • 1
  • Tagged with
  • 221
  • 100
  • 60
  • 57
  • 52
  • 41
  • 38
  • 33
  • 32
  • 28
  • 26
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Equations aux dérivées partielles et aléas / Randomness and PDEs

Xia, Bo 08 July 2016 (has links)
Dans cette thèse, on a d’abord considéré une équation d'onde. On a premièrement montré que l’équation est bien-posée presque sûre par la méthode de décomposition de fréquence de Bourgain sous l’hypothèse de régularité que s > 2(p−3)/(p-1). Ensuite, nous avons réduit de cette exigence de régulation à (p-3)/(p−1) en appelant une estimation probabiliste a priori. Nous considérons également l’approximation des solutions obtenues ci-dessus par des solutions lisses et la stabilité de cette procédure d’approximation. Et nous avons conclu que l’équation est partout mal-posée dans le régime de super-critique. Nous avons considéré ensuite l’équation du faisceau quintique sur le tore 3D. Et nous avons montré que cette équation est presque sûr bien-posée globalement dans certain régimes de super-critique. Enfin, nous avons prouvé que la mesure de l’image de la mesure gaussienne sous l’application de flot de l’équation BBM généralisé satisfait une inégalité de type log-Sobolev avec une petit peu de perte de l’intégrabilité. / In this thesis, we consider a wave equation. We first showed that the equation is almost sure global well-posed via Bourgain’s high-low frequency decomposition under the regularity assumption s > 2(p−3)/(p−1). Then we lowered down this regularity requirement to be (p−3)/(p−1) by invoking a probabilistic a priori estimate. We also consider approximation of the above achieved solutions by smooth solutions and the stability of this approximating procedure. And we concluded that this equation is everywhere ill-posed in the super-critical regime. Next, we considered the quintic beam equation on 3D torus. And we showed that this equation is almost sure global well-posed in certain super-critical regime. Lastly, we proved that the image measure of the Gaussian measure under the generalized BBM flow map satisfies a log-Sobolev type inequality with a little bit loss of integrability.
192

Probabilistic studies in number theory and word combinatorics : instances of dynamical analysis / Études probabilistes en théorie des nombres et combinatoire des mots : exemples d’analyse dynamique

Rotondo, Pablo 27 September 2018 (has links)
L'analyse dynamique intègre des outils propres aux systèmes dynamiques (comme l'opérateur de transfert) au cadre de la combinatoire analytique, et permet ainsi l'analyse d'un grand nombre d'algorithmes et objets qu'on peut associer naturellement à un système dynamique. Dans ce manuscrit de thèse, nous présentons, dans la perspective de l'analyse dynamique, l'étude probabiliste de plusieurs problèmes qui semblent à priori bien différents : l'analyse probabiliste de la fonction de récurrence des mots de Sturm, et l'étude probabiliste de l'algorithme du “logarithme continu”. Les mots de Sturm constituent une famille omniprésente en combinatoire des mots. Ce sont, dans un sens précis, les mots les plus simples qui ne sont pas ultimement périodiques. Les mots de Sturm ont déjà été beaucoup étudiés, notamment par Morse et Hedlund (1940) qui en ont exhibé une caractérisation fondamentale comme des codages discrets de droites à pente irrationnelle. Ce résultat relie ainsi les mots de Sturm au système dynamique d'Euclide. Les mots de Sturm n'avaient jamais été étudiés d'un point de vue probabiliste. Ici nous introduisons deux modèles probabilistes naturels (et bien complémentaires) et y analysons le comportement probabiliste (et asymptotique) de la “fonction de récurrence” ; nous quantifions sa valeur moyenne et décrivons sa distribution sous chacun de ces deux modèles : l'un est naturel du point de vue algorithmique (mais original du point de vue de l'analyse dynamique), et l'autre permet naturellement de quantifier des classes de plus mauvais cas. Nous discutons la relation entre ces deux modèles et leurs méthodes respectives, en exhibant un lien potentiel qui utilise la transformée de Mellin. Nous avons aussi considéré (et c'est un travail en cours qui vise à unifier les approches) les mots associés à deux familles particulières de pentes : les pentes irrationnelles quadratiques, et les pentes rationnelles (qui donnent lieu aux mots de Christoffel). L'algorithme du logarithme continu est introduit par Gosper dans Hakmem (1978) comme une mutation de l'algorithme classique des fractions continues. Il calcule le plus grand commun diviseur de deux nombres naturels en utilisant uniquement des shifts binaires et des soustractions. Le pire des cas a été étudié récemment par Shallit (2016), qui a donné des bornes précises pour le nombre d'étapes et a exhibé une famille d'entrées sur laquelle l'algorithme atteint cette borne. Dans cette thèse, nous étudions le nombre moyen d'étapes, tout comme d'autres paramètres importants de l'algorithme. Grâce à des méthodes d'analyse dynamique, nous exhibons des constantes mathématiques précises. Le système dynamique ressemble à première vue à celui d'Euclide, et a été étudié d'abord par Chan (2005) avec des méthodes ergodiques. Cependant, la présence des puissances de 2 dans les quotients change la nature de l'algorithme et donne une nature dyadique aux principaux paramètres de l'algorithme, qui ne peuvent donc pas être simplement caractérisés dans le monde réel.C'est pourquoi nous introduisons un nouveau système dynamique, avec une nouvelle composante dyadique, et travaillons dans ce système à deux composantes, l'une réelle, et l'autre dyadique. Grâce à ce nouveau système mixte, nous obtenons l'analyse en moyenne de l'algorithme. / Dynamical Analysis incorporates tools from dynamical systems, namely theTransfer Operator, into the framework of Analytic Combinatorics, permitting the analysis of numerous algorithms and objects naturally associated with an underlying dynamical system.This dissertation presents, in the integrated framework of Dynamical Analysis, the probabilistic analysis of seemingly distinct problems in a unified way: the probabilistic study of the recurrence function of Sturmian words, and the probabilistic study of the Continued Logarithm algorithm.Sturmian words are a fundamental family of words in Word Combinatorics. They are in a precise sense the simplest infinite words that are not eventually periodic. Sturmian words have been well studied over the years, notably by Morse and Hedlund (1940) who demonstrated that they present a notable number theoretical characterization as discrete codings of lines with irrationalslope, relating them naturally to dynamical systems, in particular the Euclidean dynamical system. These words have never been studied from a probabilistic perspective. Here, we quantify the recurrence properties of a ``random'' Sturmian word, which are dictated by the so-called ``recurrence function''; we perform a complete asymptotic probabilistic study of this function, quantifying its mean and describing its distribution under two different probabilistic models, which present different virtues: one is a naturaly choice from an algorithmic point of view (but is innovative from the point of view of dynamical analysis), while the other allows a natural quantification of the worst-case growth of the recurrence function. We discuss the relation between these two distinct models and their respective techniques, explaining also how the two seemingly different techniques employed could be linked through the use of the Mellin transform. In this dissertation we also discuss our ongoing work regarding two special families of Sturmian words: those associated with a quadratic irrational slope, and those with a rational slope (not properly Sturmian). Our work seems to show the possibility of a unified study.The Continued Logarithm Algorithm, introduced by Gosper in Hakmem (1978) as a mutation of classical continued fractions, computes the greatest common divisor of two natural numbers by performing division-like steps involving only binary shifts and substractions. Its worst-case performance was studied recently by Shallit (2016), who showed a precise upper-bound for the number of steps and gave a family of inputs attaining this bound. In this dissertation we employ dynamical analysis to study the average running time of the algorithm, giving precise mathematical constants for the asymptotics, as well as other parameters of interest. The underlying dynamical system is akin to the Euclidean one, and was first studied by Chan (around 2005) from an ergodic, but the presence of powers of 2 in the quotients ingrains into the central parameters a dyadic flavour that cannot be grasped solely by studying this system. We thus introduce a dyadic component and deal with a two-component system. With this new mixed system at hand, we then provide a complete average-case analysis of the algorithm by Dynamical Analysis.
193

Modèle de confiance et ontologie probabiliste pilotés par réseaux bayésiens pour la gestion des accords de services dans l’environnement de services infonuagiques

Jules, Obed 08 1900 (has links)
No description available.
194

Localisation visuelle multimodale visible/infrarouge pour la navigation autonome / Multimodal visible/infrared visual localisation for autonomous navigation

Bonardi, Fabien 23 November 2017 (has links)
On regroupe sous l’expression navigation autonome l’ensemble des méthodes visantà automatiser les déplacements d’un robot mobile. Les travaux présentés seconcentrent sur la problématique de la localisation en milieu extérieur, urbain etpériurbain, et approchent la problématique de la localisation visuelle soumise à lafois à un changement de capteurs (géométrie et modalité) ainsi qu’aux changementsde l’environnement à long terme, contraintes combinées encore très peu étudiéesdans l’état de l’art. Les recherches menées dans le cadre de cette thèse ont porté surl’utilisation exclusive de capteurs de vision. La contribution majeure de cette thèseporte sur la phase de description et compression des données issues des images sousla forme d’un histogramme de mots visuels que nous avons nommée PHROG (PluralHistograms of Restricted Oriented Gradients). Les expériences menées ont été réaliséessur plusieurs bases d’images avec différentes modalités visibles et infrarouges. Lesrésultats obtenus démontrent une amélioration des performances de reconnaissance descènes comparés aux méthodes de l’état de l’art. Par la suite, nous nous intéresseronsà la nature séquentielle des images acquises dans un contexte de navigation afin defiltrer et supprimer des estimations de localisation aberrantes. Les concepts d’un cadreprobabiliste Bayésien permettent deux applications de filtrage probabiliste appliquéesà notre problématique : une première solution définit un modèle de déplacementsimple du robot avec un filtre d’histogrammes et la deuxième met en place un modèleplus évolué faisant appel à l’odométrie visuelle au sein d’un filtre particulaire.123 / Autonomous navigation field gathers the set of algorithms which automate the moves of a mobile robot. The case study of this thesis focuses on the outdoor localisation issue with additionnal constraints : the use of visual sensors only with variable specifications (geometry, modality, etc) and long-term apparence changes of the surrounding environment. Both types of constraints are still rarely studied in the state of the art. Our main contribution concerns the description and compression steps of the data extracted from images. We developped a method called PHROG which represents data as a visual-words histogram. Obtained results on several images datasets show an improvment of the scenes recognition performance compared to methods from the state of the art. In a context of navigation, acquired images are sequential such that we can envision a filtering method to avoid faulty localisation estimation. Two probabilistic filtering approaches are proposed : a first one defines a simple movement model with a histograms filter and a second one sets up a more complex model using visual odometry and a particules filter.
195

Conception sûre et optimale de systèmes dynamiques critiques auto-adaptatifs soumis à des événements redoutés probabilistes / Safe and optimal design of dynamical, critical self-adaptive systems subject to probabilistic undesirable events

Sprauel, Jonathan 19 February 2016 (has links)
Cette étude s’inscrit dans le domaine de l’intelligence artificielle, plus précisément au croisement des deux domaines que sont la planification autonome en environnement probabiliste et la vérification formelle probabiliste. Dans ce contexte, elle pose la question de la maîtrise de la complexité face à l’intégration de nouvelles technologies dans les systèmes critiques : comment garantir que l’ajout d’une intelligence à un système, sous la forme d’une autonomie, ne se fasse pas au détriment de la sécurité ? Pour répondre à cette problématique, cette étude a pour enjeu de développer un processus outillé, permettant de concevoir des systèmes auto-adaptatifs critiques, ce qui met en œuvre à la fois des méthodes de modélisation formelle des connaissances d’ingénierie, ainsi que des algorithmes de planification sûre et optimale des décisions du système. / This study takes place in the broad field of Artificial Intelligence, specifically at the intersection of two domains : Automated Planning and Formal Verification in probabilistic environment. In this context, it raises the question of the integration of new technologies in critical systems, and the complexity it entails : How to ensure that adding intelligence to a system, in the form of autonomy, is not done at the expense of safety ? To address this issue, this study aims to develop a tool-supported process for designing critical, self-adaptive systems. Throughout this document, innovations are therefore proposed in methods of formal modeling and in algorithms for safe and optimal planning.
196

Variational aleatoric uncertainty calibration in neural regression

Bhatt, Dhaivat 07 1900 (has links)
Des mesures de confiance calibrées et fiables sont un prérequis pour la plupart des systèmes de perception robotique car elles sont nécessaires aux modules de fusion de capteurs et de planification qui interviennent plus en aval. Cela est particulièrement vrai dans le cas d’applications où la sécurité est essentielle, comme les voitures à conduite autonome. Dans le contexte de l’apprentissage profond, l’incertitude prédictive est classée en incertitude épistémique et incertitude aléatoire. Il existe également une incertitude distributionnelle associée aux données hors distribution. L’incertitude aléatoire représente l’ambiguïté inhérente aux données d’entrée et est généralement irréductible par nature. Plusieurs méthodes existent pour estimer cette incertitude au moyen de structures de réseau modifiées ou de fonctions de perte. Cependant, en général, ces méthodes manquent de calibration, ce qui signifie que les incertitudes estimées ne représentent pas fidèlement l’incertitude des données empiriques. Les approches actuelles pour calibrer l’incertitude aléatoire nécessitent soit un "ensemble de données de calibration", soit de modifier les paramètres du modèle après l’apprentissage. De plus, de nombreuses approches ajoutent des opérations supplémentaires lors de l’inférence. Pour pallier à ces problèmes, nous proposons une méthode simple et efficace d’entraînement d’un régresseur neuronal calibré, conçue à partir des premiers principes de la calibration. Notre idée maîtresse est que la calibration ne peut être réalisée qu’en imposant des contraintes sur plusieurs exemples, comme ceux d’un mini-batch, contrairement aux approches existantes qui n’imposent des contraintes que sur la base d’un échantillon. En obligeant la distribution des sorties du régresseur neuronal (la distribution de la proposition) à ressembler à unedistribution cible en minimisant une divergence f , nous obtenons des modèles nettement mieuxcalibrés par rapport aux approches précédentes. Notre approche, f -Cal, est simple à mettre en œuvre ou à ajouter aux modèles existants et surpasse les méthodes de calibration existantes dansles tâches réelles à grande échelle de détection d’objets et d’estimation de la profondeur. f -Cal peut être mise en œuvre en 10-15 lignes de code PyTorch et peut être intégrée à n’importe quel régresseur neuronal probabiliste, de façon peu invasive. Nous explorons également l’estimation de l’incertitude distributionnelle pour la détection d’objets, et employons des méthodes conçues pour les systèmes de classification. Nous établissons un problème d’arrière-plan hors distribution qui entrave l’applicabilité des méthodes d’incertitude distributionnelle dans la détection d’objets. / Calibrated and reliable confidence measures are a prerequisite for most robotics perception systems since they are needed by sensor fusion and planning components downstream. This is particularly true in the case of safety-critical applications such as self-driving cars. In the context of deep learning, the sources of predictive uncertainty are categorized into epistemic and aleatoric uncertainty. There is also distributional uncertainty associated with out of distribution data. Epistemic uncertainty, also known as knowledge uncertainty, arises because of noise in the model structure and parameters, and can be reduced with more labeled data. Aleatoric uncertainty represents the inherent ambiguity in the input data and is generally irreducible in nature. Several methods exist for estimating aleatoric uncertainty through modified network structures or loss functions. However, in general, these methods lack calibration, meaning that the estimated uncertainties do not represent the empirical data uncertainty accurately. Current approaches to calibrate aleatoric uncertainty either require a held out calibration dataset or to modify the model parameters post-training. Moreover, many approaches add extra computation during inference time. To alleviate these issues, this thesis proposes a simple and effective method for training a calibrated neural regressor, designed from the first principles of calibration. Our key insight is that calibration can be achieved by imposing constraints across multiple examples, such as those in a mini-batch, as opposed to existing approaches that only impose constraints on a per-sample basis. By enforcing the distribution of outputs of the neural regressor (the proposal distribution) to resemble a target distribution by minimizing an f-divergence, we obtain significantly better-calibrated models compared to prior approaches. Our approach, f-Cal, is simple to implement or add to existing models and outperforms existing calibration methods on the large-scale real-world tasks of object detection and depth estimation. f-Cal can be implemented in 10-15 lines of PyTorch code, and can be integrated with any probabilistic neural regressor in a minimally invasive way. This thesis also explores the estimation of distributional uncertainty for object detection, and employ methods designed for classification setups. In particular, we attempt to detect out of distribution (OOD) samples, examples which are not part of training data distribution. I establish a background-OOD problem which hampers applicability of distributional uncertainty methods in object detection specifically.
197

Évaluation des facteurs de modulation de l’exposition du consommateur de poissons et de mammifères marins au méthylmercure : utilisation d’approches in vitro, in vivo et probabiliste

Charette, Tania 11 1900 (has links)
La chair de poisson et de mammifères marins constitue une source importante de protéines et de bons nutriments, tels que le sélénium (Se), la vitamine E et les acides gras polyinsaturés à longues chaînes. Cependant, la chair de ces animaux peut aussi bioaccumuler la forme organique de mercure (Hg), le méthylmercure (MeHg). Ce contaminant a fait l’objet de plusieurs études épidémiologiques, notamment en raison de sa neurotoxicité résultant d’une exposition in utero, étroitement reliée à l’ingestion de poissons fortement contaminés en MeHg. En réponse à ce risque toxicologique, les autorités sanitaires ont émis des lignes directrices quant à la consommation de poissons dans le but de protéger la population. Cependant, ces recommandations présentent certaines limites qui sont liées aux prémisses et aux omissions de l’équation déterministe utilisée pour évaluer l’exposition au MeHg par Santé Canada: (1) elles considèrent que 100% du Hg présent dans la chair de poisson est sous forme de MeHg, (2) elles supposent que le MeHg est distribué de façon homogène à l’intérieur de la chair de poisson, (3) elles prennent pour acquis que 100% du MeHg sera absorbé par le consommateur et (4) par l’utilisation d’une approche déterministe, elles omettent la potentielle incertitude et variabilité intra-populationnelle au niveau des données. L’objectif de cette thèse visait à explorer ces limites, afin de mieux comprendre l’exposition du consommateur au MeHg. Nous avons tout d’abord évalué la distribution du MeHg, du Se (antagoniste du MeHg) et de l’arsenic (As : antagoniste du Se) à l’intérieur de l’appareil musculaire d’un même poisson, en fonction de sa composition en biomolécules (protéines et lipides). Nos résultats démontrent que la présence concomitante de muscles rouges et blancs induit un gradient important de biomolécules à l’intérieur de l’appareil musculaire d’un même individu, provoquant par le fait même une variation moyenne de 2.2 fois quant à la distribution des métal(loide)s, qui se distribuent en fonction de leurs affinités biochimiques. Ces résultats confirment que le MeHg peut se distribuer de façon hétérogène à l’intérieur du muscle de poisson, ce qui pourrait mener à une sous- ou surestimation de l’exposition au MeHg pour le consommateur, en fonction de la partie du poisson qui est consommée. Par la suite, nous nous sommes attardés à l’hypothèse stipulant que 100% du MeHg est absorbé par le consommateur. Une des méthodes utilisées pour estimer la fraction de MeHg qui serait disponible à être absorbée par la paroi intestinale consiste à mesurer la bioaccessibilité, c’est-à-dire la fraction soluble de MeHg, à l’aide d’un modèle de digestion in vitro. Plusieurs études ayant utilisé cette approche observent que la cuisson de la chair de poisson diminue significativement la bioaccessibilité du MeHg, ce qui diminuerait sa potentielle absorption intestinale. Nous avons donc conduit une expérience in vivo en utilisant un modèle porcin et en parallèle, nous avons utilisé un modèle de digestion in vitro. Selon les profils sanguins porcins, la biodisponibilité orale du MeHg provenant de la chair de thon cuite n’est pas moins élevée que celle mesurée avec la chair de thon crue. En contraste, nous avons obtenu une bioaccessibilité de MeHg moins élevée avec la chair de thon cuite. Nos résultats démontrent que les modèles de digestion in vitro actuels ne sont pas suffisamment optimisés pour être utilisés directement dans les calculs d’exposition au MeHg, tels que proposés récemment dans la littérature. Finalement, nous avons testé l’impact d’ajout de variables supplémentaires dans l’équation déterministe actuellement utilisée par Santé Canada pour évaluer l’exposition du consommateur au MeHg, en conduisant une évaluation probabiliste du risque. Notamment, nous avons considéré (1) la proportion de Hg méthylée par rapport à la quantité de Hg, (2) la bioaccessibilité et (3) l’augmentation de la concentration du MeHg suite à la cuisson de la chair de poisson, créée par la perte d’humidité. Nos résultats sont clairs : chaque ajout de variable indépendante augmente ou diminue significativement l’exposition calculée, soulignant la sensibilité de l’équation utilisée pour évaluer l’exposition au MeHg. Ceci suggère que de plus amples recherches devront être conduites avant d’effectuer une quelconque modification dans l’équation de l’exposition au MeHg, par souci de ne pas sous-estimer celle-ci. Cette thèse illustre que les recommandations sont difficilement généralisables puisque la chair de poisson et de mammifères présente des propriétés différentes, en fonction de l’espèce animale considérée. Cette thèse démontre que l’équation déterministe utilisée par Santé Canada dans l’évaluation de l’exposition au MeHg devrait être mieux approfondie par la sphère scientifique, particulièrement dans le cas des mammifères marins. / Fish flesh and marine mammals is an important source of proteins and nutrients, such as selenium (Se), vitamin E and long chain polyunsaturated fatty acids. However, flesh of those animals may bioaccumulate the organic form of mercury (Hg), methylmercury (MeHg). This contaminant has been the subject of various epidemiological studies, namely because of its neurotoxicity through in utero exposure, closely related to highly MeHg contaminated fish consumption. In response to this toxicological risk, health authorities have set fish consumption guidelines in order to protect the population. Still, those guidelines present limits that are related to premises and omissions of the determinist equation used by Health Canada in order to assess the exposure to MeHg: (1) it considers that 100% of Hg in fish flesh is MeHg, (2) it supposes that MeHg is homogeneously distributed within fish flesh, (3) it takes for granted that 100% of MeHg will be absorbed by the consumer and (4) by using a determinist approach, they omit the potential uncertainty and intra-population variability in the data. The aim of this thesis was to address these limits, in order to better understand the exposure of MeHg for consumers. We first assessed the distribution of MeHg, Se (MeHg antagonist) and arsenic (As, Se antagonist) within fish musculature, as a function of its biomolecule composition (proteins and lipids). Our results demonstrated that the concomitant presence of white and red muscle induces a large gradient of protein and lipid within the muscular apparatus of the same individual. This in turn causes on average a variation by 2.2-fold regarding MeHg, Se and As bioaccumulation, which are distributed according to their biochemical affinity. Those results confirmed that MeHg can distribute heterogeneously within fish muscle, which could lead to an under- or overestimation of MeHg exposure for consumers, as function of the part of the fish consumed. Subsequently, we focused on the hypothesis stipulating that 100% of MeHg is absorbed by the consumer. A method used to assess the fraction of MeHg that would be available to be further absorbed by the gut wall consists of measuring the bioaccessibility, i.e. the soluble fraction of MeHg, using an in vitro digestion model. Several studies that assessed the bioaccessibility of cooked fish flesh observed a decreased of MeHg solubility, that would potentially diminish its intestinal absorption. However, those results have not been yet validated in vivo. To that end, we conducted an in vivo experience using the pig model and, in parallel, we used an in vitro digestion model. According to the pig’s blood profile, the oral bioavailability of MeHg from cooked tuna flesh is not less bioavailable than the MeHg from the raw tuna. Contrasting results have been found with the in vitro model, with a decrease of MeHg bioaccessibility observed when fish flesh is cooked. Our results demonstrated that in vitro digestion models are not optimized to be directly used in MeHg exposure calculus as recently proposed in the literature. Finally, we tested the impact of adding variables to the deterministic equation currently used by Health Canada to assess consumer exposure to MeHg, by conducting a probabilistic risk assessment. We considered (1) the proportion of Hg that is MeHg, (2) the MeHg bioaccessibility and (3) the increased of MeHg level after the cooking of fish flesh due to moisture loss. Our results showed that each individual variable significantly increases or decreases the calculated exposure. Thereby, it highlights the sensitivity of the equation used to assess the exposure of MeHg. It strongly suggests that more research is needed to improve Hg exposure calculation to avoid underestimating the potential health risks of MeHg exposure. This thesis presents important results regarding the exposure of MeHg through fish and marine mammals’ consumption. This thesis shows that the recommendations are difficult to generalize since the flesh of fish and mammals has different properties, depending on the animal species considered. The conclusions of this thesis demonstrate that the premises and omissions of the deterministic equation used by Health Canada in the assessment of exposure to Hg should be better investigated by the scientific sphere, especially in the case of marine mammals.
198

Calcul en fatigue des ouvrages métalliques par la mécanique de la rupture (approche probabiliste)

Jiang, Li 21 October 1994 (has links) (PDF)
Cette thèse est une contribution à l'analyse probabiliste des ponts métalliques ou mixtes en fatigue. Dans cette thèse, nous proposons des méthodes originales, pour calculer l'indice de fiabilité ß et évaluer la probabilité de ruine, basées respectivement sur le modèle d'endommagement linéaire de Miner et sur la loi de propagation de fissure de Paris à seuil, qui prennent en compte les aléas quantifiés sur les charges de trafic réel et sur la résistance déduite des essais de fatigue. L'application du théorème central limite permet des calculs analytiques explicites du dommage cumulé. La modélisation de l'avancement de fissure par processus Markovien simplifie les calculs de la distribution de probabilité. Un programme informatique est fait pour calculer l'intégrale J et pour déterminer le facteur d'intensité de contraintes.
199

Étude probabiliste de systèmes de particules en interaction : applications à la simulation moléculaire / Probabilistic study of interacting particle systems : applications to molecular simulation

Roux, Raphaël 06 December 2010 (has links)
Ce travail présente quelques résultats sur les systèmes de particules en interaction pour l'interprétation probabiliste des équations aux dérivées partielles, avec des applications à des questions de dynamique moléculaire et de chimie quantique. On présente notamment une méthode particulaire permettant d'analyser le processus de la force biaisante adaptative, utilisé en dynamique moléculaire pour le calcul de différences d'énergies libres. On étudie également la sensibilité de dynamiques stochastiques par rapport à un paramètre, en vue du calcul des forces dans l'approximation de Born-Oppenheimer pour rechercher l'état quantique fondamental de molécules. Enfin, on présente un schéma numérique basé sur un système de particules pour résoudre des lois de conservation scalaires, avec un terme de diffusion anormale se traduisant par une dynamique de sauts sur les particules / This work presents some results on stochastically interacting particle systems and probabilistic interpretations of partial differential equations with applications to molecular dynamics and quantum chemistry. We present a particle method allowing to analyze the adaptive biasing force process, used in molecular dynamics for the computation of free energy differences. We also study the sensitivity of stochastic dynamics with respect to some parameter, aiming at the computation of forces in the Born-Oppenheimer approximation for determining the fundamental quantum state of molecules. Finally, we present a numerical scheme based on a particle system for the resolution of scalar conservation laws with an anomalous diffusion term, corresponding to a jump dynamics on the particles
200

Optimization and uncertainty handling in air traffic management / Optimisation et gestion de l'incertitude du trafic aérien

Marceau Caron, Gaetan 22 September 2014 (has links)
Cette thèse traite de la gestion du trafic aérien et plus précisément, de l’optimisation globale des plans de vol déposés par les compagnies aériennes sous contrainte du respect de la capacité de l’espace aérien. Une composante importante de ce travail concerne la gestion de l’incertitude entourant les trajectoires des aéronefs. Dans la première partie du travail, nous identifions les principales causes d’incertitude au niveau de la prédiction de trajectoires. Celle-ci est la composante essentielle à l’automatisation des systèmes de gestion du trafic aérien. Nous étudions donc le problème du réglage automatique et en-ligne des paramètres de la prédiction de trajectoires au cours de la phase de montée avec l’algorithme d’optimisation CMA-ES. La principale conclusion, corroborée par d’autres travaux de la littérature, implique que la prédiction de trajectoires des centres de contrôle n’est pas suffisamment précise aujourd’hui pour supporter l’automatisation complète des tâches critiques. Ainsi, un système d’optimisation centralisé de la gestion du traficaérien doit prendre en compte le facteur humain et l’incertitude de façon générale.Par conséquent, la seconde partie traite du développement des modèles et des algorithmes dans une perspective globale. De plus, nous décrivons un modèle stochastique qui capture les incertitudes sur les temps de passage sur des balises de survol pour chaque trajectoire. Ceci nous permet d’inférer l’incertitude engendrée sur l’occupation des secteurs de contrôle par les aéronefs à tout moment.Dans la troisième partie, nous formulons une variante du problème classique du Air Traffic Flow and Capacity Management au cours de la phase tactique. L’intérêt est de renforcer les échanges d’information entre le gestionnaire du réseau et les contrôleurs aériens. Nous définissons donc un problème d’optimisation dont l’objectif est de minimiser conjointement les coûts de retard et de congestion tout en respectant les contraintes de séquencement au cours des phases de décollage et d’attérissage. Pour combattre le nombre de dimensions élevé de ce problème, nous choisissons un algorithme évolutionnaire multiobjectif avec une représentation indirecte du problème en se basant sur des ordonnanceurs gloutons. Enfin, nous étudions les performances et la robustesse de cette approche en utilisant le modèle stochastique défini précédemment. Ce travail est validé à l’aide de problèmes réels obtenus du Central Flow Management Unit en Europe, que l’on a aussi densifiés artificiellement. / In this thesis, we investigate the issue of optimizing the aircraft operators' demand with the airspace capacity by taking into account uncertainty in air traffic management. In the first part of the work, we identify the main causes of uncertainty of the trajectory prediction (TP), the core component underlying automation in ATM systems. We study the problem of online parameter-tuning of the TP during the climbing phase with the optimization algorithm CMA-ES. The main conclusion, corroborated by other works in the literature, is that ground TP is not sufficiently accurate nowadays to support fully automated safety-critical applications. Hence, with the current data sharing limitations, any centralized optimization system in Air Traffic Control should consider the human-in-the-loop factor, as well as other uncertainties. Consequently, in the second part of the thesis, we develop models and algorithms from a network global perspective and we describe a generic uncertainty model that captures flight trajectories uncertainties and infer their impact on the occupancy count of the Air Traffic Control sectors. This usual indicator quantifies coarsely the complexity managed by air traffic controllers in terms of number of flights. In the third part of the thesis, we formulate a variant of the Air Traffic Flow and Capacity Management problem in the tactical phase for bridging the gap between the network manager and air traffic controllers. The optimization problem consists in minimizing jointly the cost of delays and the cost of congestion while meeting sequencing constraints. In order to cope with the high dimensionality of the problem, evolutionary multi-objective optimization algorithms are used with an indirect representation and some greedy schedulers to optimize flight plans. An additional uncertainty model is added on top of the network model, allowing us to study the performances and the robustness of the proposed optimization algorithm when facing noisy context. We validate our approach on real-world and artificially densified instances obtained from the Central Flow Management Unit in Europe.

Page generated in 0.0905 seconds