• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 109
  • 25
  • 1
  • 1
  • Tagged with
  • 425
  • 205
  • 99
  • 42
  • 39
  • 38
  • 38
  • 37
  • 36
  • 35
  • 32
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Evaluation de la performance des Systèmes Instrumentés de Sécurité à paramètres imprécis

Mechri, Walid 11 April 2011 (has links) (PDF)
Dans ce travail, le problème d'imprécision dans l'évaluation de la performance des systèmes instrumentés de sécurité est traité. Deux méthodes d'évaluation sont appliquées à un SIS. La première méthode d'évaluation utilise les arbres de défaillances, la seconde se base sur les chaînes de Markov. L'imperfection des données concerne les paramètres caractéristiques des SIS, tels que le taux de défaillance et le facteur de défaillance de cause commune. Les probabilités élémentaires sont remplacées par des modèles mathématiques permettant aux experts fiabilistes d'exprimer leur incertitude dans l'énoncé des valeurs de probabilités de défaillances et d'autres paramètres des systèmes. Nous montrons comment l'imprécision sur la valeur de taux de défaillance induit des variations particulièrement significatives sur la qualification du niveau d'intégrité de sécurité du système. Ce travail peut avoir beaucoup d'intérêt pour le décideur de connaître l'imprécision sur les paramètres de performance des systèmes.
272

Fusion d'informations et segmentation d'images basées sur la théorie des fonctions de croyance : Application à l'imagerie médicale TEP multi-traceurs

Lelandais, Benoît 23 April 2013 (has links) (PDF)
L'imagerie fonctionnelle par Tomographie d'Émission de Positons (TEP) multi-traceurs pourrait avoir un rôle essentiel dans le traitement du cancer par radiothérapie externe. Les images TEP aux traceurs 18Fluoro-Déoxy-Glucose (18 FDG), 18F-Fluoro-L Thymidine (18 FLT) et 18Fluoro-Misonidazole (18 FMiso) sont respectivement témoins du métabolisme glucidique, de la prolifération cellulaire et de l'hypoxie (manque d'oxygénation des cellules). L'utilisation conjointe de ces trois traceurs pourrait permettre de définir des sous-volumes donnant lieu à un traitement particulier. À cet effet, il est impératif de mettre à la disposition du corps médical un outil de segmentation et de fusion de ces images. Les images TEP ont pour caractéristique d'être très bruitées et d'avoir une faible résolution spatiale. Ces imperfections ont pour conséquence respective d'induire la présence d'informations incertaines et imprécises dans les images. Notre contribution réside dans la proposition d'une méthode, nommée EVEII pour Evidential Voxel-based Estimation of Imperfect Information, basée sur la théorie des fonctions de croyance, offrant une segmentation fiable et précise dans le contexte d'images imparfaites. Elle réside également dans la proposition d'une méthode de fusion d'images TEP multi-traceur. L'étude d'EVEII sur des images simulées a révélé qu'elle est la mieux adaptée comparée à d'autres méthodes basées sur la théorie des fonctions de croyance, en donnant un taux de bonne reconnaissance des pixels de près de 100 % lorsque le rapport signal-sur-bruit dépasse 2, 5. Sur les fantômes TEP physiques, simulant les caractéristiques des images TEP au 18 FDG, à la 18 FLT et au 18 FMiso, les résultats ont montré que notre méthode estime le mieux les volumes des sphères à segmenter comparé à des méthodes de la littérature proposées à cet effet. Sur les deux fantômes faiblement et fortement bruités respectivement, les biais moyens d'erreur d'estimation des volumes sont seulement de -0,27 et 3,89 mL, témoignant de sa pertinence à visée de segmentation d'images TEP. Enfin, notre méthode a été appliquée à la segmentation d'images TEP multi-traceurs chez trois patients. Les résultats ont montré que notre méthode est adaptée à la fusion d'images TEP multi-traceurs, offrant à cet effet un ensemble d'images paramétriques permettant de différencier les différents tissus biologiques.
273

Maîtrise des incertitudes de l'environnement de la chaîne logistique : une analyse au regard du décalage entre théorie et pratique

Ruel, Salomée 29 August 2013 (has links) (PDF)
Les entreprises industrielles évoluent désormais dans un environnement de plus en plus incertain. Ces incertitudes sont liées à la fois à l'amont et à l'aval de la chaîne logistique, mais aussi à la configuration interne de la chaîne et de ses systèmes d'information ou encore à des comportements organisationnels néfastes. Cette thèse a pour objectif de comprendre comment les entreprises industrielles gèrent les incertitudes présentes dans l'environnement de leurs chaînes logistiques. Notre recherche se déroule en deux étapes : une étude préliminaire et principale. L'observation participante menée en étude préliminaire a permis de montrer qu'une entreprise réputée en management de la chaîne logistique a choisi de restructurer ses ressources afin de diminuer la vulnérabilité de sa chaîne logistique. Ainsi, l'étude principale s'articule autour de l'approche basée sur les ressources et du courant des capacités dynamiques. La revue de la littérature montre que l'agilité et la résilience sont deux capacités dynamiques du management de la chaîne logistique. Mobilisant la méthode des cas comme heuristique permettant d'organiser la recherche, six études de cas sont menées au sein d'entreprises industrielles de tailles hétérogènes et de secteurs d'activités variés. Une fois les données collectées et codées sous forme de codage multithématique sur le logiciel NVIVO 8, les résultats s'organisent autour du protocole de cas. Ils retracent les incertitudes rencontrées par les entreprises industrielles et s'attachent à montrer quels outils, pratiques et stratégies sont développés pour diminuer la vulnérabilité. Ces outils, pratiques et stratégies sont des construits des capacités dynamiques et permettent d'identifier si les entreprises font preuves d'agilité et de résilience. Puis, les résultats montrent les difficultés au développement des capacités dynamiques et l'analyse identifie le manque de connaissance en management de la chaîne logistique comme barrière principale. La discussion de la thèse s'oriente autour de la connaissance comme réponse à l'incertitude. La thèse met en avant un décalage entre des connaissances académiques avancées en management de la chaîne logistique et des connaissances plus restreintes en entreprises. La littérature académique s'intéresse principalement aux entreprises matures en management de la chaîne logistique. Cependant, elles ne sont pas représentatives des autres entreprises industrielles. En s'intéressant au lien entre recherche, enseignement et pratique, il est possible d'identifier que le manque de connaissance en management de la chaîne logistique laisse un espace à la création d'effets de mode à la fois dans le monde de la pratique et de la recherche. Finalement, la thèse met en avant les conditions d'émergence de formes d'isomorphisme institutionnel dans les institutions universitaires, engendrant des effets de mode dans les travaux académiques, le tout n'ayant qu'un lien relatif avec la réalité empirique.
274

Planification réactive et robuste au sein d'une chaîne logistique

Gharbi, Hassen 10 November 2012 (has links) (PDF)
Ce travail s'intéresse à la planification tactique de chaînes logistiques dans un environnement incertain et perturbé. Dans le cadre de relations "point-à point", nous proposons une approche permettant d'élaborer une planification tactique optimale et réactive d'un maillon d'une chaîne logistique en présence de paramètres incertains et de perturbations. Notre approche se fonde sur une structure à deux niveaux décisionnels. Le premier niveau effectue une planification agrégée en minimisant le coût global de production. Il établit ensuite "un plan de guidage" qui est transmis au niveau détaillé. Ce dernier effectue sa planification en suivant "au mieux" le plan de guidage et en prenant en compte les contraintes et données détaillées ignorées au niveau supérieur. Le niveau détaillé adopte un processus dynamique de planification à horizon glissant. Il réactualise ses données à chaque étape de planification afin d'assurer la réactivité du processus décisionnel. Nous caractérisons explicitement l'inertie du système décisionnel en distinguant deux phases : la phase d'anticipation et la phase de réalisation. Chaque phase est caractérisée par un délai temporel. Ainsi, nous proposons une modélisation originale du processus décisionnel de chaque décision via trois variables. Le niveau détaillé est formulé selon un programme linéaire. Au niveau agrégé, nous proposons un modèle global ayant l'originalité de prendre en compte les spécificités du processus décisionnel détaillé. Le couplage entre les deux niveaux est assuré par le plan de guidage. Selon les informations incluses dans le plan de guidage, le niveau agrégé accorde un certain degré d'autonomie au niveau détaillé, ceci conditionne la réactivité et la robustesse de la planification. Dans notre travail, nous considérons trois types de guidage : deux guidages budgétaires "globaux" et un guidage "prescriptif" par la sous-traitance agrégée. Notre approche est évaluée par simulation dans le cadre d'une demande incertaine. Pour cela, nous développons deux outils de simulation et un ensemble d'indicateurs de performances. Les expérimentations réalisées confirment la performance de notre approche par rapport à des approches classiques et mettent en évidence l'influence du type de guidage et du profil de la demande détaillée sur la réactivité et la robustesse des solutions trouvées.
275

Sur la commande de systèmes non linéaires par gains robustes séquencés

Khansah, Hael 16 July 2007 (has links) (PDF)
Dans ce travail, nous avons développé une approche systématique traitant un problème particulier dans le domaine de la commande non linéaire. Il concerne le fait d'assurer une transition stable entre deux points opérationnels d'un système non linéaire. Cette approche emploie la stratégie de séquencement de gain et la notion d'incertitude bornée en norme pour approximer un système non linéaire à travers une famille de systèmes linéaires incertains à incertitude bornée en norme. Autour d'un ensemble de points d'équilibre, des lois de commande locale sont déterminées en garantissant quelques spécifications de performances locales. Le séquencement est déterminé de sorte que la stabilité est garantie. Par interpolation polynômiale continue, une loi de commande continue est établie à partir des points d'équilibre trouvés hors ligne et des correcteurs associés. Une stratégie de commande séquencée par retour d'état ainsi qu'une stratégie par retour de sortie dynamique ont été envisagées. Dans le premier cas, la commutation est faite lorsque l'état se trouve dans le bassin d'attraction du point d'équilibre ultérieur visé. Dans le deuxième, nous avons déterminé une loi de commande par retour de sortie dynamique o'u la politique de commutation est basée sur les états éstimés. Quelques exemples ont été donnés pour montrer l'efficacité de la méthode proposée.
276

Household and corporate behaviour under uncertainty /

Ekman, Erik. January 1997 (has links)
Thesis (Ph. D.)--Uppsala University, 1997. / Includes bibliographical references.
277

Modèles de caméras et algorithmes pour la création de contenu video 3D / Camera Models and algorithms for 3D video content creation

Pujades Rocamora, Sergi 14 October 2015 (has links)
Des optiques à longue focale ont été souvent utilisées dans le cinéma 2D et la télévision, soit dans le but de se rapprocher de la scène, soit dans le but de produire un effet esthétique grâce à la déformation de la perspective. Toutefois, dans le cinéma ou la télévision 3D, l'utilisation de longues focales crée le plus souvent un "effet carton” ou de la divergence oculaire.Pour résoudre ce problème, les méthodes de l'état de l'art utilisent des techniques de transformation de la disparité, qui sont une généralisation de l'interpolation de points de vue.Elles génèrent de nouvelles paires stéréoscopiques à partir des deux séquences d'images originales. Nous proposons d'utiliser plus de deux caméras pour résoudre les problèmes non résolus par les méthodes de transformation de la disparité.Dans la première partie de la thèse, nous passons en revue les causes de la fatigue visuelle et de l'inconfort visuel lors de la visualisation d'un film stéréoscopique. Nous modélisons alors la perception de la profondeur de la vision stéréoscopique d'une scène filmée en 3D avec deux caméras, et projetée dans une salle de cinéma ou sur un téléviseur 3D. Nous caractérisons mathématiquement cette distorsion 3D, et formulons les contraintes mathématiques associées aux causes de la fatigue visuelle et de l'inconfort. Nous illustrons ces distorsions 3D avec un nouveau logiciel interactif, la “salle de projection virtuelle".Afin de générer les images stéréoscopiques souhaitées, nous proposons d'utiliser le rendu basé image. Ces techniques comportent généralement deux étapes. Tout d'abord, les images d'entrée sont transformées vers la vue cible, puis les images transformées sont mélangées. Les transformations sont généralement calculés à l'aide d'une géométrie intermédiaire (implicite ou explicite). Le mélange d'images a été largement étudié dans la littérature et quelques heuristiques permettent d'obtenir de très bonnes performances.Cependant, la combinaison des heuristiques proposées n'est pas simple et nécessite du réglage manuel de nombreux paramètres.Dans cette thèse, nous proposons une nouvelle approche bayésienne au problème de synthèse de nouveaux points de vue, basé sur un modèle génératif.Le modèle génératif proposé tient compte de l'incertitude sur la transformation d'image. Le formalisme bayésien nous permet de déduire l'énergie du modèle génératif et de calculer les images désirées correspondant au maximum a posteriori. La méthode dépasse en termes de qualité les techniques de l'état de l'art du rendu basé image sur des jeux de données complexes. D'autre part, les équations de l'énergie fournissent une formalisation des heuristiques largement utilisés dans les techniques de rendu basé image.Le modèle génératif proposé aborde également le problème de la super-résolution, permettant de rendre des images à une résolution plus élevée que les images de départ.Dans la dernière partie de cette thèse, nous appliquons la nouvelle technique de rendu au cas du zoom stéréoscopique et nous montrons ses performances. / Optics with long focal length have been extensively used for shooting 2D cinema and television, either to virtually get closer to the scene or to produce an aesthetical effect through the deformation of the perspective. However, in 3D cinema or television, the use of long focal length either creates a “cardboard effect” or causes visual divergence. To overcome this problem, state-of-the-art methods use disparity mapping techniques, which is a generalization of view interpolation, and generate new stereoscopic pairs from the two image sequences. We propose to use more than two cameras to solve for the remaining issues in disparity mapping methods.In the first part of the thesis, we review the causes of visual fatigue and visual discomfort when viewing a stereoscopic film. We then model the depth perception from stereopsis of a 3D scene shot with two cameras, and projected in a movie theater or on a 3DTV. We mathematically characterize this 3D distortion, and derive the mathematical constraints associated with the causes of visual fatigue and discomfort. We illustrate these 3D distortions with a new interactive software, “The Virtual Projection Room”.In order to generate the desired stereoscopic images, we propose to use image-based rendering. Those techniques usually proceed in two stages. First, the input images are warped into the target view, and then the warped images are blended together. The warps are usually computed with the help of a geometric proxy (either implicit or explicit). Image blending has been extensively addressed in the literature and a few heuristics have proven to achieve very good performance. Yet the combination of the heuristics is not straightforward, and requires manual adjustment of many parameters.In this thesis, we propose a new Bayesian approach to the problem of novel view synthesis, based on a generative model taking into account the uncertainty of the image warps in the image formation model. The Bayesian formalism allows us to deduce the energy of the generative model and to compute the desired images as the Maximum a Posteriori estimate. The method outperforms state-of-the-art image-based rendering techniques on challenging datasets. Moreover, the energy equations provide a formalization of the heuristics widely used in image-based rendering techniques. Besides, the proposed generative model also addresses the problem of super-resolution, allowing to render images at a higher resolution than the initial ones.In the last part of this thesis, we apply the new rendering technique to the case of the stereoscopic zoom and show its performance.
278

La transition énergétique / The energy transition

Dato, Prudence 09 December 2016 (has links)
La transition vers les énergies renouvelables implique deux types de préoccupations environnementales. Les combustibles fossiles sont épuisables et leur utilisation génère des externalités négatives à travers des dommages environnementaux irréversibles. En outre, il existe des possibilités de synergies entre les mesures d'efficacité énergétique et l’adoption de l'énergie renouvelable dans la mesure où les premières réduisent la demande d'énergie de sorte que la dernière puisse commencer à réduire les émissions futures de gaz à effet de serre. L'objectif principal de cette thèse est d'analyser la transition énergétique optimale dans un contexte de survenance certaine et incertaine d'une catastrophe environnementale et de déterminer les instruments incitatifs au niveau des ménages en vue de stimuler la transition énergétique.La thèse est composée de quatre chapitres qui traitent indépendamment des différentes questions de la transition énergétique. Le premier chapitre met l'accent sur la transition énergétique optimale impliquant des décisions à la fois sur l'adoption de l'énergie renouvelable et de l'investissement dans les technologies d'économie d'énergie, quand il y a un seuil de pollution certain qui déclenche une catastrophe environnementale. Le deuxième chapitre étudie la transition optimale vers les énergies renouvelables quand la survenance de la catastrophe environnementale est incertaine. Le troisième chapitre cherche à comprendre le comportement des ménages par rapport à leurs décisions d'adopter simultanément les énergies renouvelables et à investir dans l'efficacité énergétique. Finalement, le quatrième chapitre examine le rôle des réseaux intelligents dans l'intégration de l'énergie renouvelable intermittente afin de faciliter la transition énergétique. / The transition to renewable energy involves two kinds of environmental concerns. First, fossil fuels are exhaustible and second, their use generates negative externalities through irreversible environmental damage. Furthermore, there are possible synergies between energy efficiency measures and renewable energy adoption in the sense that the former reduces the energy demand so that the latter can begin to cut future greenhouse gases emissions. The main objective of this dissertation is to analyze the optimal energy transition under certain and uncertain occurrence of environmental catastrophe and to determine incentive-based instruments at the household level in order to boost the energy transition. The dissertation consists of four chapters that independently present and discuss different issues of energy transition. The first chapter focuses on the optimal energy transition involving decisions about both renewable energy adoption and investment in energy saving technologies, when there is a certain pollution threshold that triggers the occurrence of environmental catastrophe. The second chapter investigates the optimal transition to renewable energy under uncertain occurrence of environmental catastrophe. The third chapter is devoted to understanding household behavior regarding energy transition. The fourth chapter explores the role of smart-grids in integrating intermittent renewable energy to facilitate the energy transition
279

Etude du traitement cérébral d'un contexte visuel prédictif dans l'autisme / Study of the brain mechanisms involved in visual predicitive context processing in autism

Thillay, Alix 08 December 2015 (has links)
Des réactions inhabituelles et disproportionnées face aux changements survenant de manière imprévisible dans l’environnement sont observées dans l’autisme. L’objectif de ce travail est de caractériser chez des adolescents et des jeunes adultes avec autisme les mécanismes neurophysiologiques impliqués dans le traitement d’un contexte visuel prédictif à partir de l’analyse des potentiels évoqués et des oscillations cérébrales. L’étude de la maturation au cours de l’adolescence chez le sujet au développement typique montre que les mécanismes de prédiction sont matures dès l’âge de 12 ans. Les personnes avec autisme parviennent à extraire l’information pertinente dans un contexte simple, certain et explicite, et à l’utiliser pour se préparer à la survenue d’un événement afin d’y avoir une réponse adaptée. Ces résultats suggèrent que les mécanismes de traitement d’un contexte visuel prédictif dans un contexte certain sont préservés dans l’autisme. Toutefois, les personnes avec autisme sur-anticipent les stimulations imprévisibles, en accord avec leur impression de surcharge sensorielle. Elles présentent également des difficultés pour moduler de manière flexible les activités corticales en fonction du niveau d’incertitude du contexte, en accord avec le défaut d’adaptation à un monde en perpétuel changement. Ce travail suggère qu’un dysfonctionnement des mécanismes de prédiction dans un contexte incertain pourrait fournir un cadre théorique permettant de mieux comprendre les particularités rencontrées dans l'autisme. / Individuals with autism react in an unusual and disproportionate way if unpredictable changes occur in their environment. The aim of the present work is to investigate brain mechanisms involved in visual predictive context processing in adolescents and adults with autism using analysis of event-related potentials and brain oscillations. The developmental study shows that mechanisms of prediction are mature by the age of 12 in typically developing adolescents. Individuals with autism are able to extract relevant information from the stimulus train in a simple, certain and explicit context, to use it in order to anticipate the occurrence of an event and to have an appropriate response, suggesting preserved extraction and use of predictive information during a certain context. However, individuals with autism over-anticipate stimuli during an uncertain context, consistent with the sense of being overwhelmed by incoming information, and also cannot flexibly modulate cortical activity according to changing levels of uncertainty, in agreement with atypical adaptation in an ever-changing world. This work suggests that a dysfunction of predictive processing in an uncertain context might provide a theoretical framework to better understand the symptoms encountered in autism.
280

Développement d'un AFM virtuel pour l'évaluation du bilan d'incertitude de l'AFM métrologique du LNE / Development of a Virtuel AFM to evaluate the uncertainty budget of the LNE's metrological AFM

Ceria, Paul 05 July 2017 (has links)
À l'heure où les nanotechnologies sont en plein essor, la précision des mesures réalisées à l'échelle nanométrique devient un défi essentiel pour améliorer les performances et la qualité des produits intégrant des nano. Pour répondre aux besoins sous-jacents en nanométrologie dimensionnelle, le Laboratoire National de métrologie et d'Essais (LNE) a conçu intégralement un Microscope à Force Atomique métrologique (mAFM). Son objectif principal est d'assurer la traçabilité au mètre défini par le Système International d'unités (SI) pour les mesures à l'échelle nanométrique. Pour cela, le mAFM utilise quatre interféromètres différentiels qui mesurent en temps réel le déplacement relatif de la pointe par rapport à l'échantillon. Cet instrument de référence est destiné à l'étalonnage d'étalons de transfert couramment utilisés en microscopie à champ proche (SPM) et en microscopie électronique à balayage (SEM). Lors de ce processus, une incertitude de mesure est évaluée. Elle détermine un niveau de confiance de l'étalonnage réalisé par le mAFM. Cette incertitude est généralement évaluée grâce à des mesures expérimentales permettant de déterminer l'impact de certaines sources d'erreur qui dégradent les mesures à l'échelle du nanomètre. Pour d'autres sources d'erreur, leur évaluation reste complexe ou expérimentalement impossible. Pour surmonter cette difficulté, le travail de thèse a consisté à mettre en place un modèle numérique de l'instrument nommé " AFM virtuel ". Il permet de prévoir l'incertitude de mesure du mAFM du LNE en ciblant les sources critiques d'erreur grâce à l'utilisation d'outils statistiques tels que la Méthode de Monte Carlo (MCM), les plans de Morris et les indices de Sobol. Le modèle utilise essentiellement la programmation orientée objet afin de prendre en compte un maximum d'interactions parmi les 140 paramètres d'entrée, en intégrant des sources jusqu'ici négligées ou surestimées par manque d'informations. / At present where nanotechnology applications are growing fast and nano products spreading worldwide, measurement accuracy at nanometer scale becomes an essential challenge to improve the performance and the quality of products integrating nano. To meet the specific needs in the field of dimensional nanometrology, LNE (French metrology institute) integrally designed a metrological Atomic Force Microscope (mAFM). Its main objective is to ensure the traceability of nanoscale measurements to the meter as defined by the International System of Units (SI). The mAFM uses four differential interferometers which measure the tip to sample relative position. This instrument will be devoted to the calibration of transfer standards commonly used in scanning probe microscopy (SPM) and scanning electron microscopy (SEM). During this process, a measurement uncertainty is evaluated to determine a confidence level of the calibration realized by the mAFM. This uncertainty is usually evaluated thanks to experimental measurements which determine the impact of some error sources which degrade measurements at the nanoscale. For other components, their evaluation can be more complex and sometimes impossible to estimate experimentally. To overcome this difficulty, the thesis work consisted in the development of a numerical model called "Virtual AFM". It allows producting the measurement uncertainty of the LNE's mAFM and to identify the critical components by using statistic tools such as Monte Carlo Method (MCM), Morris' design and Sobol' indices. The model uses essentially oriented-object programming to take into account a maximum of interactions from about 140 input quantities. It allowed integrating components previously neglected or overestimated due to a lack of information.

Page generated in 0.1048 seconds