• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Dynamique d'un réseau métabolique avec un modèle à base de contraintes : approche par échantillonnage des trajectoires solutions / Dynamic of metabolic network with constraint-based model : an approach by sampling of solution trajectories

Duigou, Thomas 13 May 2015 (has links)
À l’issue de ce travail de thèse, je propose une approche basée sur le formalisme des modèles à base de contraintes, pour étudier la dynamique d’un système métabolique. En associant l’échantillonnage de l’espace des solutions avec l’utilisation d’une contrainte de « faisabilité » entre les périodes de temps considérées, cette approche permet de modéliser la dynamique d’un système métabolique en prenant en compte la variabilité des mesures expérimentales. La contrainte de faisabilité entre les périodes permet de garantir que chaque « trajectoire solution » correspond à une succession de cartes de flux qui conduit à des cinétiques de concentrations cohérentes avec les mesures expérimentales. Les populations de trajectoires solutions générées autorisent différents types d’analyses. D’une part, les répartitions de flux prédites peuvent être utilisées afin d’estimer les répartitions de flux les plus plausibles au sein du réseau étudié. D’autre part, la distribution des concentrations prédites permet d’évaluer le modèle utilisé pour étudier le réseau métabolique. Le fait que cette approche soit basée sur le formalisme de la modélisation à base de contraintes permet, moyennant l’utilisation de l’hypothèse d’état stationnaire du système, d’étudier des réseaux métaboliques de taille relativement grande, et d’utiliser des données expérimentales qui sont aisément mesurables, par exemple les concentrations en biomasse et en métabolites extracellulaires. Cette approche par « trajectoires solutions » a été utilisée afin d’étudier la dynamique du métabolisme de Corynebacterium glutamicum, lorsqu’elle est cultivée en condition de limitation en biotine. Les résultats obtenus ont permis d’une part d’attester du fonctionnement de la méthode, et d’autre part de proposer plusieurs hypothèses quant aux phénomènes biologiques qui ont lieu pendant cette condition particulière de croissance. / In this thesis, I propose an approach based on the formalism of constraint-based models to study the dynamics of a metabolic system. By combining the sampling of the solutions space and the use of a "feasibility" constraint between the considered time periods, this approach allows to model the dynamic of a metabolic system taking into account the variability of experimental measurements. The feasibility constraint between time periods ensures that each "solution trajectory" corresponds to a succession of flux maps which leads to some kinetics of concentrations that are consistent with the experimental measurements. The generation of a population of solution trajectories allows several analyses. On the one hand, the predicted flux maps can be used to estimate the most plausible flux within the network studied. On the other hand, the distribution of predicted concentrations enables to assess the model used for studying the metabolic network. The fact that this approach is based on the formalism of constraint-based modeling allows, using the steady-state assumption of the system, to study metabolic networks of relatively large size, and to use experimental data that are easily measurable, such as biomass concentration and extracellular metabolites concentration. This approach by "solution trajectories" has been used to study the dynamics of the metabolism of Corynebacterium glutamicum, when grown under biotin-limited condition. The results allowed, first, to attest the functioning of the method, and second, to propose several hypotheses about biological phenomena that take place during this particular growth condition.
182

Analyse de sensibilité fiabiliste avec prise en compte d'incertitudes sur le modèle probabiliste - Application aux systèmes aérospatiaux / Reliability-oriented sensitivity analysis under probabilistic model uncertainty – Application to aerospace systems

Chabridon, Vincent 26 November 2018 (has links)
Les systèmes aérospatiaux sont des systèmes complexes dont la fiabilité doit être garantie dès la phase de conception au regard des coûts liés aux dégâts gravissimes qu’engendrerait la moindre défaillance. En outre, la prise en compte des incertitudes influant sur le comportement (incertitudes dites « aléatoires » car liées à la variabilité naturelle de certains phénomènes) et la modélisation de ces systèmes (incertitudes dites « épistémiques » car liées au manque de connaissance et aux choix de modélisation) permet d’estimer la fiabilité de tels systèmes et demeure un enjeu crucial en ingénierie. Ainsi, la quantification des incertitudes et sa méthodologie associée consiste, dans un premier temps, à modéliser puis propager ces incertitudes à travers le modèle numérique considéré comme une « boîte-noire ». Dès lors, le but est d’estimer une quantité d’intérêt fiabiliste telle qu’une probabilité de défaillance. Pour les systèmes hautement fiables, la probabilité de défaillance recherchée est très faible, et peut être très coûteuse à estimer. D’autre part, une analyse de sensibilité de la quantité d’intérêt vis-à-vis des incertitudes en entrée peut être réalisée afin de mieux identifier et hiérarchiser l’influence des différentes sources d’incertitudes. Ainsi, la modélisation probabiliste des variables d’entrée (incertitude épistémique) peut jouer un rôle prépondérant dans la valeur de la probabilité obtenue. Une analyse plus profonde de l’impact de ce type d’incertitude doit être menée afin de donner une plus grande confiance dans la fiabilité estimée. Cette thèse traite de la prise en compte de la méconnaissance du modèle probabiliste des entrées stochastiques du modèle. Dans un cadre probabiliste, un « double niveau » d’incertitudes (aléatoires/épistémiques) doit être modélisé puis propagé à travers l’ensemble des étapes de la méthodologie de quantification des incertitudes. Dans cette thèse, le traitement des incertitudes est effectué dans un cadre bayésien où la méconnaissance sur les paramètres de distribution des variables d‘entrée est caractérisée par une densité a priori. Dans un premier temps, après propagation du double niveau d’incertitudes, la probabilité de défaillance prédictive est utilisée comme mesure de substitution à la probabilité de défaillance classique. Dans un deuxième temps, une analyse de sensibilité locale à base de score functions de cette probabilité de défaillance prédictive vis-à-vis des hyper-paramètres de loi de probabilité des variables d’entrée est proposée. Enfin, une analyse de sensibilité globale à base d’indices de Sobol appliqués à la variable binaire qu’est l’indicatrice de défaillance est réalisée. L’ensemble des méthodes proposées dans cette thèse est appliqué à un cas industriel de retombée d’un étage de lanceur. / Aerospace systems are complex engineering systems for which reliability has to be guaranteed at an early design phase, especially regarding the potential tremendous damage and costs that could be induced by any failure. Moreover, the management of various sources of uncertainties, either impacting the behavior of systems (“aleatory” uncertainty due to natural variability of physical phenomena) and/or their modeling and simulation (“epistemic” uncertainty due to lack of knowledge and modeling choices) is a cornerstone for reliability assessment of those systems. Thus, uncertainty quantification and its underlying methodology consists in several phases. Firstly, one needs to model and propagate uncertainties through the computer model which is considered as a “black-box”. Secondly, a relevant quantity of interest regarding the goal of the study, e.g., a failure probability here, has to be estimated. For highly-safe systems, the failure probability which is sought is very low and may be costly-to-estimate. Thirdly, a sensitivity analysis of the quantity of interest can be set up in order to better identify and rank the influential sources of uncertainties in input. Therefore, the probabilistic modeling of input variables (epistemic uncertainty) might strongly influence the value of the failure probability estimate obtained during the reliability analysis. A deeper investigation about the robustness of the probability estimate regarding such a type of uncertainty has to be conducted. This thesis addresses the problem of taking probabilistic modeling uncertainty of the stochastic inputs into account. Within the probabilistic framework, a “bi-level” input uncertainty has to be modeled and propagated all along the different steps of the uncertainty quantification methodology. In this thesis, the uncertainties are modeled within a Bayesian framework in which the lack of knowledge about the distribution parameters is characterized by the choice of a prior probability density function. During a first phase, after the propagation of the bi-level input uncertainty, the predictive failure probability is estimated and used as the current reliability measure instead of the standard failure probability. Then, during a second phase, a local reliability-oriented sensitivity analysis based on the use of score functions is achieved to study the impact of hyper-parameterization of the prior on the predictive failure probability estimate. Finally, in a last step, a global reliability-oriented sensitivity analysis based on Sobol indices on the indicator function adapted to the bi-level input uncertainty is proposed. All the proposed methodologies are tested and challenged on a representative industrial aerospace test-case simulating the fallout of an expendable space launcher.
183

Spectroscopie adaptative à deux peignes de fréquences / Adaptive dual-comb spectroscopy

Poisson, Antonin 05 July 2013 (has links)
La spectroscopie par transformation de Fourier par peignes de fréquences femtosecondes tire parti d’un interféromètre sans partie mobile. Il mesure les interférences entre deux peignes de fréquences, sources lasers à large bande spectrale constituée de raies fines et équidistantes. Il améliore significativement le temps de mesure et la limite de résolution spectrale des spectromètres de Fourier. Néanmoins, les conditions sur la stabilité à court terme des peignes ne peuvent pas être remplies par les techniques d’asservissement classique. Jusqu’à présent, aucun spectre de qualité n’a pu être mesuré avec un très faible temps d’acquisition. Cette thèse présente le développement d’une méthode de correction en temps réel capable de compenser les fluctuations résiduelles des peignes et de restituer des spectres sans artefacts. La méthode, analogique, ne nécessite aucun asservissement ou traitement informatique a posteriori. Ses performances sont démontrées dans le proche infrarouge (1,5 µm) et le visible (520 nm), à l’aide d’oscillateurs femtosecondes fibrés. Des spectres moléculaires couvrant 12 THz sont mesurés en 500 µs à limite de résolution Doppler. Ils sont en excellent accord avec les données de la littérature. Pour la première fois, le plein potentiel de la spectroscopie de Fourier par peignes de fréquences est démontré. Le domaine de l’infrarouge moyen est la région de prédilection de la spectroscopie moléculaire car la plupart des molécules y présentent des absorptions fortes et caractéristiques. Étendre la spectroscopie par peignes de fréquences à cette région est donc l’objectif suivant à atteindre. Dans cette optique, un peigne émettant autour de 3 µm est caractérisé. Il est basé sur la conversion non-linéaire par différence de fréquences d’un oscillateur à erbium élargi spectralement par une fibre fortement non-linéaire. / Dual-comb Fourier-transform spectroscopy takes advantage of an interferometer without moving parts. Interferences pattern between two femtosecond frequency combs, broadband laser sources whose spectra consist of evenly-spaced narrow lines, is measured. The measurement time and the spectral resolution are significantly improved compared to traditional Fourier spectrometers. However, the required short-term stability of the combs cannot be achieved by classic locking methods. Until now, no high-quality spectra could be recorded within a very short acquisition time. This thesis reports on the development of a real-time correction method able to compensate for the combs’ residual fluctuations and to restore non-distorted spectra. This analog technique does not require any locking system or a posteriori calculation. Its performance is demonstrated in the near-infrared (1.5 µm) and in the visible (520 nm) with fiber-based femtosecond lasers. Doppler-limited molecular spectra spanning 12 THz are measured within 500 µs. They are in excellent agreement with databases. For the first time, the full potential of dual-comb spectroscopy is demonstrated. The mid-infrared region is an attractive spectral range for molecular spectroscopy due to the molecules’ strong and characteristic absorptions. Therefore, extending dual-comb spectroscopy to this region is the next goal to achieve. Toward this goal, a comb emitting around 3 µm is characterized. It is based on the non-linear difference frequency generation from an erbium oscillator spectrally broadened with a highly non-linear fiber.
184

Phase entrainment and perceptual cycles in audition and vision / Entraînement de phase et cycles perceptifs dans l'audition et la vision

Zoefel, Benedikt 08 December 2015 (has links)
Des travaux récents indiquent qu'il existe des différences fondamentales entre les systèmes visuel et auditif: tandis que le premier semble échantillonner le flux d'information en provenance de l'environnement, en passant d'un "instantané" à un autre (créant ainsi des cycles perceptifs), la plupart des expériences destinées à examiner ce phénomène de discrétisation dans le système auditif ont mené à des résultats mitigés. Dans cette thèse, au travers de deux expériences de psychophysique, nous montrons que le sous-échantillonnage de l'information à l'entrée des systèmes perceptifs est en effet plus destructif pour l'audition que pour la vision. Cependant, nous révélons que des cycles perceptifs dans le système auditif pourraient exister à un niveau élevé du traitement de l'information. En outre, nos résultats suggèrent que du fait des fluctuations rapides du flot des sons en provenance de l'environnement, le système auditif tend à avoir son activité alignée sur la structure rythmique de ce flux. En synchronisant la phase des oscillations neuronales, elles-mêmes correspondant à différents états d'excitabilité, le système auditif pourrait optimiser activement le moment d'arrivée de ses "instantanés" et ainsi favoriser le traitement des informations pertinentes par rapport aux événements de moindre importance. Non seulement nos résultats montrent que cet entrainement de la phase des oscillations neuronales a des conséquences importantes sur la façon dont sont perçus deux flux auditifs présentés simultanément ; mais de plus, ils démontrent que l'entraînement de phase par un flux langagier inclut des mécanismes de haut niveau. Dans ce but, nous avons créé des stimuli parole/bruit dans lesquels les fluctuations de l'amplitude et du contenu spectral de la parole ont été enlevés, tout en conservant l'information phonétique et l'intelligibilité. Leur utilisation nous a permis de démontrer, au travers de plusieurs expériences, que le système auditif se synchronise à ces stimuli. Plus précisément, la perception, estimée par la détection d'un clic intégré dans les stimuli parole/bruit, et les oscillations neuronales, mesurées par Electroencéphalographie chez l'humain et à l'aide d'enregistrements intracrâniens dans le cortex auditif chez le singe, suivent la rythmique "de haut niveau" liée à la parole. En résumé, les résultats présentés ici suggèrent que les oscillations neuronales sont un mécanisme important pour la discrétisation des informations en provenance de l'environnement en vue de leur traitement par le cerveau, non seulement dans la vision, mais aussi dans l'audition. Pourtant, il semble exister des différences fondamentales entre les deux systèmes: contrairement au système visuel, il est essentiel pour le système auditif de se synchroniser (par entraînement de phase) à son environnement, avec un échantillonnage du flux des informations vraisemblablement réalisé à un niveau hiérarchique élevé. / Recent research indicates fundamental differences between the auditory and visual systems: Whereas the visual system seems to sample its environment, cycling between "snapshots" at discrete moments in time (creating perceptual cycles), most attempts at discovering discrete perception in the auditory system failed. Here, we show in two psychophysical experiments that subsampling the very input to the visual and auditory systems is indeed more disruptive for audition; however, the existence of perceptual cycles in the auditory system is possible if they operate on a relatively high level of auditory processing. Moreover, we suggest that the auditory system, due to the rapidly fluctuating nature of its input, might rely to a particularly strong degree on phase entrainment, the alignment between neural activity and the rhythmic structure of its input: By using the low and high excitability phases of neural oscillations, the auditory system might actively control the timing of its "snapshots" and thereby amplify relevant information whereas irrelevant events are suppressed. Not only do our results suggest that the oscillatory phase has important consequences on how simultaneous auditory inputs are perceived; additionally, we can show that phase entrainment to speech sound does entail an active high-level mechanism. We do so by using specifically constructed speech/noise sounds in which fluctuations in low-level features (amplitude and spectral content) of speech have been removed, but intelligibility and high-level features (including, but not restricted to phonetic information) have been conserved. We demonstrate, in several experiments, that the auditory system can entrain to these stimuli, as both perception (the detection of a click embedded in the speech/noise stimuli) and neural oscillations (measured with electroencephalography, EEG, and in intracranial recordings in primary auditory cortex of the monkey) follow the conserved "high-level" rhythm of speech. Taken together, the results presented here suggest that, not only in vision, but also in audition, neural oscillations are an important tool for the discretization and processing of the brain's input. However, there seem to be fundamental differences between the two systems: In contrast to the visual system, it is critical for the auditory system to adapt (via phase entrainment) to its environment, and input subsampling is done most likely on a hierarchically high level of stimulus processing.
185

Concept de radars novateurs pour la vision à travers les milieux opaques / Innovative radar concept for through-the-wall applications

Merelle, Vincent 19 September 2018 (has links)
La « vision » à travers les milieux opaques (murs, cloisons, décombres, ou plus généralement tout milieu qui occulte la vision humaine) est l’un des problèmes clefs du contrôle et de la sécurité. Il apparaît à l’heure actuelle un réel besoin de disposer de dispositifs d’observation à travers ces milieux pour des applications tant militaires (lors des assauts, des prises d’otages, etc.) que civiles (recherche de personnes enfouies dans des décombres, dans un incendie, etc). Les avancées sur cette problématique ont conduit à mettre en place des systèmes radars à très courte portée, opérationnels pour la détection et le tracking de personnes dans des environnements simples. Cependant ils nécessitent que les cibles soient en déplacement afin de les différencier des objets statiques. Cette limitation constitue un défaut majeur pour un certain nombre de scénarii réels où des personnes, par stratégie ou par contrainte, restent immobiles. Ces travaux de thèse visent à explorer les mécanismes de détection de personnes statiques par le biais de leurs micro-mouvements, e.g. des mouvements induits par le thorax lors de la respiration. Nous avons étudié - d’un point de vue théorique - les principes physiques sous-jacents à la détection de ces micro-mouvements par radar UWB impulsionnel à partir du mécanisme Doppler impulsionnel. Ce dernier s’appuie sur des mesures consécutives des phases des impulsions réfléchies. La compréhension de ce phénomène a permis de définir une architecture radar impulsionnelle et de la positionner, en termes de contributions, au regard des différents radars UWB proposés dans la littérature : le FMCW et le radar de bruit. Deux dispositifs radars ont servi de support à ce travail. Le premier, de type démonstrateur académique, repose sur l’utilisation d’un oscilloscope rapide pour numériser les impulsions UWB de 3 à 6 GHz de bande. Il a permis de mettre en place une chaîne de traitement complète de vision à travers les murs. Le second dispositif est un prototype radar développé autour d’une plateforme de numérisation ultra-rapide (100 Gsps par échantillonnage équivalent) de fréquence de rafraîchissement très élevée (100 Hz). Il est construit autour d’un FPGA, d’un ADC rapide (1,25 GHz) et d’un T&H très large bande (18 GHz). Il permet ainsi la détection des micro-mouvements par traitement Doppler impulsionnel. / "Vision" through opaque environments (walls, partitions, rubble, or any environment that obscures human vision) is one of the key issues of control and security. Advances on this issue have led to operational shortrange radar systems for people detection and tracking in simple environments. However, most of them require the targets to move in order to differentiate them from static objects. This requirement constitues a major shortcoming for a certain number of real scenarios where people, by strategies or by constraints, remain motionless. Hence, this thesis aims to explore the mechanisms of detection of static people through their micro-movements, e.g. movements induced by the thorax during breathing. We have studied - from a theoretical point of view - the physical principles underlying the detection of these micro-movements by pulsed UWB radar with the pulsed Doppler phenomenon, which relies on consecutive measurements of the reflected pulses phases. The understanding of this phenomenon made it possible to define a radar architecture and to position it, in terms of contributions, with regard to the different UWB radars proposed in the literature : the FMCW and the noise radar. Two radar devices served as support for this work. An academic demonstrator based on the use of a fast oscilloscope to digitize the pulses. It allowed to set up a complete processing chain for the application of vision through the walls. The second device is a radar prototype developed around a high-speed scanning platform (100 Gsps perequivalent sampling) with a very high refresh rate (100 Hz). This prototype is built around an FPGA, a fast ADC (1.25 GHz) and a very wide band T&H (18 GHz). This thereby enables to detect micro-movements by pulsed Doppler processing.
186

Développement d'échantillonneurs passifs de type POCIS pour l'évaluation de la contamination en pesticides des eaux de bassins versants languedociens / Passive samplers development (POCIS) to estimate pesticides contamination of catchment basins in Languedoc Roussillon

Desgranges, Nathalie 23 February 2015 (has links)
Malgré une sensible baisse des ventes depuis quelques années, la France reste le premier utilisateur européen de phytosanitaires. Ceci n’est pas sans conséquences sur l’environnement et les organismes non visés par ces produits. De nombreuses études ont permis d’une part de mieux comprendre les phénomènes de transfert des pesticides dans les compartiments eau-air sols et d’autre part de mettre en évidence leur contamination. Les données concernant l’eau sont plus nombreuses du fait de son statut de réceptacle ultime des pollutions.et des normes établies par les textes réglementaires. La Directive Cadre européenne sur l’Eau (DCE) adoptée en 2000 vise à atteindre le bon état chimique et écologique des eaux d’ici 2015 avec une obligation de résultats. Le bon état chimique dépend du respect des normes de qualité environnementales (NQE) établies notamment pour 24 pesticides. En 2012, 5% des points de mesure en cours d’eau et 19% des points de mesure en eaux souterraines ne respectent pas ces NQE.Le Languedoc Roussillon est depuis de nombreuses années la première région viticole de France et souffre d’une pression phytosanitaire importante. En 2014, un rapport de l’Agence Régionale de Santé (ARS) fait même état de l’utilisation encore récente de pesticides interdits (simazine, terbuthylazine…) depuis le début des années 2000. L’ARS a de plus affirmé que la plupart des cas de non-conformité avérés pouvaient être rattachés à la présence d’activité agricole dans le bassin versant du captage.Remédier à ces contaminations passe par le suivi de la qualité des eaux et la caractérisation de la pollution. Les outils actuels s’avèrent ne pas être toujours représentatifs de cette pollution ;de nouveaux outils sont donc mis au point. L’étude présentée ici porte sur l’utilisation de l’échantillonnage passif de type POCIS (Polar Organic Chemical Integrative Sampler) pour le suivi de la contamination en pesticides de trois bassins versants languedociens : Paulhan,Puissalicon, Roujan.Dans un premier temps, l’étude des limites possibles du dispositif POCIS a été faite pour évaluer son applicabilité dans les conditions d’exposition imposées par le terrain. Le comportement des molécules au sein de l’outil a été étudié pour une meilleure compréhension des phénomènes de diffusion qui s’y produisent. Ces études ont mené à la mise en place de calibrations en laboratoire en conditions contrôlées. [...] La mise en place des dispositifs POCIS sur les trois sites d’études a mis en évidence la prédominance de pesticides utilisés en viticulture et a montré tout l’intérêt de l’outil d’un point de vue qualitatif. La comparaison de l’outil avec l’échantillonnage automatisé montre des disparités entre concentration réelle et concentration estimée via le POCIS. Ce dernier reste à améliorer d’un point de vue quantitatif pour obtenir un échantillonneur fiable et robuste pour ce type de milieu d’exposition. / Despite a noticeable sales decrease since few years, France remains the first european user of phytosanitary products. This is not without consequences on the environment and the untargeted organisms. Several studies allowed on one hand to better understand phenomena of pesticides transfer in water-air and soils compartments and on the other hand to highlight their contamination. Data concerning the water are more numerous cause of its status of ultimate receptacle of pollution and standards established by regulatory texts. The european Water Framework Directive (WFD) adopted in 2000 aims to achieve good chemical and ecological status of water bodies by 2015 with an obligation of results. The good chemical status depends on respect for the Environmental Quality Standards (EQS) established, for instance, for 24 pesticides. In 2012, 5% of river measurement points and 19%of groundwater measurement points do not respect these EQS. For many years, Languedoc Roussillon is the first wine-producing region of France and suffers from a significant pesticide pressure. In 2014, a report from the Regional Health Agency (RHA) has mentioned a relatively recent use of banned pesticides since the early 2000’s like simazin and terbutylazin. Moreover, RHA stated that most of recognized cases of non-compliance could be linked to the presence of agricultural activity in the catchment basin.[...] The establishment of POCIS devices on the three study sites showed the predominance ofpesticides used in viticulture and showed all the interest of the tool on a qualitative point ofview. The comparison of the tool with the automated sampling shows disparities between real concentration and concentration estimated with the POCIS. However, it remains to improvethe tool on a quantitative way to obtain a reliable and robust sampler for this type of exposure medium.
187

Comparaison empirique des méthodes bootstrap dans un contexte d'échantillonnage en population finie.

Dabdoubi, Oussama 08 1900 (has links)
No description available.
188

Mise en place d'un modèle de fuite multi-états en secteur hydraulique partiellement instrumenté / Mastering losses on drinking water network

Claudio, Karim 19 December 2014 (has links)
L’évolution de l’équipement des réseaux d’eau potable a considérablement amélioré le pilotage de ces derniers. Le telérelevé des compteurs d’eau est sans doute la technologie qui a créé la plus grande avancée ces dernières années dans la gestion de l’eau, tant pour l’opérateur que pour l’usager. Cette technologie a permis de passer d’une information le plus souvent annuelle sur les consommations (suite à la relève manuelle des compteurs d’eau) à une information infra-journalière. Mais le télérelevé, aussi performant soit-il, a un inconvénient : son coût. L’instrumentation complète d’un réseau engendre des investissements que certains opérateurs ne peuvent se permettre. Ainsi la création d’un échantillon de compteurs à équiper permet d’estimer la consommation totale d’un réseau tout en minimisant les coûts d’investissement. Cet échantillon doit être construit de façon intelligente de sorte que l’imprécision liée à l’estimation ne nuise pas à l’évaluation des consommations. Une connaissance précise sur les consommations d’eau permet de quantifier les volumes perdus en réseau. Mais, même dans le cas d’une évaluation exacte des pertes, cela ne peut pas suffire à éliminer toutes les fuites sur le réseau. En effet, si le réseau de distribution d’eau potable est majoritairement enterré, donc invisible, il en va de même pour les fuites. Une fraction des fuites est invisible et même indétectable par les techniques actuelles de recherche de fuites, et donc irréparable. La construction d’un modèle de fuite multi-états permet de décomposer le débit de fuite suivant les différents stades d’apparition d’une fuite : invisible et indétectable, invisible mais détectable par la recherche de fuite et enfin visible en surface. Ce modèle, de type semi-markovien, prend en compte les contraintes opérationnelles, notamment le fait que nous disposons de données de panel. La décomposition du débit de fuite permet de fait une meilleure gestion du réseau en ciblant et adaptant les actions de lutte contre les fuites à mettre en place en fonction de l’état de dégradation du réseau. / The evolution of equipment on drinking water networks has considerably bettered the monitoring of these lasts. Automatic meter reading (AMR) is clearly the technology which has brought the major progress these last years in water management, as for the operator and the end-users. This technology has allowed passing from an annual information on water consumption (thanks to the manual meter reading) toan infra-daily information. But as efficient as AMR can be, it has one main inconvenient : its cost. A complete network instrumentation generates capital expenditures that some operators can’t allowed themselves. The constitution of a sample of meters to equip enables then to estimate the network total consumption while minimizing the investments. This sample has to be built smartly so the inaccuracy of the estimator shouldn’t be harmful to the consumption estimation. A precise knowledge on water consumption allowsquantifying the water lost volumes on the network. But even an exact assessment of losses is still not enough to eliminate all the leaks on the network. Indeed, if the water distribution network is buried, and so invisible, so do the leaks. A fraction of leaks are invisible and even undetectable by the current technologies of leakage control, and so these leaks are un-reparable. The construction of a multi-state model enables us to decompose the leakage flow according to the different stages of appearance of a leak : invisible and undetectable, invisible but detectable with leakage control and finally detectable. This semi-Markovian model takes into account operational constrains, in particular the fact that we dispose of panel data. The leakage flow decomposition allows a better network monitoring but targeting and adapting the action of leakage reduction to set up according to the degradation state of the network.
189

Echantillonage d'importance des sources de lumières réalistes / Importance Sampling of Realistic Light Sources

Lu, Heqi 27 February 2014 (has links)
On peut atteindre des images réalistes par la simulation du transport lumineuse avec des méthodes de Monte-Carlo. La possibilité d’utiliser des sources de lumière réalistes pour synthétiser les images contribue grandement à leur réalisme physique. Parmi les modèles existants, ceux basés sur des cartes d’environnement ou des champs lumineuse sont attrayants en raison de leur capacité à capter fidèlement les effets de champs lointain et de champs proche, aussi bien que leur possibilité d’être acquis directement. Parce que ces sources lumineuses acquises ont des fréquences arbitraires et sont éventuellement de grande dimension (4D), leur utilisation pour un rendu réaliste conduit à des problèmes de performance.Dans ce manuscrit, je me concentre sur la façon d’équilibrer la précision de la représentation et de l’efficacité de la simulation. Mon travail repose sur la génération des échantillons de haute qualité à partir des sources de lumière par des estimateurs de Monte-Carlo non-biaisés. Dans ce manuscrit, nous présentons trois nouvelles méthodes.La première consiste à générer des échantillons de haute qualité de manière efficace à partir de cartes d’environnement dynamiques (i.e. qui changent au cours du temps). Nous y parvenons en adoptant une approche GPU qui génère des échantillons de lumière grâce à une approximation du facteur de forme et qui combine ces échantillons avec ceux issus de la BRDF pour chaque pixel d’une image. Notre méthode est précise et efficace. En effet, avec seulement 256 échantillons par pixel, nous obtenons des résultats de haute qualité en temps réel pour une résolution de 1024 × 768. La seconde est une stratégie d’échantillonnage adaptatif pour des sources représente comme un "light field". Nous générons des échantillons de haute qualité de manière efficace en limitant de manière conservative la zone d’échantillonnage sans réduire la précision. Avec une mise en oeuvre sur GPU et sans aucun calcul de visibilité, nous obtenons des résultats de haute qualité avec 200 échantillons pour chaque pixel, en temps réel et pour une résolution de 1024×768. Le rendu est encore être interactif, tant que la visibilité est calculée en utilisant notre nouvelle technique de carte d’ombre (shadow map). Nous proposons également une approche totalement non-biaisée en remplaçant le test de visibilité avec une approche CPU. Parce que l’échantillonnage d’importance à base de lumière n’est pas très efficace lorsque le matériau sous-jacent de la géométrie est spéculaire, nous introduisons une nouvelle technique d’équilibrage pour de l’échantillonnage multiple (Multiple Importance Sampling). Cela nous permet de combiner d’autres techniques d’échantillonnage avec le notre basé sur la lumière. En minimisant la variance selon une approximation de second ordre, nous sommes en mesure de trouver une bonne représentation entre les différentes techniques d’échantillonnage sans aucune connaissance préalable. Notre méthode est pertinence, puisque nous réduisons effectivement en moyenne la variance pour toutes nos scènes de test avec différentes sources de lumière, complexités de visibilité et de matériaux. Notre méthode est aussi efficace par le fait que le surcoût de notre approche «boîte noire» est constant et représente 1% du processus de rendu dans son ensemble. / Realistic images can be rendered by simulating light transport with Monte Carlo techniques. The possibility to use realistic light sources for synthesizing images greatly contributes to their physical realism. Among existing models, the ones based on environment maps and light fields are attractive due to their ability to capture faithfully the far-field and near-field effects as well as their possibility of being acquired directly. Since acquired light sources have arbitrary frequencies and possibly high dimension (4D), using such light sources for realistic rendering leads to performance problems.In this thesis, we focus on how to balance the accuracy of the representation and the efficiency of the simulation. Our work relies on generating high quality samples from the input light sources for unbiased Monte Carlo estimation. In this thesis, we introduce three novel methods.The first one is to generate high quality samples efficiently from dynamic environment maps that are changing over time. We achieve this by introducing a GPU approach that generates light samples according to an approximation of the form factor and combines the samples from BRDF sampling for each pixel of a frame. Our method is accurate and efficient. Indeed, with only 256 samples per pixel, we achieve high quality results in real time at 1024 × 768 resolution. The second one is an adaptive sampling strategy for light field light sources (4D), we generate high quality samples efficiently by restricting conservatively the sampling area without reducing accuracy. With a GPU implementation and without any visibility computations, we achieve high quality results with 200 samples per pixel in real time at 1024 × 768 resolution. The performance is still interactive as long as the visibility is computed using our shadow map technique. We also provide a fully unbiased approach by replacing the visibility test with a offline CPU approach. Since light-based importance sampling is not very effective when the underlying material of the geometry is specular, we introduce a new balancing technique for Multiple Importance Sampling. This allows us to combine other sampling techniques with our light-based importance sampling. By minimizing the variance based on a second-order approximation, we are able to find good balancing between different sampling techniques without any prior knowledge. Our method is effective, since we actually reduce in average the variance for all of our test scenes with different light sources, visibility complexity, and materials. Our method is also efficient, by the fact that the overhead of our "black-box" approach is constant and represents 1% of the whole rendering process.
190

Echantillonnage compressif appliqué à la microscopie de fluorescence et à la microscopie de super résolution / Compressive fluorescence microscopy for biological imaging and super resolution microscopy.

Chahid, Makhlad 19 December 2014 (has links)
Mes travaux de thèse portent sur l’application de la théorie de l’échantillonnagecompressif (Compressed Sensing ou Compressive Sampling, CS) à la microscopie defluorescence, domaine en constante évolution et outil privilégié de la recherche fondamentaleen biologie. La récente théorie du CS a démontré que pour des signauxparticuliers, dits parcimonieux, il est possible de réduire la fréquence d’échantillonnagede l’information à une valeur bien plus faible que ne le prédit la théorie classiquede l’échantillonnage. La théorie du CS stipule qu’il est possible de reconstruireun signal, sans perte d’information, à partir de mesures aléatoires fortement incomplèteset/ou corrompues de ce signal à la seule condition que celui-ci présente unestructure parcimonieuse.Nous avons développé une approche expérimentale inédite de la théorie du CSà la microscopie de fluorescence, domaine où les signaux sont naturellement parcimonieux.La méthode est basée sur l’association d’une illumination dynamiquestructurée à champs large et d’une détection rapide à point unique. Cette modalitépermet d’inclure l’étape de compression pendant l’acquisition. En outre, nous avonsmontré que l’introduction de dimensions supplémentaires (2D+couleur) augmentela redondance du signal, qui peut être pleinement exploitée par le CS afin d’atteindredes taux de compression très importants.Dans la continuité de ces travaux, nous nous sommes intéressés à une autre applicationdu CS à la microscopie de super résolution, par localisation de moléculesindividuelles (PALM/STORM). Ces nouvelles techniques de microscopie de fluorescenceont permis de s’affranchir de la limite de diffraction pour atteindre des résolutionsnanométriques. Nous avons exploré la possibilité d’exploiter le CS pour réduiredrastiquement les temps d’acquisition et de traitement.Mots clefs : échantillonnage compressif, microscopie de fluorescence, parcimonie,microscopie de super résolution, redondance, traitement du signal, localisation demolécules uniques, bio-imagerie / My PhD work deals with the application of Compressed Sensing (or CompressiveSampling, CS) in fluorescence microscopy as a powerful toolkit for fundamental biologicalresearch. The recent mathematical theory of CS has demonstrated that, for aparticular type of signal, called sparse, it is possible to reduce the sampling frequencyto rates well below that which the sampling theorem classically requires. Its centralresult states it is possible to losslessly reconstruct a signal from highly incompleteand/or inaccurate measurements if the original signal possesses a sparse representation.We developed a unique experimental approach of a CS implementation in fluorescencemicroscopy, where most signals are naturally sparse. Our CS microscopecombines dynamic structured wide-field illumination with fast and sensitive singlepointfluorescence detection. In this scheme, the compression is directly integratedin the measurement process. Additionally, we showed that introducing extra dimensions(2D+color) results in extreme redundancy that is fully exploited by CS to greatlyincrease compression ratios.The second purpose of this thesis is another appealing application of CS forsuper-resolution microscopy using single molecule localization techniques (e.g.PALM/STORM). This new powerful tool has allowed to break the diffraction barrierdown to nanometric resolutions. We explored the possibility of using CS to drasticallyreduce acquisition and processing times.

Page generated in 0.1272 seconds