• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 45
  • 14
  • Tagged with
  • 191
  • 60
  • 55
  • 47
  • 34
  • 32
  • 27
  • 26
  • 24
  • 24
  • 22
  • 22
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Simulation des écoulements turbulents avec des particules de taille finie en régime dense / Numerical simulation of particle laden turbulent flows with finite-sized particles in dense regime

Brändle de Motta, Jorge César 27 June 2013 (has links)
Un grand nombre d'écoulements naturels et industriels mettent en jeu des particules (sédimentation,lit fluidisé, sprays...). Les écoulements chargés en particules sont bien décrits numériquement sous l'hypothèse des particules plus petites que toutes les échelles de l'écoulement. Cette thèse consiste à simuler numériquement une turbulence homogène et isotrope soutenue chargée en particules dont la taille est supérieure à l'échelle de Kolmogorov. Pour se faire une méthode de simulation a été développée au sein du code Thétis puis validée. L'originalité de cette méthode consiste en l'utilisation d'une approche de pénalisation associée à la viscosité dans la zone solide. Les particules sont transportées de façon lagrangienne. Les principaux résultats concernent trois simulations faisant varier le rapport de densité entre le fluide et le solide. Chaque simulation simule le mouvement de 512particules avec un diamètre 22 fois plus grand que l'échelle spatiale de Kolmogorov remplissant ainsi3% du volume total. La dispersion des particules est étudiée et montre des comportements comparables à ceux observés pour des particules ponctuelles. Un intérêt particulier est porté sur le régime collisionnel. On observe que la corrélation des vitesses avec le fluide environnant réduit le nombre de chocs frontaux par rapport au cas théorique de particules d'un gaz dense. L'effet de la prise en compte du fluide visqueux entre les particules (couche de lubrification) lors de la collision a été étudiée. L'écoulement moyen à l'échelle des particules est aussi analysé, mettant en évidence l'existence d'une couche de dissipation autour des particules. / Many applications and natural environment flows make use of particles (sedimentation, fluidized bed,sprays...). Particle laden flows are described correctly by numerical methods when the particles are smaller than all other spatial scales of the flow. This thesis involves the numerical simulation of a particle laden sustained homogeneous isotropic turbulence whose particle's size is larger than the Kolmogovov spatial scale. A numerical method has been developed and validated in the numerical code Thetis. The novelty of this method is the viscosity penalization approach. The particles are tracked by a Lagrangian way. The main results obtained are related to three simulations where the density ratio between the solid and the fluid varies. Each simulation reproduces the movement of 512particles whose diameter is 22 times the Kolmogorov spatial scale (3% volumetric solid fraction).The dispersion of particles is studied and has similar behavior than those observed with point particles simulations. The collision regime is also investigated. It is shown that he number of frontal collision is lower than its estimate for kinetic theory of gazes because there is a correlation between the particles velocity and the surrounding fluid. The modification of the collision regime when the lubrication film between particles at collision is taken into account is studied. Finally, the averaged flow around particles is analyzed and shows that there is a dissipation layer around particles.
42

Etude des sources et de la dynamique atmosphérique de polluants organiques particulaires en vallées alpines : apport de nouveaux traceurs organiques aux modèles récepteurs / Study of sources and atmospheric dynamics of particulate organic pollutants in Alpine valleys : contribution of new organic tracers for receptor modelling applications

Golly, Benjamin 15 October 2014 (has links)
Récemment, la qualité de l'air dans la région Rhône-Alpes est devenue un sujet sensible depuis sa mise en demeure par l'Union Européenne pour non respect des normes en vigueurs concernant les taux de particules fines (PM). Effectivement, certaines zones géographiques de la région connaissent de nombreux dépassements en PM10, particulièrement dans les vallées alpines durant la période hivernale. Ces dépassements en particules sont aussi accompagnés de fortes concentrations en composés organiques comme les hydrocarbures aromatiques polycycliques (HAP) constituants ces PM. Un accroissement des connaissances sur les sources de pollution atmosphérique particulaire et leurs dynamiques au sein des vallées alpines est alors nécessaire, ceci afin d'améliorer la mise en place des politiques de diminution des émissions grâce à une meilleure connaissance de l'influence des différentes sources au niveau régional. Ces travaux de thèse sont axés autour des émissions des sources industrielles encore mal connues et plus particulièrement l'industrie du carbone très présente dans les bassins industriels de ces fonds de vallées. Les approches classiques par les éléments métalliques n'étant pas spécifiques, l'exploration de la fraction organique a permis de proposer un profil chimique organique complet et d'avancer le benzo(b)naphtho(2,1-d)thiophène (BNT(2,1)), composé particulaire majoritaire de la famille des Hydrocarbures Aromatiques Polycycliques soufrés (HAPS) comme traceur de cette source. Ce composé a été détecté et quantifié sur plusieurs sites en proximité d'activités industrielles confirmant ainsi sa source potentielle. De plus le profil industriel a été introduit comme profil « source » afin d'évaluer sa robustesse dans les méthodologies de type modèle récepteur de bilan de masse comme le « Chemical Mass Balance » (CMB) et statistique comme la « Positive Matrix Factorization » (PMF). Les résultats ont confirmé l'intérêt de l'ajout des composés organiques à ces méthodologies. Ainsi, le profil industriel et les composés organiques HAPS ont permis de mieux tracer la source appelée génériquement « industrie du carbone » (combustions de charbon, de coke et de matériaux graphitiques) dans les vallées alpines mais aussi sur différents sites urbains français. En parallèle, un modèle de régression non linéaire multivarié (MRNL) a été développé pour la quantification des sources de HAP, basé sur l'utilisation de traceurs spécifiques de source (lévoglucosan, hopanes….) et de données météorologiques (gradient thermique). Son application a été validée sur un ensemble de sites alpins des vallées de l'Arve et de la Tarentaise. Un couplage entre ce modèle et les données de mesures optiques du carbone suie (BC) par aéthalomètre, a permis de proposer une solution aux mauvais résultats de corrélation entre les HAP mesurés et modélisés par le modèle MRNL sur le site de la vallée de la Maurienne. Ces faibles corrélations peuvent être liées à une mauvaise représentativité des composés organiques utilisés à tracer correctement les sources d'émission sur certains sites.Enfin, l'inter-comparaison de ces méthodologies pour la détermination des sources de HAP et plus particulièrement de la source industrielle permet de valider cette méthodologie dans une perspective opérationnelle de suivi des sources de HAP sur ces différents sites. Ces travaux réalisés au cours de cette thèse mettent en évidence l'intérêt de la caractérisation de la fraction organique des PM et les biais qui peuvent exister sur l'utilisation des composés organiques pour l'étude des sources d'émissions. Des alternatives y sont proposées afin de soulever ces ambiguïtés et d'améliorer l'étude des sources de HAP par les modèles récepteurs. / Recently, Air quality has become a sensitive topic for Rhône-Alpes region due to the formal notice which was addressed by the European Commission for non-compliance with legislation in force. Indeed, certain geographic areas in the region present a lot of overruns in PM10, especially in Alpine valleys during winter. These overruns particles are also accompanied by high concentrations of organic compounds such as polycyclic aromatic hydrocarbons (PAHs), which constitute these PMs. An increase in khowledge about the sources of particulate air pollution and their dynamics in Alpine valleys is necessary, in order to improve the implementation of policies to reduce emissions through better knowledge of the influence of different sources at regional level. This thesis is focused around emissions from industrial sources still poorly known and particularly of the carbon industry highly present in these industrial areas of the valley bottoms. Traditional approaches by metallic elements being not specific, exploration of the organic fraction allowed to propose a complete organic chemical profile. In addition they led us to evidence the benzo(b)naphtho(2,1-d)thiophene (BNT(2,1)), the most abundant particulate compound of the family of sulfur-containing polycyclic aromatic hydrocarbons (PASHs), as a tracer of this source. This compound was detected and quantified on multiple sites in near industrial activities confirming its potential source. In addition the industrial profile was introduced as profile “source” in order to assess its robustness in methodologies of receptor model like the “Chemical Mass Balance “(CMB) and the “Positive Matrix Factorization” (PMF). The results confirmed the interest of the addition of organic compounds to these methodologies. Thus, the industrial profile and the PASHs compounds have allowed to better trace the source usually called “carbon industry” (coal, coke and graphite materials combustions) in the Alpine valleys but also in different French urban sites. In parallel, a non linear regression model (NLRM) was developed to PAH source apportionment, based on the use of specific molecular markers (levoglucosan, hopanes…) and of meteorological data (altitudinal temperature lapse rate). Its implementation has been validated on a set of sites of the Alpine valleys of Arve and Tarentaise. Coupling between this model and the optical measurements of black carbon (BC) by aethalometer, allowed to propose a solution to the poor performance of correlation between PAHs measured and modeled by NLRM model on this site of the Maurienne valley. These low correlations may be related to poor representativeness of organic compounds used to correctly trace the emission sources at some sites. Finally, the inter-comparison of these methodologies for the determination of PAH sources and especially of industrial source allows to validate this methodology in an operational perspective of monitoring of PAH levels on these sites. The work performed during this thesis highlights the interest of the characterizatin of the organic fraction of PM and the biases that may exist on the use of organic compounds for the study of the emission sources. Some alternatives are suggested to clarify ambiguities and improve the source apportionment of PAHs by receptor models.
43

Visualisation interactive de simulations à grand nombre d'atomes en physique des matériaux / Interactive visualization of material physics simulations with large number of atoms

Latapie, Simon 07 April 2009 (has links)
Afin de répondre au besoin croissant de puissance de calcul qui intéresse les applications scientifiques, des architectures de calculateurs de plus en plus parallèles se répandent, de type cluster, MPP, ou autre, avec de plus en plus d’unités de calcul. Les codes de calcul, en s’adaptant à ce parallélisme, produisent de fait des résultats de plus en plus volumineux. Dans le domaine plus spécifique de la dynamique moléculaire appliquée à la physique des matériaux, le nombre de particules d’un système étudié est aujourd’hui de l’ordre de quelques millions à quelques centaines de millions, ce qui pose d’importants problèmes d’exploitation des données produites. Les solutions de visualisation utilisées auparavant ne sont plus capables de traiter une telle quantité d’information de façon interactive. Le but de cette thèse est de concevoir et d’implémenter une solution de manipulation de données composées d’un très grand nombre de particules, formant un ensemble .dense. ( par exemple, une simulation en dynamique moléculaire de quelques dizaines de millions d’atomes ). Cette solution devra être adaptative pour pouvoir fonctionner non seulement sur un poste de bureau de type .desktop., mais aussi dans des environnements collaboratifs et immersifs simples, par exemple de type mur d’image, avec éventuellement des éléments de réalité virtuelle (écrans stéréo, périphériques 3D). De plus, elle devra augmenter l’interactivité, c’est-à-dire rendre le système plus apte à réagir avec l’utilisateur, afin d’effectuer des phases d’exploration des données plus efficaces. Nous proposons une solution répondant à ces besoins de visualisation particulaire dense, en apportant des améliorations : – à l’interaction, par un système permettant une exploration simple et efficace d’une simulation scientifique. A cette fin, nous avons conçu, développé, et testé le .FlowMenu3D., une extension tridimensionnelle du .FlowMenu., un menu octogonal utilisé en environnement 2D. – à l’interactivité, par une architecture optimisée pour le rendu de systèmes particulaires denses. Cette dernière, intégrée au framework de visualisation VTK, est conçue sur le principe d’un rendu parallèle hybride sort-first/sort-last, dans lequel le système sort-last Ice-T est couplé à des extensions de partitionnement spatial des données, d’occlusion statistique par une méthode de Monte-Carlo, mais aussi de programmation GPU à base de shaders pour améliorer la performance et la qualité du rendu des sphères représentant les données. / The need for more computing power for scientific applications leads supercomputer manufacturers to rely on more and more parallel architectures, such as cluster or MPP systems, increasing the number of processing units. The correlative adjustment of computing software - simulation codes - to massive parallelism leads to larger and larger datasets. More specifically, in molecular dynamics simulations applied to material physics, particle sets are typically composed of millions to hundreds of millions of particles, which raises important postprocessing issues. Most current visualization solutions do not scale up to interactively handle such an amount of information. The goal of this thesis is to design and implement a post-processing solution which is able to handle .dense. sets with a very large number of particles (for example, a molecular dynamics simulation result with several millions of atoms). This solution will have to be adaptive enough to run either on a desktop environment, or on a simple collaborative and immersive configuration, such as a tiled display, possibly with some virtual reality devices (such as stereo displays and 3D interaction peripherals). Moreover, this solution will have to maximize the interactivity, i.e. to increase the reactivity of the system against the user commands, to improve data exploration stages. We propose a solution optimized for dense particle systems visualization, improving both interaction and interactivity : – regarding interaction, a new simple and efficient way of exploring a scientific simulation is proposed. We developed and tested .FlowMenu3D., a 3D extension of the .FlowMenu. concept, an octagonal menu previously designed for 2D environments. – regarding interactivity, we propose an optimized architecture for dense particle systems rendering. The system relies on VTK visualization framework and a parallel hydrid sort-first/sort-last renderer. The existing Ice-T component is augmented with spatial data partitioning as well as statistical (Monte Carlo) occlusion mechanisms. GPU shaders eventually improve the performance and quality of rendering, using spheres as basic primitives.
44

Evaluation préclinique d'un protocole vaccinal anti-VIH utilisant des pseudo-particules rétrovirales recombinantes administrées par voies muqueuses et étude des mécanismes immunologiques associés / Preclinical evaluation of an HIV vaccine protocol using recombinant retroVirus -like particles administered by mucosal routes and study of the associated immunological mechanisms

Vazquez, Thomas 14 September 2016 (has links)
Malgré 30 ans de recherche aucun vaccin VIH n'a permis d'apporter une protection efficace et de manière stable. Au regard des échecs obtenus jusqu'à présent, de nouvelles formes vaccinales ont été développées. Parmi ces dernières les VLP présentent l'avantage notables d'être très immunogènes du fait de leur forme particulaire mimant les virus natifs, et sécuritaire puisque ne véhiculant pas de génome viral. Ce travail de thèse a pour objectif d’établir et d’évaluer une stratégie vaccinale utilisant ces VLP administrées par voies muqueuses dans le but d’initier une réponse humorale et cellulaire au niveau systémique et muqueux. Dans cette étude, nous avons montré que la voie muqueuse est indispensable pour l’induction d’une réponse locale forte. De plus, nos résultats révèlent que la forme particulaire de l’antigène est décisive dans la génération d’une immunité de qualité, générant une réponse TFH forte, une réponse cellulaire locale polyfonctionnelle ainsi qu’une réponse humorale forte et stable dans le temps, caractérisée par des anticorps de qualité.Cherchant à mieux caractériser la stratégie vaccinale établie, nous avons analysé les mécanismes de prise en charge des VLP et d’initiation de la réponse immunitaire après administration IN. Nous avons observé que de nombreuses cellules de l’immunité innée pulmonaire, notamment les macrophages alvéolaires et les neutrophiles, captaient massivement les VLP limitant alors la réponse TFH et potentiellement la réponse humorale qui en découle. Au final, ce travail de thèse aura permis de mettre en avant la voie d’immunisation muqueuse ainsi que la forme particulaire de l’antigène dans la mise en place d’un vaccin VIH. / Currently no HIV vaccine elicit full and stable protection against viral acquisition. In view of the failures until now, new vaccines strategies were developed. Among these, VLP have the advantage to be highly immunogenic because of their particulate structure mimicking native pathogens and safe because of the lack of viral genome.This thesis work aims to develop and evaluate a VLP-based vaccine strategy by mucosal administration in order to initiate systemic and local humoral and cellular responses. In this study, we showed that the mucosal administration is mandatory to generate a strong local immunity. Moreover, our results show that particular form of the antigen is crucial in the generation of the quality of the immune response, generating strong TFH response, polyfunctional T-cell responses in the mucosa and a strong and stable humoral response characterized by high-quality antibodies.We also investigated mechanisms involved in the generation of immune responses following IN VLP injections. We determined which cells take in charge VLP and their role in the followed immune responses. Our preliminary results show many innate immune cells in the lungs, such as alveolar macrophages and neutrophils, have an important role in the particles uptake, limiting TFH response and potentially the followed humoral response.Finally, this thesis work will show the determining role of the mucosal route of immunization and the particulate form antigen for the development of an HIV vaccine.
45

Détection et poursuite en contexte Track-Before-Detect par filtrage particulaire / Detection and tracking in Track-Before-Detect context with particle filter

Lepoutre, Alexandre 05 October 2016 (has links)
Cette thèse s'intéresse à l'étude et au développement de méthodes de pistage mono et multicible en contexte Track-Before-Detect (TBD) par filtrage particulaire. Contrairement à l'approche classique qui effectue un seuillage préalable sur les données avant le pistage, l'approche TBD considère directement les données brutes afin de réaliser conjointement la détection et le pistage des différentes cibles. Il existe plusieurs solutions à ce problème, néanmoins cette thèse se restreint au cadre bayésien des Modèles de Markov Cachés pour lesquels le problème TBD peut être résolu à l'aide d'approximations particulaires. Dans un premier temps, nous nous intéressons à des méthodes particulaires monocibles existantes pour lesquels nous proposons différentes lois instrumentales permettant l'amélioration des performances en détection et estimation. Puis nous proposons une approche alternative du problème monocible fondée sur les temps d'apparition et de disparition de la cible; cette approche permet notamment un gain significatif au niveau du temps de calcul. Dans un second temps, nous nous intéressons au calcul de la vraisemblance en TBD -- nécessaire au bon fonctionnement des filtres particulaires -- rendu difficile par la présence des paramètres d'amplitudes des cibles qui sont inconnus et fluctuants au cours du temps. En particulier, nous étendons les travaux de Rutten et al. pour le calcul de la vraisemblance au modèle de fluctuations Swerling et au cas multicible. Enfin, nous traitons le problème multicible en contexte TBD. Nous montrons qu'en tenant compte de la structure particulière de la vraisemblance quand les cibles sont éloignées, il est possible de développer une solution multicible permettant d'utiliser, dans cette situation, un seule filtre par cible. Nous développons également un filtre TBD multicible complet permettant l'apparition et la disparition des cibles ainsi que les croisements. / This thesis deals with the study and the development of mono and multitarget tracking methods in a Track-Before-Detect (TBD) context with particle filters. Contrary to the classic approach that performs before the tracking stage a pre-detection and extraction step, the TBD approach directly works on raw data in order to jointly perform detection and tracking. Several solutions to this problem exist, however this thesis is restricted to the particular Hidden Markov Models considered in the Bayesian framework for which the TBD problem can be solved using particle filter approximations.Initially, we consider existing monotarget particle solutions and we propose several instrumental densities that allow to improve the performance both in detection and in estimation. Then, we propose an alternative approach of the monotarget TBD problem based on the target appearance and disappearance times. This new approach, in particular, allows to gain in terms of computational resources. Secondly, we investigate the calculation of the measurement likelihood in a TBD context -- necessary for the derivation of the particle filters -- that is difficult due to the presence of the target amplitude parameters that are unknown and fluctuate over time. In particular, we extend the work of Rutten et al. for the likelihood calculation to several Swerling models and to the multitarget case. Lastly, we consider the multitarget TBD problem. By taking advantage of the specific structure of the likelihood when targets are far apart from each other, we show that it is possible to develop a particle solution that considers only a particle filter per target. Moreover, we develop a whole multitarget TBD solution able to manage the target appearances and disappearances and also the crossing between targets.
46

Impacts of storm and flood events on suspended particulate matter dynamics in the Gulf of Lions. Contributions of gliders to a multi-platform approach. / Impacts des évènements de tempête et de crue sur la dynamique des particules en suspension dans le Golfe du Lion. Contributions des gliders dans l'approche multiplateforme

Many, Gael 14 October 2016 (has links)
La dynamique des matières en suspension joue un rôle primordial au sein de la zone côtière en étant le principal vecteur de matière particulaire depuis les sources (rivières) vers les puits (marges continentales, canyons sous-marins, océan profond). Le suivi de cette dynamique, notamment pendant les évènements de crues des fleuves et des tempêtes, est primordial afin d’estimer les budgets sédimentaires des marges continentales, de suivre l’évolution des habitats benthiques et de déterminer le rôle de cette dynamique dans le transport de contaminants. Cette thèse a pour objet l’étude des impacts de tels évènements sur la dynamique des particules en suspension au sein du Golfe du Lion (Méditerranée). Une approche multiplateforme, couplant les différentes plateformes de mesures existantes (campagne en mer, glider, satellite, mouillage, bouée côtière) et basée sur la mesure de la turbidité en terme quantitatif et qualitatif a été adoptée. Les résultats ont permis de décrire 1) la dynamique des néphéloïdes en fonction des forçages (vents, vagues, courants) durant des évènements de crue du Rhône et de tempête marine, 2) la variabilité spatiale et temporelle de l’assemblage particulaire lors de ces mêmes évènements par une caractérisation in situ et 3) de montrer le rôle des plateformes autonomes du type gliders dans le suivi de la dynamique des matières en suspension en zone côtière. / Coastal suspended particulate matter dynamics play a main role in the fate of land-derived material from the source (rivers) to sink (continental margins, submarine canyons, deep sea). The monitoring of this dynamic, especially during flooding and storm conditions, is decisive to understand factors impacting sedimentary budgets of continental margins, health of benthic habitats and spread of contaminants. The aim of this PhD is to study the impacts of such events on the suspended particles dynamics over the shelf of the Gulf of Lions (NW Mediteranean). A multi-platform approach, combining existing observation platforms (survey, glider, satellite, mooring and coastal buoy) and based on the measurement of the turbidity was adopted. Results enabled to describe 1) the impacts of forcings (winds, waves, currents) on the dynamics of nepheloid layers during flooding and storm conditions, 2) the variability of the particle assemblage during such events through an in situ characterization and 3) the role of gliders in the monitoring of suspended particles dynamics within the coastal zone.
47

Pistage de cibles manoeuvrantes en radar passif par filtrage à particules gaussiennes / Detection and tracking of maneuvering targets on passive radar by Gaussian particles filtering

Jishy, Khalil 22 March 2011 (has links)
Cette thèse porte sur l'application des techniques de filtrage statistiques au radar passif. L'objectif de cette thèse est d'adapter les méthodes à somme de gaussiennes et les méthodes particulaires pour la détection et/ou la poursuite dans un contexte multi-cible. Nous nous intéressons aux problématiques liées à des cibles fortement manoeuvrantes à rapport signal sur bruit pouvant être très faible. En guise d'application, la radio FM et la télévision numérique DVB-T seront exploitées comme sources d'opportunité par le système de localisation passive. Dans un premier temps, cette thèse récapitule l'état de l'art dans le domaine du radar passif, du filtrage statistique et des approches conventionnelles de pistage radar à base de données seuillées. Dans un deuxième temps, cette thèse explore l'apport du filtrage particulaire en radar passif. Avec une modélisation convenable du problème de poursuite d'une cible sous la forme d'un système dynamique non-linéaire, nous montrons comment le filtrage particulaire, appliqué sur les sorties bruitées (non-seuillées) du corrélateur, améliore les performances en terme de poursuite par rapport aux approches conventionnelles. Une extension au cas multi-cible est également traitée. L'ingrédient essentiel de l'algorithme proposé est l'intégration d'un système de synchronisation de l'instant d'échantillonnage du corrélateur (et le cas échéant de la fréquence de corrélation) qui permet à l'algorithme particulaire de compenser automatiquement la dynamique des cibles. Dans un troisième temps, nous exposons un nouveau système de détection/poursuite multi cible basé sur le filtrage bayésien avec la méthodologie "track-before-detect". Ce système est implémenté par une approximation à base de somme de gaussiennes ou une approximation à base de filtrage particulaire. Nous proposons également une technique d'annulation successive d'interférence qui permet de gérer la présence de lobes secondaires importants. Des simulations utilisant un signal radio FM, ont permis de confirmer le potentiel du système de détection/poursuite proposé. / The subject of this thesis is the application of statistical filtering techniques to passive radar. The objective of this thesis is to adapt Gaussian sum filtering and particle filtering methods to the detection and/or tracking in a multi-target context. Highly manoeuvring targets, at potentially very low signal-to-noise ratios, will be of particular interest. As an application, FM radio and terrestrial digital video broadcasting (DVB-T) will be exploited as illuminators of opportunity by the passive localization system. First, this thesis recapitulates the state-of-the-art in the domain of passive radar, statistical filtering and conventional radar tracking approaches based on the thresholded data. Second, this thesis explores the benefits of particle filtering in passive radar. With an appropriate modeling of the problem of target tracking as a non-linear dynamical system, we show how particle filtering, fed with the noisy unthresholded matched filter outputs, outperforms conventional tracking approaches. An extension to the multi-target case is also treated. The essential ingredient of the proposed algorithm is the inbuilt synchronization system of the correlator sampling instants (and potentially also of the correlation frequency), which allows the particle filter to compensate the dynamics of the targets automatically. Third, we present a new multi-target detection/tracking system, based on Bayesian filtering, using the track-before-detect methodology. This system is implemented with an approximation based on Gaussian sum filtering or an approximation based on particle filtering. We also propose a successive interference cancellation technique, which allows to handle the presence of large sidelobes. Simulations using FM radio confirmed the potential of the proposed detection/tracking system.
48

Décantabilité des particules et performance de décanteurs physico-chimiques

Boivin, Dominique 18 December 2023 (has links)
Titre de l'écran-titre (visionné le 4 décembre 2023) / Chaque jour, 10 millions de Franciliens produisent de l'eau usée, qu'il faut récolter et traiter avant de la rejeter dans la Seine. Le Syndicat interdépartemental pour l'assainissement de l'agglomération parisienne (SIAAP) s'occupe de l'acheminement de l'eau jusqu'à ses 6 stations d'épuration, et de leur opération. Pour assurer le traitement en tout temps, certaines unités de traitement, telles que les décanteurs physico-chimiques lamellaires, nécessitent une injection continue de produits chimiques, ce qui entraîne une dépense significative dans les coûts d'opération des usines. L'intégration d'un outil mathématique permettant une meilleure gestion de l'injection des réactifs entraînerait une économie sur les coûts d'opération. Bernier (2014) a développé une première version du modèle SimDec, basé sur le modèle de Takács et al. (1991), pour la prédiction de la qualité de l'effluent du décanteur physico-chimique lamellaire en connaissant la qualité d'eau de l'affluent. Même si le modèle SimDec fonctionne bien, Bernier (2014) suggère quelques améliorations, telles que l'ajout d'une meilleure caractérisation des vitesses de chute des particules. Il suggère également la division en classe de particules, comme mentionné dans les travaux de Maruéjouls et al. (2015). L'objectif principal de ce mémoire est d'étudier l'influence de la dose de coagulant sur la vitesse de décantation et la distribution des tailles de particules. Les vitesses de chute ont été estimées à l'aide d'essais ViCAs (Vitesse de Chute en Assainissement), développés par Chebbo et Gromaire (2009), lesquels permettent de connaître le pourcentage de particules décantées après une période de temps. Le coagulant utilisé, l'Alufer, est un mélange de deux coagulants commerciaux, AlCl₃ et FeCl₃, avec des fractions volumiques respectives de 60% et 40%. Le comportement étudié des courbes de distribution de vitesses de chute se rapproche des résultats de Tik (2020). Une optimisation de la concentration injectée pour maximiser la décantation est possible pour des valeurs de coagulant entre 5 mg/L et 20 mg/L et de polymère de 0,2 à 0,8 mg/L / Every day, 10 million people in the Parisian area produce wastewater, which must be collected and treated before being discharged into the Seine River. The Syndicat interdépartemental pour l'assainissement de l'agglomération parisienne (SIAAP) is responsible for transporting the water to its six treatment plants and for its treatment. To ensure treatment at all times, some treatment units, such as lamellar physical-chemical decanters, require continuous injection of chemicals, which results in a significant expense in the plants' operating costs. Incorporating a mathematical tool to better manage reagent injection would result in a savings in operating costs. Bernier (2014) developed an initial version of the SimDec model, based on the Takács et al. (1991) model, for predicting the effluent quality of the lamellar physical-chemical settler with knowledge of the influent water quality. Although the SimDec model works well, Bernier (2014) suggests some improvements, such as adding better characterization of particle fall velocities and suggests the division into particle classes, as mentioned in the work of Maruéjouls et al. (2015). The main objective of this study is to investigate the influence of coagulant dose on settling velocity and particle size distribution. Settling velocities were estimated using ViCAs (Vitesse de Chute en Assainissement, in French) tests, developed by Chebbo and Gromaire (2009), which provide the percentage of particles settled after a period of time. The coagulant used, Alufer, is a mixture of two commercial coagulants, AlCl₃ and FeCl₃, with respective volume fractions of 60% and 40%. The studied behavior of the settling velocity distribution curves is close to the results of Tik (2020). Optimization of the injected concentration to maximize settling is possible for coagulant values between 5 mg/L and 20 mg/L and polymer values between 0.2 and 0.8 mg/L.
49

Désagrégation spatiale de températures Météosat par une méthode d'assimilation de données (lisseur particulaire) dans un modèle de surface continentale / Spatial downscaling of Meteosat temperatures based on a data assimilation approach (Particle Smoother) to constrain a land surface model

Mechri, Rihab 04 December 2014 (has links)
La température des surfaces continentales (LST) est une variable météorologiquetrès importante car elle permet l’accès aux bilans d’énergie et d’eau ducontinuum Biosphère-Atmosphère. Sa haute variabilité spatio-temporelle nécessite desmesures à haute résolution spatiale (HRS) et temporelle (HRT) pour suivre au mieuxles états hydriques du sol et des végétations.La télédétection infrarouge thermique (IRT) permet d’estimer la LST à différentesrésolutions spatio-temporelles. Toutefois, les mesures les plus fréquentes sont souventà basse résolution spatiale (BRS). Il faut donc développer des méthodes pour estimerla LST à HRS à partir des mesures IRT à BRS/HRT. Cette solution est connue sous lenom de désagrégation et fait l’objet de cette thèse.Ainsi, une nouvelle approche de désagrégation basée sur l’assimilation de données(AD) est proposée. Il s’agit de contraindre la dynamique des LSTs HRS/HRT simuléespar un modèle en minimisant l’écart entre les LST agrégées et les données IRT àBRS/HRT, sous l’hypothèse d’homogénéité de la LST par type d’occupation des sols àl’échelle du pixel BRS. La méthode d’AD choisie est un lisseur particulaire qui a étéimplémenté dans le modèle de surface SETHYS (Suivi de l’Etat Hydrique du Sol).L’approche a été évaluée dans une première étape sur des données synthétiques etvalidée ensuite sur des données réelles de télédétection sur une petite région au Sud-Est de la France. Des séries de températures Météosat à 5 km de résolution spatialeont été désagrégées à 90m et validées sur une journée à l’aide de données ASTER.Les résultats encourageants nous ont conduit à élargir la région d’étude et la périoded’assimilation à sept mois. La désagrégation des produits Météosat a été validée quantitativementà 1km à l’aide de données MODIS et qualitativement à 30m à l’aide dedonnées Landsat7. Les résultats montrent de bonnes performances avec des erreursinférieures à 2.5K sur les températures désagrégées à 1km. / Land surface temperature (LST) is one of the most important meteorologicalvariables giving access to water and energy budgets governing the Biosphere-Atmosphere continuum. To better monitor vegetation and energy states, we need hightemporal and spatial resolution measures of LST because its high variability in spaceand time.Despite the growing availability of Thermal Infra-Red (TIR) remote sensing LSTproducts, at different spatial and temporal resolutions, both high spatial resolution(HSR) and high temporal resolution (HTR) TIR data is still not possible because ofsatellite resolutions trade-off : the most frequent LST products being low spatial resolution(LSR) ones.It is therefore necessary to develop methods to estimate HSR/HTR LST from availableTIR LSR/HTR ones. This solution is known as "downscaling" and the presentthesis proposes a new approach for downscaling LST based on Data Assimilation (DA)methods. The basic idea is to constrain HSR/HTR LST dynamics, simulated by a dynamicalmodel, through the minimization of their respective aggregated LSTs discrepancytoward LSR observations, assuming that LST is homogeneous at the land cover typescale inside the LSR pixel.Our method uses a particle smoother DA method implemented in a land surfacemodel : SETHYS model (Suivie de l’Etat Hydrique de Sol). The proposed approach hasbeen firstly evaluated in a synthetic framework then validated using actual TIR LSTover a small area in South-East of France. Meteosat LST time series were downscaledfrom 5km to 90m and validated with ASTER HSR LST over one day. The encouragingresults conducted us to expand the study area and consider a larger assimilation periodof seven months. The downscaled Meteosat LSTs were quantitatively validated at1km of spatial resolution (SR) with MODIS data and qualitatively at 30m of SR withLandsat7 data. The results demonstrated good performances with downscaling errorsless than 2.5K at MODIS scale (1km of SR).
50

Optimisation par essaim particulaire : adaptation de tribes à l'optimisation multiobjectif

Smairi, Nadia 06 December 2013 (has links) (PDF)
Dans le cadre de l'optimisation multiobjectif, les métaheuristiques sont reconnues pour être des méthodes performantes mais elles ne rencontrent qu'un succès modéré dans le monde de l'industrie. Dans un milieu où seule la performance compte, l'aspect stochastique des métaheuristiques semble encore être un obstacle difficile à franchir pour les décisionnaires. Il est donc important que les chercheurs de la communauté portent un effort tout particulier sur la facilité de prise en main des algorithmes. Plus les algorithmes seront faciles d'accès pour les utilisateurs novices, plus l'utilisation de ceux-ci pourra se répandre. Parmi les améliorations possibles, la réduction du nombre de paramètres des algorithmes apparaît comme un enjeu majeur. En effet, les métaheuristiques sont fortement dépendantes de leur jeu de paramètres. Dans ce cadre se situe l'apport majeur de TRIBES, un algorithme mono-objectif d'Optimisation par Essaim Particulaire (OEP) qui fonctionne automatiquement,sans paramètres. Il a été mis au point par Maurice Clerc. En fait, le fonctionnement de l'OEP nécessite la manipulation de plusieurs paramètres. De ce fait, TRIBES évite l'effort de les régler (taille de l'essaim, vitesse maximale, facteur d'inertie, etc.).Nous proposons dans cette thèse une adaptation de TRIBES à l'optimisation multiobjectif. L'objectif est d'obtenir un algorithme d'optimisation par essaim particulaire multiobjectif sans paramètres de contrôle. Nous reprenons les principaux mécanismes de TRIBES auxquels sont ajoutés de nouveaux mécanismes destinés à traiter des problèmes multiobjectif. Après les expérimentations, nous avons constaté, que TRIBES-Multiobjectif est moins compétitif par rapport aux algorithmes de référence dans la littérature. Ceci peut être expliqué par la stagnation prématurée de l'essaim. Pour remédier à ces problèmes, nous avons proposé l'hybridation entre TRIBES-Multiobjectif et un algorithme de recherche locale, à savoir le recuit simulé et la recherche tabou. L'idée était d'améliorer la capacité d'exploitation deTRIBES-Multiobjectif. Nos algorithmes ont été finalement appliqués sur des problèmes de dimensionnement des transistors dans les circuits analogiques

Page generated in 0.5072 seconds