• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 114
  • 37
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 489
  • 215
  • 173
  • 132
  • 102
  • 49
  • 48
  • 43
  • 39
  • 38
  • 36
  • 34
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Algorithmes de suivi de cible mobile pour les réseaux de capteurs sans fils / Moving target tracking algorithms for Wireless Sensor Networks

Boulanouar, Ibtissem 24 June 2014 (has links)
Les réseaux de capteurs sans fils se définissent comme un ensemble de petits appareils autonomes et interconnectés. Ces capteurs sont déployés dans une zone d'intérêt dans le but de collecter des informations de l'environnement comme la température ou la qualité de l'air, suivant l'application envisagée. L'évolution de ces dispositifs de capture vers le multimédia ouvre l'accès à une plus large palette d'applications et de services pour une meilleure maitrise de notre environnement. Dans cette thèse nous nous intéressons au suivi de cible mobile dans les réseaux de capteurs sans fils, certains de ces capteurs pouvant collecter des images. Le suivi de cible (Tracking) consiste à détecter et à localiser sur l'ensemble de sa trajectoire une cible traversant une zone d'intérêt. Cette application peut s'avérer très utile, par exemple, pour détecter et enregistrer les déplacements d'un intrus dans une zone sensible ou encore pour suivre les déplacements d'une personne assistée et munie d'un appareil avec interface radio. Contrairement aux systèmes de surveillance classiques qui nécessitent une infrastructure fixe, les réseaux de capteurs sans fils sont aussi faciles à installer qu'à désinstaller. De plus, grâce à leur polyvalence, ils peuvent être utilisés dans de nombreux environnements hostiles et inaccessibles pour l'être humain. Toutefois, étant restreints en énergie, ils ne peuvent rester actifs en permanence au risque de limiter considérablement leur durée de vie. Afin de résoudre ce problème, l'idée est d'activer uniquement les capteurs qui sont sur la trajectoire de la cible au moment ou cette dernière est à leur portée radio ou visuelle. La question est donc : comment et sur quels critères activer ces capteurs afin d'obtenir à tout moment le meilleur compromis entre la précision du suivi et la préservation des ressources énergétiques ? C'est à cette question que nous essayerons de répondre tout au long de cette thèse. Dans un premier temps nous nous intéressons aux cibles communicantes qui ont la faculté d'émettre des signaux et donc de faciliter grandement le processus de suivi. Le défi ici est de relayer l'information entre les différents capteurs concernés. Nous utilisons pour cela un algorithme de déploiement basé sur le concept de forces virtuelles (VFA : Virtual Forces Algorithm) associé à un algorithme de suivi collaboratif et distribué implémenté sur un réseau organisé en clusters. Ensuite, nous traitons le cas, plus complexe et plus fréquent, des cibles non communicantes. L'objectif est de détecter la présence de la cible uniquement à l'aide de capteurs de présence. Pour cela nous proposons le déploiement d'un réseau de capteurs sans fil hétérogènes composé decapteurs de mouvement en charge de la partie détection de la cible et de capteurs vidéo en charge de la partie localisation. Lorsqu'une cible est détectée par un capteur de mouvement, l'information est communiquée aux capteurs vidéo voisins qui décident d'activer ou non leurs caméras en se basant sur des critères prédéfinis tenant compte de l'angle d'orientation des caméras. Enfin, dans une dernière contribution nous nous intéressons plus spécifique mentaux modèles de mobilité de la cible. Ces modèles nous permettent d'anticiper ses déplacements et d'affiner le processus d'activation des capteurs qui sont sur sa trajectoire. Nous utilisons pour cela le filtre de Kalman étendu combiné à un mécanisme de détection de changements de direction nommé CuSum (Cumulative Summuray). Ce mécanisme nous permet de calculer efficacement les futures coordonnées de la cible et de réveiller les capteurs en conséquence / Wireless Sensor Networks (WSN) are a set of tiny autonomous and interconnected devices. These Sensors are scattered in a region of interest to collect information about the surrounding environment depending on the intended application. Nowadays, sensors allow handling more complex data such as multimedia flow. Thus, we observe the emergence of Wireless Multimedia Sensor Networks opening a wider range of applications. In this work, we focus on tracking moving target in these kinds of networks. Target tracking is defined as a two-stage application: detection and localization of the target through its evolution inside an area of interest. This application can be very useful. For example, the presence of an intruder can be detected and its position inside a sensitive area reported, elderly or sick persons carrying sensors can be tracked anytime and so on. Unlike classical monitoring systems, WSN are more flexible and more easy to set up. Moreover, due to their versatility and autonomy they can be used in hostile regions, inaccessible for human. However, these kinds of networks have some limitations: wireless links are not reliable and data processing and transmission are greedy processes in term of energy. To overcome the energy constraint, only the sensors located in target pathway should be activated. Thus, the question is : how to select these sensors to obtain the best compromise between the tracking precision and the energy consumption? This is the question we are trying to answer in this dissertation. Firstly, we focus on communicating targets which have the ability to transmit signals and greatly facilitate the tracking process. The challenge here is to relay the information between the concerned sensors. In order to deal with this challenge, we use a deployment strategy based on virtual forces (VFA: Virtual Forces Algorithm) associated to a distributed tracking algorithm implemented in a cluster-based network. Secondly, we handle a more complex and more frequent case of non-communicating targets. The objective is to detect the presence of such target using movement sensors. We propose the deployment of an heterogeneous wireless sensor networks composed of movement sensors used to detect the target and camera sensors used to locate it. When the target is detected the information is sent to the camera sensors which decide whether to activate or not their cameras based on probabilistic criteria which include the camera orientation angle. Finally, as our last contribution, we specifically focus on target mobility models. These models help us to predict target behaviour and refine the sensor activation process. We use the Extended Kalamn filter as prediction model combined with a change detection mechanism named CuSum (Cumulative Summuray). This mechanism allows to efficiently compute the future target coordinates, and to select which sensors to activate
172

Synthèse analytique de panneaux réflecteurs imprimés : Utilisation de circuits équivalents et de techniques de synthèse de filtres / Analytical synthesis of printed array pannels : Using equivalent circuits and filters synthesis techniques

Grossetete, Alexandre 19 June 2018 (has links)
Les réseaux réflecteurs sont une alternative prometteuse aux antennes à réflecteurs pour la réalisation de diagrammes de rayonnement directifs ou de couvertures formées, notamment dans le spatial ou dans l'aéronautique. Constitués d'un grand nombre de cellules unitaires dont il faut optimiser la géométrie individuellement, ils restent toutefois difficiles à concevoir. Cette thèse traite de la synthèse des antennes réseau à réflecteur. Aujourd'hui les méthodes utilisées pour les concevoir exploitent, pour la majorité, les logiciels de simulation électromagnétique. Elles sont très coûteuses en temps de calcul et requièrent au final des hypothèses simplificatrices. L'objectif de cette thèse est de répondre à la question suivante : est-il possible de synthétiser de manière purement·analytique un réseau réflecteur? Nous avons répondu à cette question en exploitant la méthode de modélisation multimodale. Elle consiste à représenter la cellule unitaire sous la forme d'un circuit équivalent. Ses propriétés remarquables permettent de prédire analytiquement la phase en réflexion en fonction des dimensions de la cellule unitaire. Un réflecteur composé de cellules unitaires à motif 1 D de;type ruban métallique a tout d'abord été étudié et évalué dans le cadre de la synthèse analytique d'une structure simple. Cette étude a permis de valider la méthode de modélisation en vue de son utilisation dans la synthèse analytique de réseaux réflecteurs. Trois réseaux réflecteurs composés de cellules unitaires 2D de types patch et grille ont ensuite·été synthétisés sur la base de trois spécifications différentes, ceci afin de tester la synthèse analytique dans des configurations de plus en plus contraignantes. Finalement il s'est révélé que la méthode de modélisation multimodale et prometteuse mais que sa précision doit encore être améliorée pour permettre une synthèse complète de réseau réflecteur. / Reflectarrays antennas are a promising alternative to reflector antennas in order to produce focused and contoured beams especially for aeronautics and space applications. A reflectarray antenna is made up of ah array of unit cell that provide a pre-adjusted phasing to form the desired beam.The synthesis of a reflectarray consists in fixing the geometrical dimensions of each unit cell to generate the desired phase law. This thesis focuses on the synthesis of reflectarray. The current methods are mostly based on full­wave analysis and so they are time consuming.The purpose of this thesis is to answer at the following question: a reflectarray can be fully analytically synthesized? We answer it by using the multimodal method. The unit cell is then represented by an equivalent circuit. Using its remarkable properties, the reflected phase can be analytically predicted according to the geometrical dimensions of the unit cell. We used it firstly to synthesize a reflector where the unit cell is composed or a metallic strip. This study has validated this method in order to synthesize reflectarray, Then three reflectarrays have been synthesized based on three specifications. Finally, the multimodal method is promising but the precision has to be improving in order to fully synthesize a reflectarray.
173

Extraction et débruitage de signaux ECG du foetus. / Extraction of Fetal ECG

Niknazar, Mohammad 07 November 2013 (has links)
Les malformations cardiaques congénitales sont la première cause de décès liés à une anomalie congénitale. L’´electrocardiogramme du fœtus (ECGf), qui est censé contenir beaucoup plus d’informations par rapport aux méthodes échographiques conventionnelles, peut ˆêtre mesuré´e par des électrodes sur l’abdomen de la mère. Cependant, il est tr`es faible et mélangé avec plusieurs sources de bruit et interférence y compris l’ECG de la mère (ECGm) dont le niveau est très fort. Dans les études précédentes, plusieurs méthodes ont été proposées pour l’extraction de l’ECGf à partir des signaux enregistrés par des électrodes placées à la surface du corps de la mère. Cependant, ces méthodes nécessitent un nombre de capteurs important, et s’avèrent inefficaces avec un ou deux capteurs. Dans cette étude trois approches innovantes reposant sur une paramétrisation algébrique, statistique ou par variables d’état sont proposées. Ces trois méthodes mettent en œuvre des modélisations différentes de la quasi-périodicité du signal cardiaque. Dans la première approche, le signal cardiaque et sa variabilité sont modélisés par un filtre de Kalman. Dans la seconde approche, le signal est découpé en fenêtres selon les battements, et l’empilage constitue un tenseur dont on cherchera la décomposition. Dans la troisième approche, le signal n’est pas modélisé directement, mais il est considéré comme un processus Gaussien, caractérisé par ses statistiques à l’ordre deux. Dans les différentes modèles, contrairement aux études précédentes, l’ECGm et le (ou les) ECGf sont modélisés explicitement. Les performances des méthodes proposées, qui utilisent un nombre minimum de capteurs, sont évaluées sur des données synthétiques et des enregistrements réels, y compris les signaux cardiaques des fœtus jumeaux. / Congenital heart defects are the leading cause of birth defect-related deaths. The fetal electrocardiogram (fECG), which is believed to contain much more information as compared with conventional sonographic methods, can be measured by placing electrodes on the mother’s abdomen. However, it has very low power and is mixed with several sources of noise and interference, including the strong maternal ECG (mECG). In previous studies, several methods have been proposed for the extraction of fECG signals recorded from the maternal body surface. However, these methods require a large number of sensors, and are ineffective with only one or two sensors. In this study, state modeling, statistical and deterministic approaches are proposed for capturing weak traces of fetal cardiac signals. These three methods implement different models of the quasi-periodicity of the cardiac signal. In the first approach, the heart rate and its variability are modeled by a Kalman filter. In the second approach, the signal is divided into windows according to the beats. Stacking the windows constructs a tensor that is then decomposed. In a third approach, the signal is not directly modeled, but it is considered as a Gaussian process characterized by its second order statistics. In all the different proposed methods, unlike previous studies, mECG and fECG(s) are explicitly modeled. The performances of the proposed methods, which utilize a minimal number of electrodes, are assessed on synthetic data and actual recordings including twin fetal cardiac signals.
174

Devenir du phosphore dans les filtres plantés de roseaux : Etude de sa rétention / libération et des facteurs d'influence / Phosphorus dynamics in vertical flow constructed wetlands : Study of its retention / release and influencing factors

Kim, Boram 10 July 2014 (has links)
La gestion « durable » des ressources en phosphore est aujourd’hui un enjeu important du fait de l’épuisement des réserves naturelles et des besoins croissants de l’agriculture notamment. En parallèle, la protection des écosystèmes conduit à des réglementations de plus en plus strictes des rejets de phosphore. L’objectif scientifique de cette thèse est de contribuer à décrire les mécanismes de rétention et de libération du phosphore dans le cadre du traitement des eaux usées domestiques par filtres plantés de roseaux à écoulement vertical, notamment de mieux comprendre où et sous quelle forme le phosphore est retenu dans le système. Plus particulièrement, les travaux ont porté sur le procédé Azoé NP® proposé par la société française SCIRPE, lequel comprend un prétraitement biologique sur lit bactérien, une précipitation du phosphore par injection de chlorure ferrique, puis deux étages de filtres plantés de roseaux à écoulement vertical partiellement immergés. Dans une première phase, nous avons étudié la plus ancienne station de type Azoé NP® située à Vercia (Jura) qui a été suivie depuis 8 ans. Les résultats ont montré les bonnes performances du procédé et leur maintien sur le long terme malgré la forte augmentation de charge organique en automne provenant d’effluents viticoles. Il a été montré que le phosphore était principalement retenu au sein du premier filtre, essentiellement dans la couche de boues organiques qui se forme en surface du 1er étage. L’utilisation de techniques analytiques complémentaires a permis de montrer notamment que leur minéralisation progressive entrainait une évolution des espèces de phosphore au cours du temps, avec par exemple formation de phosphore apatitique. La rétention du phosphore dans les boues a ensuite été étudiée à l’échelle du laboratoire à l’aide de lixiviations successives dans des conditions extrêmes de pH ou d’oxydo-réduction. Les résultats ont montré une très bonne stabilité en conditions de fonctionnement normales. Des essais pilotes ont enfin été réalisés pour approfondir l’évaluation de l’influence du potentiel redox en faisant varier la hauteur d’immersion du milieu filtrant qui influence les conditions d’oxydoréduction. Ces études ont confirmé la stabilité des procédés Azoé NP® et Azoé P® (correspondant au procédé Azoé NP® sans zone d’immersion) en fonctionnement normal. En conditions d’immersion totale prolongée simulant un dysfonctionnement du système, les performances sont dégradées en une semaine, mais le retour en mode totalement insaturé permet un rétablissement très rapide indiquant la bonne résilience du système. / Nowadays, sustainable management of phosphorus resources is an important issue due to the depletion of natural reserves and growing of its agriculture need. In parallel, the protection of ecosystems leads to stringent regulations concerning treatment of phosphorus in wastewaters. The scientific objective of this thesis was to contribute to describing the phosphorus retention and release in domestic wastewater treatments by vertical flow constructed wetlands, especially to better understand where and in which form the phosphorus is retained in the system. In particular, the work focused on the process Azoé NP® proposed by the French company SCIRPE, which includes a biological pretreatment on trickling filter, precipitation of phosphorus by injection of ferric chloride and two stages of partially flooded vertical flow constructed wetland. First of all, we studied the oldest Azoé NP® type station located at Vercia (Jura, France) which was monitored for 8 years. The results showed that the Vercia treatment plant provided robust year-round treatment of municipal wastewater and winery wastewater during automn. It was found that the phosphorus was principally retained within the deposit organic sludge layer on the surface of the first stage of filteration. The use of additional analytical techniques showed that phosphates species within this deposit layer changed during the mineralization of organic matters over time. The formation of amorphous apatite species was also discussed. The stability of the retention of phosphorus in sludge was then studied at laboratory scale using successive leaching under extreme conditions of pH or redox potential. The results showed a very good stability of sludge from the Vercia plant in normal operating conditions. Pilot tests were finally performed to evaluate the influence water saturation level within the filter medium which affect redox conditions of the system. These studies confirmed the stability of processes Azoé NP® and Azoé P® (corresponding to the process Azoé NP® without water saturation within filter media) during normal operation. Under conditions of prolonged immersion simulating a malfunctionning of the system, the performance was degraded after one week of flooding. However, the return to fully unsaturated mode allowed a very fast recovery of the filter, showing a good resilience of the system.
175

Intérêt des algorithmes de réduction de bruit dans l’implant cochléaire : Application à la binauralité / Interest of algorithms for noise reduction in cochlear implants : binaural application

Jeanvoine, Arnaud 17 December 2012 (has links)
Les implants cochléaires sont des appareils destinés à la réhabilitationdes surdités profondes et totales. Ils assurent la stimulation du nerf auditif en plaçant des électrodes dans la cochlée. Différentes études ont été établis afin d’améliorer l’intelligibilité de la parole dans le bruit chez le patientporteur de cet appareil. Les techniques bilatérales et binaurales permettent dereproduire une audition binaurale, car les deux oreilles sont simulées (commepour les personnes normo-entendantes). Ainsi la localisation et la perceptiondes sons environnants sont améliorées par rapport à une implantationmonaurale. Toutefois, les capacit´es de reconnaissances des mots sont trèsvite limitées en pr´esence de bruits. Nous avons d´evelopp´es des techniquesde r´eduction de bruit afin d’augmenter les performances de reconnaissance.Des améliorations de 10% à 15% suivant les conditions ont été observées. Néanmoins, si la perception est améliorée par les algorithmes, ils focalisent sur une direction, et ainsi, la localisation est alors réduite à l’angle delocalisation. Une seconde étude a alors été effectuée pour mesurer l’effetdes algorithmes sur la localisation. Ainsi, le beamformer donne les meilleurs résultats de compréhension mais la moins bonne localisation. La ré-injectiond’un pourcentage du signal d’entrée sur la sortie a permis de compenser laperte de la localisation sans détériorer l’intelligibilité. Le résultat de ces deux expériences montre qu’il faut un compromis entre laperception et la localisation des sons pour obtenir les meilleures performances. / Cochlear implants are to sail for the rehabilitation of deep and totaldeafness. They provide stimulation of the auditory nerve by placing electrodesin the cochlea. Various studies have been established to improve thespeech intelligibility in noise in the patient of this device. Bilateral andbinaural techniques allow reproducing a binaural hearing, since both earsare simulated (as for normal hearing people). Thus localization and theperception of the surrounding sounds are improved from a monauralimplantation. However, the recognition of the words capabilities are limitedvery quickly in the presence of noise.We developed noise reduction techniquesto increase the performance of recognition. Improvements of 10% to 15%depending on the conditions were observed. Nevertheless, if the perception isenhanced by algorithms, they focus on a direction, and thus the location isthen reduced at the corner of localization. Then, a second study was madeto measure the effect of localization algorithms. Thus, the beamformer givesthe best results of understanding but the less good location. The re-injectionof a percentage of the input to the output signal helped offset the loss of thelocation without damaging the intelligibility.The result of these two experiments shows that it takes a compromisebetween perception and sound localization for best performance.
176

Filtres accordables volumiques à forts facteurs de qualité pour des applications spatiales / High quality tunable filters for spatial applications

Jolly, Nicolas 02 November 2015 (has links)
A l'heure où la demande en quantité d'informations et le nombre d'utilisateurs explosent, toujours avec des limitations en allocation en fréquence et bande passante, les systèmes de télécommunication tendent à optimiser la gestion de leur capacité en s'orientant vers des systèmes reconfigurables. Dans le cas des filtres d'OMUX, apporter de l'accordabilité en conservant d'excellentes performances électriques, thermiques et mécaniques soulève de nombreuses difficultés.Nous avons dans un premier temps démontré la faisabilité sur un filtre à saut de canal à bande passante constante par le biais d'une cavité métallique chargée par un perturbateur en alumine en mouvement de rotation. Ensuite, nous avons proposé des solutions pour avoir un contrôle de la fréquence et de la bande passante en se basant sur la translation de matériaux diélectriques. Les facteurs de qualité mis en jeu sont de l'ordre de la dizaine de milliers. Enfin nous avons tiré profit de l'évolution des technologies d'impression plastique 3D pour valider différents concepts de filtres accordables. / At a time when the amount of information and the number of users go through the roof in telecommunication market, the telecommunication systems tend to improve the management of their capacity by moving toward reconfigurable RF devices. However frequency and bandwidth allocated are still restricted. Regarding tunable OMUX filters, the actuation systems generally degrade the overall performances of the device and raise questions in terms of mechanic and thermic.We first demonstrated the feasability of a two state filter with constant narrowband, using a dielectric material (alumina) in rotation inside a metallic housing. Then, we suggested solutions to control both frequency and bandwidth with the translation of a ceramics. We deal with quality factor in the range of ten of thousands for these applications. Eventually, we validated some principle for tunable filters thanks to the efficiency of 3D plastic printer.
177

Conception et intégration d’un sous-système filtre-antenne en céramique pour les communications haut-débit sans fils à 60 GHz / Conception of a ceramic filter / antenna subsystem for Wireless Communications at 60GHz

Kouki, Faten 15 January 2015 (has links)
Dans le cadre des communications numériques sans fil, la vitesse d’échange de données est plus que jamais une caractéristique critique du système. Une augmentation du débit est donc nécessaire pour le développement de nouvelles applications, comme le «Wireless HD» qui doit rendre possible la transmission sans fil de gros volumes de données, telles que de la vidéo «non-compressée» à haute définition, à très haut débit (1-2 Gbps). La bande de fréquence centrée à 60 GHz semble être une solution préférentielle pour répondre à un tel besoin de par sa bande de fréquence disponible (9 GHz). Pour cela, il est nécessaire de disposer de technologies performantes pour l’intégration de systèmes d’émission réception (front-ends) millimétriques pour ces communications à très haut débit. L’objectif de cette thèse est de participer à la réalisation d’un système antennaire très directif à 60 GHz par la conception combinée d’une antenne et d’un filtre, et l’intégration de cette fonction grâce à un même procédé technologique. La conception et l’intégration combinées de l’antenne et du filtre participeront à améliorer le rendement global du sous-système destiné à des applications très haut débit à 60 GHz. Cette thèse, intitulée «Conception de fonctions combinées filtre-antenne pour les communications haut débit à 60 GHz», a été réalisée au sein du laboratoire XLIM, en collaboration avec le SPCTS pour les aspects technologiques, dans le cadre d’un projet régional. / The 60 GHz unlicensed spectrum between 57 and 66 GHz has received a lot of attention over the last years for enabling short-range and over 1-Gbps high-speed wireless communications. In addition to the high-data rates that can be accomplished in this spectrum, many other benefits such as high security communications are foreseen. In general, this frequency band is destined to low power and short range fixed or mobile applications. To benefit from high-speed within a compact device, it is required to realize a subsystem combining a directional antenna and a multiplexer with the same technological process. The 3D ceramic stereo lithography process has been selected to ensure the dimensional accuracy and limit the inevitable dispersions. This thesis contributes to achieve directional antennas at 60GHz by a combined antenna design and filter, and perform this function in the same technology the 3D ceramic stereo lithography process when connecting the filter with the antenna. Therefore, the first challenge is to design and to manufacture the primary feed of the directive antenna and the channel filters using the 3D ceramic process. The second challenge is to combine the primary feed and the 4 channel filters to form a single object. The filter-antenna subsystem allows to have a directivity of approximately 14 dBi. Therefore, the radiation of the horn antenna remains unchanged over the whole frequency band [57-66]GHz by associating the manifold multiplexer. The filter-antenna subsystem provides a return loss better than 10 dB at each port.
178

Reconstruction de champs aérodynamiques à partir de mesures ponctuelles / Reconstruction of turbulent velocity fields from punctual measurements

Arnault, Anthony 13 December 2016 (has links)
Le suivi en temps réel des écoulements turbulents est une tâche difficile ayant des applications dans de nombreux domaines. Un exemple est la mesure des tourbillons de sillage au niveau des pistes d’aéroports afin d’optimiser la distance entre les avions en phase d’approche ou de décollage. Un autre exemple se rapporte au contrôle actif d’écoulements. De tels contrôles peuvent servir à réduire le bruit des avions... Cette thèse vise à développer des outils afin d’estimer en temps réel des champs de vitesse d’écoulements turbulents à partir d’un faible nombre de mesures ponctuelles. Après une étude bibliographique centrée sur une méthode de reconstruction populaire, l’estimation stochastique (SE), ses performances sont évaluées pour la prédiction de champs de vitesse issus d’écoulements de complexité croissante. La précision des estimations obtenues étant très faibles dans certains cas, une analyse précise de la méthode est effectuée. Celle-ci a montré l’effet filtrant de la SE sur le contenu spatial et temporel des champs de vitesse. De plus, le fort impact de la position des capteurs a été mis en avant. C’est pourquoi un algorithme d’optimisation de la position des capteurs est ensuite présenté. Bien que l’optimisation de la position des capteurs mène à une amélioration de la précision des prédictions obtenues par SE, elle reste néanmoins très faible pour certains cas tests. L’utilisation d’une technique issue du domaine de l’assimilation de données, le filtre de Kalman qui combine un modèle dynamique de l’écoulement avec les mesures, a donc été étudiée. Pour certains écoulements, le filtre de Kalman permet d’obtenir des prédictions plus précises que la SE. / Real time monitoring of turbulent flows is a challenging task that concerns a large range of applications. Evaluating wake vortices around the approach runway of an airport, in order to optimize the distance between lined-up aircraft, is an example. Another one touches to the broad subject of active flow control. In aerodynamic, control of detached flows is an essential issue. Such a control can serve to reduce noise produced by airplanes, or improve their aerodynamic performances. This work aims at developing tools to produce real time prediction of turbulent velocity fields from a small number of punctual sensors. After a literature review focused on a popular reconstruction method in fluid mechanics, the Stochastic Estimation (SE), the first step was to evaluate its overall prediction performances on several turbulent flows of gradual complexity. The accuracy of the SE being very limited in some cases, a deeper characterization of the method was performed. The filtering effect of the SE in terms of spatial and temporal content was particularly highlighted. This characterization pointed out the strong influence of the sensor locations on the estimation quality. Therefore, a sensor location optimization algorithm was proposed and extended to the choice of time delays when using Multi-Time-Delay SE. While using optimized locations for the sensors hold some accuracy improvements, they were still insufficient for some test cases. The opportunity to use a data assimilation method, the Kalman filter that combines a dynamic model of the flow with sensor information, was investigated. For some cases, the results were promising and the Kalman filter outperforms all SE methods.
179

Assimilation de données ensembliste et couplage de modèles hydrauliques 1D-2D pour la prévision des crues en temps réel. Application au réseau hydraulique "Adour maritime / Ensemblist data assimilation and 1D-2D hydraulic model coupling for real-time flood forecasting. Application to the "Adour maritime" hydraulic network

Barthélémy, Sébastien 12 May 2015 (has links)
Les inondations sont un risque naturel majeur pour les biens et les personnes. Prévoir celles-ci, informer le grand public et les autorités sont de la responsabilité des services de prévision des crues. Pour ce faire ils disposent d'observations in situ et de modèles numériques. Néanmoins les modèles numériques sont une représentation simplifiée et donc entachée d'erreur de la réalité. Les observations quant à elle fournissent une information localisée et peuvent être également entachées d'erreur. Les méthodes d'assimilation de données consistent à combiner ces deux sources d'information et sont utilisées pour réduire l'incertitude sur la description de l'état hydraulique des cours d'eau et améliorer les prévisisons. Ces dernières décennies l'assimilation de données a été appliquée avec succès à l'hydraulique fluviale pour l'amélioration des modèles et pour la prévision des crues. Cependant le développement de méthodes d'assimilation pour la prévision en temps réel est contraint par le temps de calcul disponible et par la conception de la chaîne opérationnelle. Les méthodes en question doivent donc être performantes, simples à implémenter et peu coûteuses. Un autre défi réside dans la combinaison des modèles hydrauliques de dimensions différentes développés pour décrire les réseaux hydrauliques. Un modèle 1D est peu coûteux mais ne permet pas de décrire des écoulement complexes, contrairement à un modèle 2D. Le simple chainage des modèles 1D et 2D avec échange des conditions aux limites n'assure pas la continuité de l'état hydraulique. Il convient alors de coupler les modèles, tout en limitant le coût de calcul. Cette thèse a été financée par la région Midi-Pyrénées et le SCHAPI (Service Central d'Hydrométéorolgie et d'Appui à la Prévisions des Inondations) et a pour objectif d'étudier l'apport de l'assimilation de données et du couplage de modèles pour la prévision des crues. Elle se décompose en deux axes : Un axe sur l'assimilation de données. On s'intéresse à l'émulation du filtre de Kalman d'Ensemble (EnKF) sur le modèle d'onde de crue. On montre, sous certaines hypothèses, qu'on peut émuler l'EnKF avec un filtre de Kalman invariant pour un coût de calcul réduit. Dans un second temps nous nous intéressons à l'application de l'EnKF sur l'Adour maritime avec un modèle Saint-Venant. Nous en montrons les limitations dans sa version classique et montrons les avantages apportés par des méthodes complémentaires d'inflation et d'estimation des covariances d'erreur d'observation. L'apport de l'assimilation des données in situ de hauteurs d'eau sur des cas synthétiques et sur des crues réelles a été démontré et permet une correction spatialisée des hauteurs d'eau et des débits. En conséquence, on constate que les prévisions à court terme sont améliorées. Nous montrons enfin qu'un système de prévisions probabilistes sur l'Adour dépend de la connaissance que l'on a des forçages amonts ; un axe sur le couplage de modèles hydrauliques. Sur l'Adour 2 modèles co-existent : un modèle 1D et un modèle 2D au niveau de Bayonne. Deux méthodes de couplage ont été implémentées. Une première méthode, dite de "couplage à interfaces", combine le 1D décomposé en sous-modèles couplés au 2D au niveau frontières liquides de ce dernier. Une deuxième méthode superpose le 1D avec le 2D sur la zone de recouvrement ; le 1D force le 2D qui, quand il est en crue, calcule les termes d'apports latéraux pour le 1D, modélisant les échanges entre lit mineur et lit majeur. Le coût de calcul de la méthode par interfaces est significativement plus élevé que celui associé à la méthode de couplage par superposition, mais assure une meilleure continuité des variables. En revanche, la méthode de superposition est immédiatement compatible avec l'approche d'assimilation de données sur la zone 1D. / Floods represent a major threat for people and society. Flood forecasting agencies are in charge of floods forecasting, risk assessment and alert to governmental authorities and population. To do so, flood forecasting agencies rely on observations and numerical models. However numerical models and observations provide an incomplete and inexact description of reality as they suffer from various sources of uncertianties. Data assimilation methods consists in optimally combining observations with models in order to reduce both uncertainties in the models and in the observations, thus improving simulation and forecast. Over the last decades, the merits of data assimilation has been greatly demonstrated in the field of hydraulics and hydrology, partly in the context of model calibration or flood forecasting. Yet, the implementation of such methods for real application, under computational cost constraints as well as technical constraints remains a challenge. An other challenge arises when the combining multidimensional models developed over partial domains of catchment. For instance, 1D models describe the mono-dimensional flow in a river while 2D model locally describe more complex flows. Simply chaining 1D and 2D with boundary conditions exchange does not suffice to guarantee the coherence and the continuity of both water level and discharge variables between 1D and 2D domains. The solution lies in dynamical coupling of 1D and 2D models, yet an other challenge when computational cost must be limited. This PhD thesis was funded by Midi-Pyrénées region and the french national agency for flood forecasting SCHAPI. It aims at demonstrating the merits of data assimilation and coupling methods for floof forecasting in the framework of operational application. This thesis is composed of two parts : A first part dealing with data assimilation. It was shown that, under some simplifying assumptions, the Ensemble Kalman filter algorithm (EnKF) can be emulated with a cheaper algorithm : the invariant Kalman filter. The EnKF was then implemented ovr the "Adour maritime" hydraulic network on top of the MASCARET model describing the shallow water equations. It was found that a variance inflation algorithm can further improve data assimlation results with the EnKF. It was shown on synthetical and real cases experiments that data assimilation provides an hydraulic state that is in great agreement with water level observations. As a consequence of the sequential correction of the hydraulic state over time, the forecasts were also greatly improved by data assimilation over the entire hydraulic network for both assimilated and nonassimilated variables, especially for short term forecasts. It was also shown that a probabilistic prediction system relies on the knowledge on the upstream forcings ; A second part focusses on hydraulic models coupling. While the 1D model has a great spatial extension and describes the mono-dimensional flow, the 2D model gives a focus on the Adour-Nive confluence in the Bayonne area. Two coupling methods have been implemented in this study : a first one based on the exchange of the state variables at the liquid boundaries of the models and a second one where the models are superposed. While simple 1D or chained 1D-2D solutions provide an incomplete or discontinuous description of the hydraulic state, both coupling methods provide a full and dynamically coherent description of water level and discharge over the entire 1D-2D domain. On the one hand, the interface coupling method presents a much higher computational cost than the superposition methods but the continuity is better preserved. On the other hand, the superposition methods allows to combine data assimilation of the 1D model and 1D-2D coupling. The positive impact of water level in-situ observations in the 1D domain was illustrated over the 2D domain for a flood event in 2014.
180

Compréhension des facteurs de contrôle des performances de la déshydratation mécanique des boues résiduaires en filtre-presse / Control factors of the efficiency of mechanical dewatering of sewage sludge in press-filters

Tosoni, Julian 14 December 2015 (has links)
Dans un contexte d’augmentation des volumes de boues résiduaires produits, comprendre et optimiser les processus de déshydratation mécanique est crucial. Leurs performances conditionnent tant le fonctionnement global de la station que son bilan environnemental et économique. En effet, la siccité des boues déshydratées impacte fortement les procédés ou filières permettant leur valorisation à l’échelle des territoires (compostage, valorisation agronomique directe, incinération, …) ainsi que leur bilan environnemental direct et indirect (tonnages à transporter, ...). De plus, les filtrats devront être traités par la station, et leur composition influence significativement le fonctionnement de la filière de traitement des eaux. Les filtres-presses font partie des procédés de déshydratation mécanique les plus utilisés dans les filières boues des stations d’épuration des eaux usées. Leurs performances sont fonction à la fois de leurs paramètres de fonctionnement et des propriétés de la boue à déshydrater. Les connaissances actuelles sont cependant insuffisantes pour permettre (1) d’expliquer pourquoi certaines boues se déshydratent mieux que d’autres et (2) de relier ces phénomènes aux processus mis en oeuvre lors de la déshydratation mécanique. Le poste de déshydratation fonctionne ainsi comme une boîte noire à partir de laquelle il est difficile de prédire les performances d’un outil de déshydratation appliqué à une boue particulière et d’anticiper des dysfonctionnements. Dans ce contexte, l’objectif de ce travail de thèse était de comprendre quels sont les facteurs de contrôle des performances de la déshydratation mécanique des boues d’épuration en filtre-presse et comment ces derniers impactent le fonctionnement du procédé. Dans un premier temps, l’impact des paramètres de fonctionnement des filtres-presses sur leurs performances a été étudié en cellule de filtration tangentielle (cellule de laboratoire reproduisant les processus d’un filtre presse industriel). Ce travail a permis de hiérarchiser les paramètres opératoires selon leur impact sur les performances de déshydratation. Cette étude a permis de mettre en évidence que le paramètre le plus sensible est l’épaisseur de gâteau suivi de la pression. L’impact de ces paramètres est en partie lié à celui du gradient de pression sur les équations de la filtration même si ce dernier doit être considéré en 3D pour expliquer les résultats observés. Dans un second temps l’étude de l’impact des propriétés des boues sur les performances de déshydratation a été réalisée. Pour ce faire, ce travail s’est focalisé sur l’impact d’un des procédés qui modifie le plus les propriétés des boues : la digestion anaérobie. L’objectif de ce travail était d’identifier comment le temps de séjour hydraulique (TSH) appliqué dans le digesteur influence les propriétés physicochimiques des boues et les performances de déshydratation évaluées au travers d’essais de déshydratation en cellule de filtration tangentielle. Cette phase a permis de montrer que quand le TSH augmente de 0 à un TSHcritique, la déshydratabilité de la boue diminue. Au-delà de ce TSHcritique, cette dernière s’améliore sans pour autant atteindre celle de la boue brute. Ces phénomènes ont pu être reliés à une modification des équilibres osmotiques entre les flocs et le milieu interstitiel couplée à une modification de la matrice d’exopolymères solubles des flocs. Enfin, un modèle numérique permettant de simuler la déshydratation des boues résiduaires a été implémenté sous COMSOL multiphysics®. Au travers des processus modélisés, il prend en compte les principaux facteurs de contrôle des performances identifiés auparavant. Après ajustement des paramètres sur un unique essai de déshydratation à une pression donnée, le modèle permet de prédire la siccité du gâteau pour une pression comprise entre 3 et 15 bars. / As more and more sewage sludge are generated, understanding and optimization of mechanical dewatering processes is crucial. Their performances affect both plant management and its environmental and economic impacts. Indeed, dryness of dewatered sludge strongly impacts processes for agronomic and energetic recovery (composting, direct agricultural recycling, incineration ...) and their direct and indirect environmental impacts (volumes to transport...). In addition, the filtrates have to be treated by the wastewater treatment plant, and their composition significantly affects its operating. Filter presses are one of the most common mechanical dewatering processes operated for sludge treatment in wastewater treatment plant. Their performance depends on their operating parameters and sludge properties. However, current knowledge is insufficient (1) to explain why some sludges are easier or harder to dewater than others, and (2) to link these phenomena to processes that carry out during the mechanical dewatering. Hence, dewatering works like a black box from which it is difficult to predict the efficiency of a dewatering tool performed with a particular sludge and to anticipate operating problems. In this context, the objective of this thesis was to understand witch factors drive the efficiency of mechanical dewatering of sewage sludge in the filter press and how they impact the process. First, the impact of operating parameters of filter presses on their efficiency was investigated in cross-flow filtration cell (lab-scale cross-flow filtration cell reproducing processes that occur in an industrial filter press). This work allowed the classification of the operating parameters according to their impact on the dewatering performances. This study highlighted that the most sensitive parameter is the cake thickness followed by pressure. The impact of these parameters is partially linked with their influence on the pressure gradient even if it should be considered in 3D to explain the results. Secondly, the study of the impact of sludge properties on dewatering performances was carried out. In this thesis, this work focuses on the impact of one of the processes which modifies most significantly sludge properties: anaerobic digestion. The objective of this work was to identify how hydraulic retention time (HRT) in the digester affects physicochemical properties of sludge and dewatering performance. Results demonstrated that when the HRT increases from 0 to a critical HRT (HRTcritical), sludge dewaterability decreases. Beyond this HRTcritical, it increases without reaching cake dryness of the raw sludge. These phenomena could be linked to a change in osmotic balance between the flocs and the bulk solution, combined with a modification of the soluble exopolymer matrix of flocs. Finally, a numerical model, allowing the simulation of sludge dewatering was implemented with COMSOL multiphysics®. Equation system takes into account the main factors that affect performances previously identified. After parameter calibration on a single dewatering experiment at 8 bars, the model allows the prediction of cake dryness for any pressure between 3 and 15 bars.

Page generated in 0.0493 seconds