• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 45
  • 14
  • Tagged with
  • 191
  • 60
  • 55
  • 47
  • 34
  • 32
  • 27
  • 26
  • 24
  • 24
  • 22
  • 22
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Etude des Particules Exopolymériques Transparentes (TEP) en milieu marin. Dynamique et rôle dans le cycle du carbone

Beauvais, Sophie 12 September 2003 (has links) (PDF)
L'étude des Particules Exopolymériques Transparentes (TEP) fait l'objet d'une attention grandissante depuis les dix dernières années. Leur source principale est l'exsudation de polysaccharides par le phytoplancton et les bactéries. Ces particules formées de façon abiotique, principalement via la coagulation de matière organique colloïdale, sont fortement impliquées dans les processus biogéochimiques des milieux aquatiques. Nous avons comparé deux techniques de mise en évidence des TEP (« Filter-Transfer-Freeze », et méthode des lames blanches dépolies) et évalué leurs limites et avantages afin d'établir un protocole le plus efficace possible. Dans la suite de ce travail, nous privilégierons la méthode des lames blanches dépolies qui offre de meilleurs résultats en termes de précision et de reproductibilité. Une étude des variations saisonnières des TEP en Méditerranée Nord-Occidentale de février 1999 à février 2000 a été effectuée, en deux sites, l'un côtier, l'autre océanique (programme DYFAMED-JGOFS). Les TEP sont présentes en forte abondance durant la totalité de l'année (de 2x104 à 2x105 TEP ml-1) en zone euphotique. Leur dynamique reflète davantage le statut trophique de l'écosystème plutôt que des différences régionales. Globalement, on observe une augmentation du pool de TEP après la floraison printanière et une persistance de ce pool durant la période estivale. Cette étude in situ a révélé également l'importance de ce pool de matière en tant que réservoir de carbone organique (de 0,6 à 20,5 µmol C l-1 ; jusqu'à 15% du carbone organique total). De plus, ces particules possèdent un rapport molaire C/N largement supérieur au rapport de Redfield (C/N = 21 en moyenne). La formation des TEP serait une voie majeure de transfert du carbone lors de la surconsommation de carbone inorganique dissous (CID) par le phytoplancton en période oligotrophe. Les TEP représentent donc une composante importante dans le cycle du carbone en séquestrant le carbone organique sous forme particulaire. L'effet des conditions trophiques, associées à différentes intensités de turbulence sur la dynamique des TEP a fait l'objet d'un suivi en milieu contrôlé, dans le cadre du projet européen NTAP (Nutrient dynamics mediated through Turbulence And Plankton interactions). Une forte turbulence (1x10-4 cm2 s-3) induit la persistance de ce pool en surface entraînant l'agrégation des particules. Elle favorise également la colonisation bactérienne des TEP. L'hydrodynamisme de l'écosystème influencera donc la formation des TEP ainsi que le devenir de ce pool de matière (accumulation et/ou sédimentation). L'utilisation de la microscopie électronique à transmission couplée à une micro-analyse aux rayons X a permis de déterminer la composition élémentaire (C, N, P, Mg, Ca, Fe, Mn) des TEP en fonction des conditions trophiques du milieu. Les résultats confirment l'importance de ces particules en termes de carbone et leur rôle dans la surconsommation de CID lorsque le milieu est déficient en azote. De plus, les TEP adsorbent du fer et du manganèse (jusqu'à 1,7 nM Mn et 18,7 nM Fe dans un fjord Norvégien) laissant présumer de leur rôle dans le cycle biogéochimique des éléments-traces.
102

Développements et applications de la méthode SPH aux écoulements visqueux à surface libre.

Cherfils, Jean-Marc 17 March 2011 (has links) (PDF)
Cette thèse porte sur le développement, la validation et l'application d'un code de calcul numérique à surface libre. Smoothed Particle Hydrodynamics (SPH) est une méthode particulaire,Lagrangienne, imaginée à l'origine pour la simulation de corps gravitaires en Astrophysique. Depuis les années 90, elle a été étendue à la modélisation d'écoulements à surface libre. En effet, lors de grandes déformations des interfaces (déferlement par exemple), l'absence de maillage est particulièrement intéressante. Cette propriété est également intéressante pour la simulation de plusieurs phases liquides aux propriétés différentes (eau/fond sédimentaire par exemple). Les applications visées sont la propagation de la houle et son interaction avec des obstacles immergés. Le modèle SPH a donc été établi en se basant sur la bibliographie et validé sur le cas de l'étirement d'une goutte en l'absence de gravité.Ensuite, la prise en compte de conditions aux limites sur des parois solides est étudiée puis appliquée à l'effondrement d'une colonne d'eau suivi d'un impact sur un mur vertical. Enfin, le modèle est étendu aux écoulements visqueux. Une nouvelle méthode de prise en compte des conditions limites de type adhérence, inspirée des frontières immergées en différences finies, a ainsi été développée. Elle autorise la simulation d'écoulements autour d'objets de formes complexes immergés dans le fluide. Le modèle est finalement appliqué à la propagation de la houle en canal et à son amortissement par une plaque horizontale immergée.
103

Sur l'ordonnancement d'ateliers job-shop flexibles et flow-shop en industries pharmaceutiques : optimisation par algorithmes génétiques et essaims particulaires

Boukef, Hela 03 July 2009 (has links) (PDF)
Pour la résolution de problèmes d'ordonnancement d'ateliers de type flow-shop en industries pharmaceutiques et d'ateliers de type job-shop flexible, deux méthodes d'optimisation ont été développées : une méthode utilisant les algorithmes génétiques dotés d'un nouveau codage proposé et une méthode d'optimisation par essaim particulaire modifiée pour être exploitée dans le cas discret. Les critères retenus dans le cas de lignes de conditionnement considérées sont la minimisation des coûts de production ainsi que des coûts de non utilisation des machines pour les problèmes multi-objectifs relatifs aux industries pharmaceutiques et la minimisation du Makespan pour les problèmes mono-objectif des ateliers job-shop flexibles.Ces méthodes ont été appliquées à divers exemples d'ateliers de complexités distinctes pour illustrer leur mise en œuvre. L'étude comparative des résultats ainsi obtenus a montré que la méthode basée sur l'optimisation par essaim particulaire est plus efficace que celle des algorithmes génétiques, en termes de rapidité de la convergence et de l'approche de la solution optimale
104

Impact des multitrajets sur les performances des systèmes de navigation par satellite : contribution à l'amélioration de la précision de localisation par modélisation bayésienne

Nahimana, Donnay Fleury 19 February 2009 (has links) (PDF)
De nombreuses solutions sont développées pour diminuer l'influence des multitrajets sur la précision et la disponibilité des systèmes GNSS. L'intégration de capteurs supplémentaires dans le système de localisation est l'une des solutions permettant de compenser notamment l'absence de données satellitaires. Un tel système est certes d'une bonne précision mais sa complexité et son coût limitent un usage très répandu.Cette thèse propose une approche algorithmique destinée à améliorer la précision des systèmes GNSS en milieu urbain. L'étude se base sur l'utilisation des signaux GNSS uniquement et une connaissance de l'environnement proche du récepteur à partir d'un modèle 3D du lieu de navigation.La méthode présentée intervient à l'étape de filtrage du signal reçu par le récepteur GNSS. Elle exploite les techniques de filtrage statistique de type Monte Carlo Séquentiels appelées filtre particulaire. L'erreur de position en milieu urbain est liée à l'état de réception des signaux satellitaires (bloqué, direct ou réfléchi). C'est pourquoi une information sur l'environnement du récepteur doit être prise en compte. La thèse propose également un nouveau modèle d'erreurs de pseudodistance qui permet de considérer les conditions de réception du signal dans le calcul de la position.Dans un premier temps, l'état de réception de chaque satellite reçu est supposé connu dans le filtre particulaire. Une chaîne de Markov, valable pour une trajectoire connue du mobile, est préalablement définie pour déduire les états successifs de réception des satellites. Par la suite, on utilise une distribution de Dirichlet pour estimer les états de réception des satellites
105

Modélisation et simulation des gaz de blow-by dans un décanteur automobile.

Jues, Thomas 01 July 2010 (has links) (PDF)
L'objectif de cette thèse sur la modélisation des décanteurs automobiles est de mettre au point un outil de simulation numérique permettant de se substituer à un banc organe pour déterminer l'efficacité des décanteurs à l'étape de conception. Après avoir étudié la composition du blow-by sur banc moteur et cela pour différents points de fonctionnement du moteur, nous avons pu comparer la pertinence des différents outils de mesure granulométrique choisis (PCS, ELPI, TEOM) en fonction du spectre granulométrique émis par le moteur. Le PCS a été retenu comme l'outil le plus adéquat en fonction des tailles de gouttes sur lesquelles nous souhaitions avoir des informations. En parallèle, nous avons mené des investigations pour mettre au point une méthodologie de calcul permettant de simuler l'efficacité du décanteur. Le suivi des particules d'huile s'effectue grâce à une simulation lagrangienne. Les forces à prendre en compte ont été déterminées grâce à des expériences numériques simples permettant de verifier si les différentes expressions de ces forces trouvées dans la littérature étaient compatibles des conditions de calculs rencontrées dans les décanteurs. Une autre question soulevée par l'utilisation d'une modélisation lagrangienne dans la littérature, est celle de la prise en compte ou non de la dispersion turbulente. L'étude proposée dans cette thèse nous a permis de montrer que l'implémentation d'un modèle de dispersion turbulente rudimentaire ne permet pas d'obtenir des résultats satisfaisants. La faisabilité de la mise au point d'une méthodologie de calcul fiable de l'efficacité du décanteur repose finalement sur la modification du type de maillage utilisé ainsi que le traitement du calcul de l'écoulement à la paroi. Nous avons montré dans cette thèse que la mise en place d'un maillage raffiné aux parois reposant sur des prismes avec un Y+ =1, associé à une loi de parois à deux couches permettait d'obtenir des résultats satisfaisants en terme de prédiction de l'efficacité du décanteur.
106

Prévision des crues au pas de temps horaire : pour une meilleure assimilation de l'information de débit dans un modèle hydrologique

Berthet, Lionel 19 February 2010 (has links) (PDF)
La modélisation hydrologique Pluie - Débit compte parmi les outils incontournables pour prévoir les crues, car elle permet d'atteindre des horizons plus lointains que de nombreuses autres méthodes. Pour tenter d'améliorer la qualité des prévisions, les hydrologues ont proposé de nombreuses approches d'assimilation de données. Cette thèse s'intéresse à un modèle Pluie - Débit fonctionnant au pas de temps horaire. Elle propose une comparaison de nombreuses méthodes de mise-à-jour de ce modèle par l'assimilation de la donnée de débit observé à l'exutoire du bassin versant, dans le but de fournir des prévisions de crue à des horizons allant de quelques heures à quelques jours. Les mises-à-jour étudiées portent sur les paramètres du modèle, ses états et ses sorties. Certaines sont déterministes, d'autres probabilistes. Ce travail a permis de mettre en avant l'interaction qui existe entre la structure du modèle hydrologique et les mises-à-jour. Ces deux éléments se caractérisent par des dynamiques temporelles différentes. Nos résultats plaident pour que le modèle soit considéré comme un tout et non comme la juxtaposition d'un modèle hydrologique et d'une procédure de mise-à-jour. Il nous paraît préférable d'optimiser la structure et de caler le modèle en tenant compte des mises-à-jour qui seront appliquées. Le modèle donnant les meilleures prévisions associe une structure hydrologique très proche de celle obtenue au pas de temps journalier et deux mises-à-jour du modèle, l'une modifiant un état crucial du modèle, l'autre corrigeant ses sorties par un réseau de neurones artificiels. Cette combinaison a été évaluée à l'aide d'une sélection de critères de performance adaptés à l'objectif du modèle, sur un vaste ensemble de bassins versants français. Ses performances sont robustes et se comparent favorablement à d'autres modèles de prévision.
107

Observations bruitées d'une diffusion. Estimation, filtrage, applications.

Favetto, Benjamin 30 September 2010 (has links) (PDF)
Les modèles aléatoires basés sur l'observation bruitée de diffusions discrétisées sont couramment utilisés en biologie ou en finance pour rendre compte de la présence d'erreur (ou bruit) entâchant la mesure d'un phénomène dont le comportement est dirigé par une équation différentielle stochastique. Deux questions statistiques sont liées à ces modèles : l'estimation d'un paramètre theta déterminant le comportement de la diffusion cachée, et le calcul du filtre optimal, ou d'une approximation. La première partie de cette thèse porte sur l'étude d'un modèle d'Ornstein-Uhlenbeck bidimensionnel partiellement observé et bruité, en lien avec l'estimation de paramètres de microvascularisation pour un modèle pharmacocinétique stochastique. Plusieurs résultats sur données médicales sont présentés. Dans la seconde partie, des estimateurs pour les paramètres de la diffusion cachée, sont obtenus dans un contexte de données haute fréquence, comme minima de fonctions de contraste ou comme zéros de fonctions d'estimation basées sur des moyennes locales d'observations bruitées. On montre en particulier la consistence et la normalité asymptotique de ces estimateurs. Enfin, la troisième partie étudie la tension de la suite des variances asymptotiques obtenues dans le théorème central limite associé à l'approximation particulaire du filtre et de la prédiction dans un modèle de Markov caché.
108

Méthodes bayésiennes pour la prévision de consommation l'électricité

Launay, Tristan 12 December 2012 (has links) (PDF)
Dans ce manuscrit, nous développons des outils de statistique bayésienne pour la prévision de consommation d'électricité en France. Nous prouvons tout d'abord la normalité asymptotique de la loi a posteriori (théorème de Bernstein-von Mises) pour le modèle linéaire par morceaux de part chauffage et la consistance de l'estimateur de Bayes. Nous décrivons ensuite la construction d'une loi a priori informative afin d'améliorer la qualité des prévisions d'un modèle de grande dimension en situation d'historique court. A partir de deux exemples impliquant les clients non télérelevés de EDF, nous montrons notamment que la méthode proposée permet de rendre l'évaluation du modèle plus robuste vis-à-vis du manque de données. Nous proposons enfin un nouveau modèle dynamique, non-linéaire, pour prévoir la consommation d'électricité en ligne. Nous construisons un algorithme de filtrage particulaire afin d'estimer ce modèle et comparons les prévisions obtenues aux prévisions opérationnelles utilisées au sein d'EDF.
109

Introduction de processus de conception pour la modélisation interactive de modèles physiques particulaires 3D complexes dans l'environnement MIMESIS

Allaoui, Ali 21 October 2010 (has links) (PDF)
Le modèle physique masses-interactions pour la synthèse du mouvement visuel ou la modélisation de scènes virtuelles animées interactives, et en particulier le formalisme CORDIS-ANIMA généralisant son principe grâce à son haut degré de modularité, est aujourd'hui apprécié pour la qualité et la très grande variété de phénomènes qu'il permet d'obtenir. Cependant, cette richesse ne peut être utilisée dans toute sa complexité sans un outil de conception de modèles qui le met au centre du processus de création, et qui ouvre au maximum les possibilités tout en respectant ses principes. Pour cela, l'environnement de modélisation - constitué de tous les moyens donnés à l'utilisateur pour construire, paramétrer, habiller et simuler un réseau CORDIS-ANIMA - est déterminant dans les possibilités créatrices de l'utilisateur. Partant des outils précédents de modélisation, notre travail consiste à les étendre par des fonctionnalités évoluées permettant de franchir un saut qualitatif vers la création de modèles complexes. Pour ce faire, nous nous sommes appuyés sur l'organisation du processus de modélisation physique modulaire en 5 phases: préstructuration qualitative, préstructuration quantitative, conditions initiales, habillage pour le rendu visuel, et simulation. Pour chacune des quatre premières phases, nous avons été amenés à examiner trois types de fonctionnalités critiques dans la modélisation physique : 1. Proposer deux styles de représentations complémentaires pour la conception et la manipulation de modèles - la représentation langagière et la représentation graphique - de manière à tirer parti des avantages de chacune, ainsi que de leur combinaison. Ce point est essentiel dans la manipulation de réseaux CORDIS-ANIMA très complexes. 2. Proposer des fonctionnalités permettant de franchir un pas dans la spécification des conditions initiales, phase critique dans la modélisation physique. Nous proposons en particulier des fonctionnalités pour la transformation au sein du système masses-interactions de propriétés spatiales en provenance de modeleurs orientés géométrie. Ce point pose la question plus générale de la compatibilité entre modélisation de propriétés géométriques et de propriétés physiques. 3. Etendre les possibilités de modélisation en permettant l'intégration de la modification paramétrique en ligne, autre point critique pour la modélisation physique, puisqu'il permet d'introduire des modifications non linéaires en ligne. Ces nouvelles fonctionnalités sont à la base du nouvel outil MIMESIS V, et tracent une voie vers un outil interactif complet pour la modélisation physique particulaire masses-interactions.
110

Techniques et technologies de localisation avancées pour terminaux mobiles dans les environnements indoor

Evennou, Frédéric 22 January 2007 (has links) (PDF)
Autant le GPS tend à s'imposer pour la localisation à l'extérieur des bâtiments, autant la situation est beaucoup plus ouverte pour la localisation à l'intérieur des bâtiments. De nombreux réseaux WiFi sont déployés dans les bâtiments. Ils diffusent des informations de puissance du signal permettant de remonter à la position d'un mobile. La technique du fingerprinting par puissance WiFi permet de localiser le mobile. Cependant, l'utilisation de cette technique de localisation requière une base de données correspondant à la couverture radio WiFi dans l'environnement.<br />L'utilisation d'une technique de localisation basée sur des mesures temporelles est moins contraignante que le fingerprinting. L'émission d'impulsions radio très brèves confère à la technologie 802.15.4a un fort pouvoir séparateur des multi-trajets. Le phénomène de multi-trajets est la principale contrainte au déploiement d'une technologie de localisation par mesures temporelles. La détection du premier trajet est très importante.<br />Des estimateurs comme le filtre de Kalman ou le filtre particulaire sont nécessaires pour limiter les effets des multi-trajets, des bruits de mesure, etc. Ces filtres peuvent aussi intégrer des informations de cartographie. Bien souvent, l'exploitation d'une seule technologie est insuffisante. La fusion d'informations de localisation est une étape supplémentaire pour améliorer la localisation. Des architectures de fusion robustes permettent de corriger les défauts de chacune des technologies pour conduire à un système plus robuste et plus précis en toutes circonstances.<br />Ce travail présente une approche innovante pour la localisation WiFi avec l'exploitation de cartographie dans l'estimateur tout en gardant une faible complexité suivant la plate-forme de déploiement visée. L'exploration des capacités de la localisation par ULB est proposée dans un second temps, avant d'aborder une réflexion sur les méthodes de fusion multi-capteurs.

Page generated in 0.0456 seconds