• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1327
  • 243
  • 219
  • 48
  • 12
  • 6
  • 6
  • 5
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 2077
  • 1964
  • 1953
  • 390
  • 325
  • 197
  • 140
  • 136
  • 127
  • 124
  • 122
  • 116
  • 115
  • 115
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Diversité bactérienne des sols : accès aux populations à effectifs minoritaires "the rare biosphere"

Faugier, Aurélie 12 March 2010 (has links) (PDF)
L'exploration complète de la diversité bactérienne reste incomplète, due à des limitations techniques (extraction d'ADN incomplète, limites des techniques de caractérisation...), à la complexité et l'hétérogénéité de la matrice sol (présence de microenvironnements...) et à l'existence de populations numériquement faibles. Bien que ces populations minoritaires jouent probablement un rôle important dans le fonctionnement de la communauté, elles sont rarement détectées par les techniques conventionnelles. Nos objectifs dans le cadre de ce travail de thèse ont été de développer des approches tant conceptuelles que techniques qui permettent d‟accéder à un niveau plus important de la diversité bactérienne présente dans les environnements complexes comme les sols. La première approche a pour but de favoriser le développement de bactéries minoritaires grâce à l'inoculation de communautés bactériennes dans des sols stérilisés avec des propriétés physico-chimiques différentes, afin de confirmer ou d‟infirmer le concept de Baas Becking « tout est partout et l‟environnement sélectionne ». Les changements de structures des communautés bactériennes inoculées, sont analysés à l'aide de puces à ADN taxonomique nouvellement développées. Les résultats confirment clairement l'impact de l'environnement sur la structure des populations bactériennes. De plus l'analyse des puces à ADN révèle des bactéries précédemment non détectées, confirmant la présence de populations minoritaires et la possibilité d‟augmenter leur abondance relative sous différentes conditions. La deuxième approche consiste au développement d'une souche bactérienne capable de capturer in situ des fragments d‟ADN. Elle a pour but d'éviter l'étape d'extraction d‟ADN. Cet outil est basé sur la construction d'un système de contre sélection positive permettant de sélectionner les clones ayant intégré des gènes d'intérêt. Nos travaux montrent clairement qu'il est possible d'améliorer l'accès à cette « rare biosphere » sans toutefois pouvoir répondre entièrement à la question : est-ce que tout est partout?
242

Identification and fault diagnosis of industrial closed-loop discrete event systems

Roth, Matthias 08 October 2010 (has links) (PDF)
La compétitivité des entreprises manufacturières dépend fortement de la productivité des machines etdes moyens de production. Pour garantir un haut niveau de productivité il est indispensable de minimiser lestemps d'arrêt dus aux fautes ou dysfonctionnements. Cela nécessite des méthodes efficaces pour détecter et isolerles fautes apparues dans un système (FDI). Dans cette thèse, une méthode FDI à base de modèles est proposée.La méthode est conçue pour la classe des systèmes à événements discrets industriels composés d'une bouclefermée du contrôleur et du processus. En comparant les comportements observés et attendus par le modèle, il estpossible de détecter et d'isoler des fautes. A la différence de la plupart des approches FDI des systèmes àévénements discrets, une méthode basée sur des modèles du comportement normal au lieu de modèles descomportements fautifs est proposée. Inspiré par le concept des résidus bien connu pour le diagnostic dessystèmes continus, une nouvelle approche pour l'isolation des fautes dans les systèmes à événements discrets aété développée. La clé pour l'application des méthodes FDI basées sur des modèles est d'avoir un modèle justedu système considéré. Comme une modélisation manuelle peut être très laborieuse et coûteuse pour dessystèmes à l'échelle industrielle, une approche d'identification pour les systèmes à événements discrets enboucle fermée est développée. Basée sur un algorithme connu pour l'identification des modèles monolithiques,une adaptation distribuée est proposée. Elle permet de traiter de grands systèmes comportant un haut degré deparallélisme. La base de cette approche est une décomposition du système en sous systèmes. Cettedécomposition est automatisée en utilisant un algorithme d'optimisation analysant le comportement observé dusystème. Les méthodes conçues dans cette thèse ont été mises en oeuvre sur une étude de cas et sur uneapplication d'échelle industrielle.
243

A methodology for the application of an automated and interactive reification process in a virtual Community of Practice

Rauffet, Philippe 09 October 2007 (has links) (PDF)
Communities of practices are particular and identified knowledge networks involved in a new global, virtual and digital framework. The study of their specific characteristics, the Legitimate Peripheral Participation and the duality Reification/Participation, provides the necessary background to understand and formalize the barriers and the limits in this new context. <br />In order to overcome these ones, the analysis of the tools and the methods for computerized reification (content analysis, information architecture, information visualization) and for enrichment and assessment of content and users (Human-Computer Interactions, Collaborative filtering) enables to develop a methodology to support the application of an automated and interactive reification process in a virtual Communities of Practices.
244

Comportement des sédiments marins de grande profondeur : approche multiéchelle

Hammad, Tammam 01 November 2010 (has links) (PDF)
Une analyse expérimentale approfondie avec une approche micro macro a été réalisée sur un matériaucomposé d'un mélange d'argile Kaolinite/Smectite. L'étude a permis de montrer à l'échelle macroscopiquecomme à l'échelle microscopique un comportement particulièrement sensible à la proportion de smectitedans le mélange. La kaolinite (Kaolinite P300) est bien connue du point de vu de sa caractérisation et deson comportement, la smectite (également nommée argile grecque) est de type calcique et a égalementfait l'objet de plusieurs études.Dès 35% de smectite dans le mélange, les résultats sur chemin triaxial montrent que le comportementapproche considérablement celui de la smectite. Par ailleurs, l'investigation à l'échelle microscopique (aumoyen de Microscope Electronique à Balayage complétée par une analyse de diffractions des rayons X)réalisé sur les échantillons après l'essai, met en évidence le fait que, lorsqu'elle dépasse un certain seuil, lafraction en smectite favorise le développement de plans de glissement. Ces plans apparaissent clairementsous forme de groupes de particules de smectite orientées.L'analyse microstructurale utilisée est basée sur une méthode rigoureuse, développée dans le cadre decette thèse, avec un traitement d'images automatisé permettant de fournir des résultats quantitatifs.Cette démarche d'investigation multi‐échelles a été employée afin caractériser le comportement d'unsédiment marin prélevé au large de Golfe de Guinée par 700 m de profondeur d'eau. L'étude, initialementmenée dans le cadre du projet CLAROM (2002‐2005), intéresse l'industrie Offshore. Le sédiment naturelcontient jusqu'à 60% de proportion argileuse avec approximativement 15% de smectite et 50% dekaolinite.
245

Analyse et modélisation de l'impact de la météorologie sur le trafic routier

Billot, Romain 08 December 2010 (has links) (PDF)
Si la pertinence de la prise en compte de la météorologie dans la gestion du trafic est bien admise, son intégration dans les outils d'aide à la décision et les stratégies de contrôle représente encore un enjeu réel pour les gestionnaires d'infrastructures. En effet, cette avancée semble légitimée par les effets significatifs d'une météorologie dégradée sur la sécurité des usagers et le comportement des conducteurs. Ainsi, au niveau de la sécurité, un sur-risque d'accident a été mis en évidence par de nombreux travaux. Or, l'étiologie de ce risque augmenté ne permet pas seulement de démontrer l'impact d'évènements météorologiques extrêmes et ponctuels (ex : tempêtes de neige), mais égalementcelui de phénomènes récurrents (ex : la pluie). La baisse de la sécurité des conducteurs se traduit concrètement par un changement de comportements des usagers (vitesses, temps inter-véhiculaires) mais aussi du flot de véhicules en général (vitesse, débit, concentration), ceci influant de manière conséquente sur la mobilité. De fait, la pluie représente ainsi la seconde cause de congestion ponctuelle.Pourtant, malgré ces enjeux indéniables, les effets de la météorologie sur le trafic demeurent mal quantifiés et ne sont guère intégrés à la modélisation ou l'estimation du trafic. Ce travail de thèse se propose ainsi de contribuer à une meilleure compréhension des effets météorologiques sur le trafic, en se focalisant sur des phénomènes de précipitations en milieu interurbain. Partant d'un état de l'art de l'impact météorologique sur le trafic, il nous est apparu que les études existantes, par leurs carences, soulèvent le besoin de fonder une méthodologie d'analyse plus rigoureuse. Cette méthodologie, une fois clairement définie, a ensuite été appliquée à des données opérationnelles. Elle nous a permis de quantifier les effets de la pluie à plusieurs niveaux selon l'échelle de représentation abordée : au niveau microscopique, considérant le comportement individuel des conducteurs, les analyses statistiques mettent en lumière des effets sur les vitesses, les temps et les distances inter-véhiculaires. Ces effets se reflètent au niveau macroscopique (celui du flot de véhicules) avec des variations de débits, de vitesses du flot et, de façon générale, de l'ensemble des paramètres formant le diagramme fondamental du trafic. Les résultats empiriques nous semblent ainsi ouvrir la voie à l'intégration du phénomène météorologique à la modélisation du trafic.Partant, nous avons développé, à ce stade de notre travail, une contribution théorique à la modélisation du trafic se fondant sur une formulation Vlasov qui permet de dériver un modèle macroscopique à deux équations à partir d'une formulation cinétique. Le modèle ainsi proposé offre un cadre propice à l'intégration d'un paramètre météorologique. La discrétisation numérique du modèle s'effectue à l'aide d'une méthode à pas fractionnaire qui permet de traiter successivement le terme source et la partie homogène du système. Pour la partie homogène du système, nous avons fait l'usage d'un schéma de type Lagrange+remap. Le comportement du modèle, couplé à une équation de transport sur les temps inter-véhiculaires, a ensuite été illustré à travers une série d'expérimentations numériques qui ont mis en évidence ses aptitudes face à des conditions météorologiques changeantes.Dans un ultime volet, notre travail s'est orienté vers de futures applications en temps réel qui se placeraient dans un cadre bayesien d'assimilation de données. Le défi à relever est celui de l'estimation en ligne du vecteur d'état du trafic au fur et à mesure de l'arrivée de nouvelles observations. Une méthode de filtrage particulaire (Monte Carlo séquentielle) nous a paru judicieuse à mobiliser, car elle s'adapte bien à la problématique du trafic routier. Plusieurs scénarios fondés sur des données opérationnelles permettent ensuite de montrer les bénéfices de l'intégration du phénomène météorologique à de telles approches. Une meilleure connaissance du phénomène météorologique doit ainsi mener à son insertion dans les modèles de trafic qui forment le substrat des outils d'aide à la décision destinés aux gestionnaires.Le travail proposé ouvre donc des perspectives pour le développement de stratégies de gestion de trafic météo-sensibles.
246

Contribution à l'analyse d'ordonnançabilité des applications temps-réel multiprocesseurs

Malo, Sadouanouan 09 December 2010 (has links) (PDF)
Les applications temps réel, le plus souvent dédiées au contrôle de procédé, sont soumises à des contraintes temporelles strictes, destinées à garantir la sécurité et la cohérence du procédé contrôlé. Les applications temps réel étant des applications multi tâches, elles doivent être ordonnancées, le critère sine qua non de qualité de la stratégie d'ordonnancement étant la garantie du respect des contraintes temporelles. Ces applications sont de plus en plus souvent déployées sur des architectures multiprocesseurs. Le problème de l'ordonnancement doit donc être posé dans ce contexte, où de nombreux problèmes doivent encore être abordés. Notons tout d'abord que dans le cas multiprocesseur, il n'existe pas d'ordonnancement en ligne optimal dans le cas général, le problème de l'ordonnancement est NP-complet, et des anomalies d'ordonnancement apparaissent même lorsque l'on ne considère que des tâches indépendantes (une durée d'exécution plus courte que prévue peut provoquer une faute temporelle). Nous avons envisagé de prendre en compte la possibilité que des pannes matérielles surviennent. Nous avons étudié les mécanismes de reprise après la panne d'un processeur, dans le cas où l'application est ordonnancée par EDF, puis par un algorithme P-équitable. Ces mécanismes nécessitent de disposer d'un certain nombre de résultats généraux. Tout d'abord, nous avons étendu la définition de la P-équité à un contexte plus large que celui de la littérature, à savoir aux tâches à départs différés et à échéances contraintes, puis nous avons établi une condition suffisante d'ordonnançabilité dans ce contexte, dont nous avons étudié les performances à l'aide de simulations. Enfin, nous avons proposé un protocole efficace de gestion des flux apériodiques qui s'appuie sur une distribution P-équitable des temps creux. Cette répartition peut être obtenue soit en ordonnançant les tâches périodiques par une stratégie P-équitable quand le contexte le permet, soit via une analyse hors-ligne à base de réseaux de Petri. Nous avons proposé une technique d'extraction qui permet de forcer la répartition équitable des temps creux.
247

Approximation des temps de réponse des tâches sporadiques à priorité fixe dans les systèmes monoprocesseurs

Nguyen, Thi Huyen Chau 25 November 2010 (has links) (PDF)
Deux techniques sont utilisées pour vérifier que des tâches temps réel respectent bien leurs échéances temporelles : les tests d'ordonnançabilité qui renvoient un résultat binaire (ordonnançable ou non) et les calculs de temps de réponse (Response Time Analysis - RTA) qui déterminent la longueur du plus long intervalle de temps entre le réveil et la terminaison d'une tâche. Ces deux approches ont une complexité pseudo-polynomiale et notons qu'aucun algorithme polynomial n'est connu. Dans ce contexte, elles ne sont pas particulièrement appropriées pour la conception intéractive des systèmes temps réel ou pour analyser des systèmes distribués à l'aide d'une analyse holistique. Dans de tels scénarios, un algorithme pseudo-polynomial est lent, puisque les calculs des temps de réponse des tâches sont exécutées à de nombreuses reprises. De plus, pour certains systèmes temps réels, tels que dans les systèmes de contrôle-commande, il est nécessaire de connaître le pire temps de réponse des tâches et non seulement la décision binaire sur l'ordonnançabilité des tâches. Dans ce contexte, il peut être acceptable d'utiliser un algorithme plus rapide qui fournit une analyse approchée au lieu d'utiliser des analyses reposant sur des calculs exacts. Comme cette approximation va introduire du pessimisme dans le processus de décision, il est souhaitable de le quantifier d'une manière à définir un compromis entre le temps de calcul et l'exigence de ressource du processeur. C'est la raison pour laquelle, dans ce travail, nous proposons des algorithmes pour calculer efficacement des bornes supérieures des pires temps de réponse et nous présentons des résultats sur leurs qualités dans le pire cas (analyse de compétitivité avec augmentation de ressource) et en moyenne (simulations).
248

Développement d'une méthode de modélisation pour l'évaluation de la performance de stratégies de sécurité incendie

Muller, Anne 08 December 2010 (has links) (PDF)
Aujourd'hui en France, l'évaluation de la performance de stratégies de sécurité à déployer pour mettre un bâtiment en sécurité vis-à-vis de l'incendie repose sur une étude d'ingénierie en sécurité incendie. Cette étude a pour objectif l'estimation du risque incendie pour différentes stratégies, et pour des scénarios d'incendies jugés pertinents. Pour parvenir à cette estimation, le Centre Scientifique et Technique du Bâtiment français (CSTB) a mis au point un outil de simulation appelé SCHEMA-SI. Cet outil utilise des réseaux de Petri prédicat-transition différentiels orientés objets et des simulations de Monte Carlo pour générer de multiples scénarios d'incendie. Ces scénarios sont ensuite utilisés pour évaluer le risque incendie encouru avec une stratégie de sécurité. La stratégie est alors jugée d'autant plus performante que le risque incendie est faible. L'objectif de la thèse consiste à contribuer au développement d'une méthode d'analyse de risque incendie utilisant l'outil de simulation SCHEMA-SI. La réflexion a débuté par la définition de ce que devrait être cette méthode. A ce stade, il est apparu que l'une des difficultés que la méthode doit surmonter est celle de la mise en donnés du problème par un groupe d'acteurs impliqués dans la sécurité incendie du bâtiment étudié. Pour résoudre cette difficulté, une méthode de modélisation spécifique a été construite. Cette méthode, baptisée ISI-Systema, repose sur deux fondements principaux : d'une part, un langage graphique de modélisation permettant au groupe d'acteurs de réfléchir à la mise en données du problème en s'appuyant sur une approche systémique ; d'autre part, une démarche de traduction des modèles graphiques obtenus avec le langage systémique en réseaux de Petri compatibles avec SCHEMA-SI.Enfin, une application pratique de cette méthode de modélisation est proposée.
249

Identification rapide de la température dans les structures du génie civil

Nassiopoulos, Alexandre 28 January 2008 (has links) (PDF)
Le contrôle de santé des structures par méthodes vibratoires se heurte à l'influence prédominante des effets thermiques et suscite le besoin de méthodes d'assimilation thermique en temps réel pour éliminer ces effets. On propose des algorithmes qui permettent de reconstituer, à un instant donné, le champ de température dans une structure tridimensionnelle à partir de mesures ponctuelles enregistrées sur un intervalle de temps précédant cet instant. La démarche adoptée est celle de la méthode adjointe tirée de la théorie du contrôle optimal : on résout un problème de minimisation au sens des moindres carrés d'une fonction de coût mesurant l'écart entre les données et le champ de température reconstruit. La minimisation dans un espace de type H1 lève la difficulté habituelle de la méthode adjointe à la fin de la fenêtre d'observation, ce qui permet la reconstruction précise de la température à l'instant courant. La définition des valeurs ponctuelles du champ de température impose le choix d'espaces de contrôle de régularité importante. Pour pouvoir utiliser des méthodes usuelles de discrétisation malgré un second membre formé de masses de Dirac, l'état adjoint est défini par des techniques spécifiques fondées sur la transposition. Le formalisme dual adopté conduit à poser le problème dans un espace essentiellement unidimensionnel. En réduisant la quantité de calculs en ligne, au prix d'une série de précalculs, il donne lieu à des algorithmes d'assimilation en temps réel applicables à des structures tridimensionnelles de géométrie complexe. La robustesse des méthodes par rapport aux erreurs de modélisation et au bruit de mesure est évaluée numériquement et validée expérimentalement.
250

Optimisation de la chaîne logistique dans l'industrie de process. Méthodes et application à l'industrie du verre plat

Miegeville, Nicolas 21 September 2005 (has links) (PDF)
L'importance croissante que le client accorde à la manière dont une entreprise<br />satisfait sa demande bouleverse les fondements des organisations anciennement pensées sous l'angle de la production. Phénomène tout à fait perceptible dans un grand<br />groupe industriel comme Saint-Gobain, à forte culture ingénieur, cette prise de<br />conscience donne un nouvel élan aux métiers transversaux focalisés à la fois sur<br />l'optimisation du schéma industriel et de la chaîne logistique. Cette thèse est une<br />illustration de cette évolution : l'intérêt porté aux problèmes d'optimisation des systèmes industriels et logistiques est relativement récent à Saint-Gobain Recherche.<br />Nous nous sommes intéressés dans nos travaux à différents problèmes industriels<br />complémentaires rencontrés chez Saint-Gobain Glass, leader de la production de<br />verre plat en Europe. Nous avons apporté des solutions mettant en lumière l'interdépendance de différentes décisions à des problèmes industriels complexes, avec un<br />souci constant de produire des outils d'aide à la décision utiles et appréciés.<br />Après un avant-propos rappelant le sens de notre démarche, nous découvrirons<br />dans le chapitre 1 le contexte industriel qui a motivé notre recherche. Nous présentons<br />les métiers du groupe - produire, transformer et distribuer du verre plat - et les<br />différents niveaux de décision que nous avons décidé d'aborder. Les chapitres suivants<br />présentent les problèmes d'optimisation que nous avons identifiés et qui nous sont<br />apparus comme clés.<br />Nous abordons dans le chapitre 2 un modèle permettant de déterminer les dimensions<br />des produits standards. L'intégration verticale du groupe permet l'étude<br />du meilleur compromis entre les chutes de verre tout au long de la chaîne logistique<br />et le nombre de références à gérer. La suite de la thèse tend à aboutir à une modélisation complète du schéma industriel et logistique et fait l'objet du chapitre 6. Pour cela, nous traitons les questions de localisation d'installations logistiques (chapitre 3) et de modélisation des processus de production : le chapitre 4 présente notre modèle<br />et l'illustre avec la production de verre plat, tandis que le chapitre 5 présente un<br />travail complémentaire permettant de l'appliquer aux lignes de transformation. Finalement, nous intégrons dans le chapitre 6 tous ces travaux dans un modèle linéaire<br />en nombres entiers.<br />Fruit d'une véritable collaboration entre chercheurs et industriels, ce travail présente<br />un modèle générique déterministe d'optimisation de la chaîne logistique appliqué avec succès à l'industrie du verre. De nombreuses perspectives dignes d'intérêt<br />sont imaginables, autant théoriques que pratiques.

Page generated in 0.0321 seconds