• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5990
  • 1669
  • 703
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8313
  • 2690
  • 2683
  • 1642
  • 1357
  • 1221
  • 866
  • 846
  • 823
  • 646
  • 582
  • 526
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Dispersion atmosphérique et modélisation inverse pour la reconstruction de sources accidentelles de polluants / Atmospheric dispersion and inverse modelling for the reconstruction of accidental sources of pollutants

Winiarek, Victor 04 March 2014 (has links)
Les circonstances pouvant conduire à un rejet incontrôlé de polluants dans l'atmosphère sont variées : il peut s'agir de situations accidentelles, par exemples des fuites ou explosions sur un site industriel, ou encore de menaces terroristes : bombe sale, bombe biologique, notamment en milieu urbain. Face à de telles situations, les objectifs des autorités sont multiples : prévoir les zones impactées à court terme, notamment pour évacuer les populations concernées ; localiser la source pour pouvoir intervenir directement sur celle-ci ; enfin déterminer les zones polluées à plus long terme, par exemple par le dépôt de polluants persistants, et soumises à restriction de résidence ou d'utilisation agricole. Pour atteindre ces objectifs, des modèles numériques peuvent être utilisés pour modéliser la dispersion atmosphérique des polluants. Après avoir rappelé les processus physiques qui régissent le transport de polluants dans l'atmosphère, nous présenterons les différents modèles à disposition. Le choix de l'un ou l'autre de ces modèles dépend de l'échelle d'étude et du niveau de détails (topographiques notamment) désiré. Nous présentons ensuite le cadre général (bayésien) de la modélisation inverse pour l'estimation de sources. Le principe est l'équilibre entre des informations a priori et des nouvelles informations apportées par des observations et le modèle numérique. Nous mettons en évidence la forte dépendance de l'estimation du terme source et de son incertitude aux hypothèses réalisées sur les statistiques des erreurs a priori. Pour cette raison nous proposons plusieurs méthodes pour estimer rigoureusement ces statistiques. Ces méthodes sont appliquées sur des exemples concrets : tout d'abord un algorithme semi-automatique est proposé pour la surveillance opérationnelle d'un parc de centrales nucléaires. Un second cas d'étude est la reconstruction des termes sources de césium-137 et d'iode-131 consécutifs à l'accident de la centrale nucléaire de Fukushima Daiichi. En ce qui concerne la localisation d'une source inconnue, deux stratégies sont envisageables : les méthodes dites paramétriques et les méthodes non-paramétriques. Les méthodes paramétriques s'appuient sur le caractère particulier des situations accidentelles dans lesquelles les émissions de polluants sont généralement d'étendue limitée. La source à reconstruire est alors paramétrisée et le problème inverse consiste à estimer ces paramètres, en nombre réduit. Dans les méthodes non-paramétriques, aucune hypothèse sur la nature de la source (ponctuelle, localisée, ...) n'est réalisée et le système cherche à reconstruire un champs d'émission complet (en 4 dimensions). Plusieurs méthodes sont proposées et testées sur des situations réelles à l'échelle urbaine avec prise en compte des bâtiments, pour lesquelles les méthodes que nous proposons parviennent à localiser la source à quelques mètres près, suivant les situations modélisées et les méthodes inverses utilisées / Uncontrolled releases of pollutant in the atmosphere may be the consequence of various situations : accidents, for instance leaks or explosions in an industrial plant, or terrorist attacks such as biological bombs, especially in urban areas. In the event of such situations, authorities' objectives are various : predict the contaminated zones to apply first countermeasures such as evacuation of concerned population ; determine the source location ; assess the long-term polluted areas, for instance by deposition of persistent pollutants in the soil. To achieve these objectives, numerical models can be used to model the atmospheric dispersion of pollutants. We will first present the different processes that govern the transport of pollutants in the atmosphere, then the different numerical models that are commonly used in this context. The choice between these models mainly depends of the scale and the details one seeks to take into account.We will then present the general framework of inverse modeling for the estimation of source. Inverse modeling techniques make an objective balance between prior information and new information contained in the observation and the model. We will show the strong dependency of the source term estimation and its uncertainty towards the assumptions made on the statistics of the prior errors in the system. We propose several methods to estimate rigorously these statistics. We will apply these methods on different cases, using either synthetic or real data : first, a semi-automatic algorithm is proposed for the operational monitoring of nuclear facilities. The second and third studies concern the source term estimation of the accidental releases from the Fukushima Daiichi nuclear power plant. Concerning the localization of an unknown source of pollutant, two strategies can be considered. On one hand parametric methods use a limited number of parameters to characterize the source term to be reconstructed. To do so, strong assumptions are made on the nature of the source. The inverse problem is hence to estimate these parameters. On the other hand non-parametric methods attempt to reconstruct a full emission field. Several parametric and non-parametric methods are proposed and evaluated on real situations at a urban scale, with a CFD model taking into account buildings influence on the air flow. In these experiments, some proposed methods are able to localize the source with a mean error of some meters, depending on the simulated situations and the inverse modeling methods
162

Modélisation géométrique à partir de croquis / Geometric modeling from sketches

Chérin, Nicolas 01 September 2015 (has links)
La modélisation à l'aide de croquis a pour but de construire une forme tridimensionnelle à partir d'un dessin en deux dimensions. L'utilisateur dessine la silhouette de l'objet à reconstruire sur le plan de dessin, puis un algorithme génère automatiquement une forme en 3D à partir de ce croquis. La modélisation par croquis à l’avantage d’être plus simple et plus rapide que la modélisation classique qui requiert l’utilisation de logiciels complexes comme 3DS Max, Maya, Blender, etc. Les applications liées à la modélisation par croquis seraient nombreuses : dans le domaine de l'infographie, la modélisation géométrique pour les jeux vidéo le dessin industriel, les effets spéciaux, etc., serait plus rapide et moins coûteuse. La modélisation à l’aide de croquis pourrait être utilisée par tout le monde. Nous avons tous, un jour ou l’autre, fait un croquis pour expliquer le chemin à prendre pour aller à un lieu précis, un croquis pour l’agencement d’une cuisine et d’une salle de séjour, ou un croquis pour expliquer le fonctionnement d’une machine, etc. Dans ce mémoire de thèse, nous nous intéressons dans un premier temps au problème de la génération de courbes en 3D constituées d’hélices à partir de croquis. Nous présentons deux algorithmes qui traitent ce problème. Puis dans un second temps, nous nous intéressons à la génération de surfaces à partir de croquis et plus particulièrement à la génération de bas-reliefs, ces surfaces ayant l’avantage de ne pas présenter de parties cachées. / The goal of sketch based modeling is to generate a 3D shape from a 2D sketch. The user draw the outline of the object to rebuild on the sketch plane, then an algorithm automatically build the 3D shape from the sketch. Sketch based modeling is easier to use and faster than traditional technics which uses complex modeling software such as 3DS max, Maya or Blender. There is a lot of applications for sketch based modeling, for example, the geometric modeling for video games, industrial design, special effects, etc. would be faster and less expensive. Sketch based modeling can be used by anybody. We all , at one time or another , made a sketch to explain a route to take to get to a specific place , a sketch for the arrangement of a kitchen and a living room, or sketches to explain the operation of a machine, etc. In this thesis memory, we look initially to the problem of generating piecewise helix curves from 2D sketches . We present two algorithms that address this problem. Then in a second step, we focus on the generation of 3D surfaces from sketches and more particularly to the generation of low reliefs, these surfaces have the advantage of not presenting hidden parts.
163

Applying the Kolmogorov equation to the problem of subgrid modeling for Large-Eddy Simulation of turbulence

Fang, Le 23 July 2009 (has links) (PDF)
The aim of the current work is to investigate a series of new subgrid models by employing the Kolmogorov equation of ltered quantities (KEF), which is an exact relation of turbulence in physical space. Different formulations of KEF are derived, including the forms in velocity eld (homogeneous isotropic turbulence, inhomogeneous anisotropic turbulence, homogeneous shear turbulence, homogeneous rotating turbulence), in scalar turbulence and in magnetohydrodynamic turbulence. The corresponding subgrid models are then formulated, for example: - The multi-scale improvement of CZZS model. - A new anisotropic eddy-viscosity model in homogeneous shear turbulence. - The improved velocity increment model (IVI). - The rapid-slow analysis and model application in inhomogeneous anisotropic scalar turbulence. - The attempt in magnetohydrodynamic (MHD) turbulence. Besides, there are also other important conclusions in this thesis: - The anisotropic effect of mean shear in physical space is analyzed. - Analytical corrections to the scaling of the second-order structure function in isotropic turbulence in introduced. - It is shown that the two-point distance of velocity increment must be much larger than the lter size, in order to satisfy the classical scaling law. Otherwise, the classical scaling law can not be directly applied in subgrid modeling. - A thought-experiment is described to analyse the time-reversibility problem of subgrid models. - A rapid algorithm for Tophat lter operator in discrete eld is introduced.
164

Usage de la modélisation multi-vue d'entreprise pour la conduite des systèmes de production

Sperandio, Séverine 15 December 2005 (has links) (PDF)
La ré-ingénierie du système de production et des produits est une activité permanente de l'entreprise, et en constitue en quelques sorte le pilotage organisationnel. Le besoin en méthodologie est dasn ce domaine très important, et constitue le sujet de ce travail. Dans un premiers temps, nous éclaircissons l'usage qui peut être fait des modèles pour structurer la démarche d'ingénierie, et cherchons ainsi à promouvoir la modélisation d'entreprise comme outil de raisonnement de pré-évaluation et de documentation des systèmes de production. Dans un second temps, nous situons la démarche d'ingénierie produit / système comme une acitvité récurrente participant à l'évolution de l'entreprise en tant que niveau de pilotage venant, par une logique de projets ou par une amélioration continue, moduler la structure et l'organisation du système physique.
165

Fiabiliser la réutilisation des patrons par une approche orientée complétude, variabilité et généricité des spécifications

Arnaud, Nicolas 13 October 2008 (has links) (PDF)
Les patrons d'ingénierie ont été introduits afin de capitaliser et de réutiliser des savoirs et savoir-faire. Dans l'ingénierie logicielle, leur usage est aujourd'hui reconnu, à tous les niveaux (analyse, conception, ...), comme un gage de qualité. Outre une solution, un patron comporte également de nombreuses informations, en langage naturel, décrivant des contraintes et/ou variantes. Dans cette thèse, nous nous intéressons à l'activité de réutilisation des patrons (que nous appelons « imitation ») d'analyse ou de conception pour lesquels la solution est donnée sous la forme de spécifications orientées objet. L'imitation consiste en une adaptation et une intégration de cette solution par l'ingénieur d'applications qui tiennent compte des autres informations contenues dans le patron. Ainsi, nous dégageons trois axes que nous considérons comme les piliers d'une bonne imitation : la complétude, la variabilité et la généricité des solutions.<br />Nous proposons une nouvelle forme de définition des solutions qui s'appuie sur l'utilisation de plusieurs vues (fonctionnelle, dynamique et statique) ainsi que sur l'utilisation d'un méta-modèle permettant d'une part d'exprimer à partir de la vue fonctionnelle, la variabilité de la solution (fonctionnalités obligatoires, facultatives, optionnelles ou alternatives) et d'autre part d'exprimer l' « essence » de la solution sous la forme de propriétés génériques définissant les bornes des adaptations permises lors de l'imitation. Un processus d'imitation dédié ainsi qu'un premier outillage basé sur l'approche IDM (Ingénierie Dirigée par les Modèles) sont également proposés aux ingénieurs d'applications.
166

Reconnaissance automatique de la parole non native

Tien Ping, Tan 03 July 2008 (has links) (PDF)
Les technologies de reconnaissance automatique de la parole sont désormais intégrées dans de nombreux systèmes. La performance des systèmes de reconnaissance vocale pour les locuteurs non natifs continue cependant à souffrir de taux d'erreur élevés, en raison de la différence entre la parole non native et les modèles entraînés. La réalisation d'enregistrements en grande quantité de parole non native est souvent difficile et peu réaliste pour représenter toutes les origines des locuteurs. <br />Dans cette thèse, nous proposons des approches pour adapter les modèles acoustiques et de prononciation sous différentes conditions de ressource pour les locuteurs non natifs. Un travail préliminaire sur l'identification d'accent a également proposé.<br />Ce travail de thèse repose sur le concept de modélisation acoustique translingue qui permet de représenter les locuteurs non natifs dans un espace multilingue sans utiliser (ou en utilisant très peu) de parole non native. Une approche hybride d'interpolation et de fusion est proposée pour l'adaptation des modèles en langue cible en utilisant une collection de modèles acoustiques multilingues. L'approche proposée est également utile pour la modélisation du contexte de prononciation. Si, en revanche, des corpus multilingues sont disponibles, des méthodes d'interpolation peuvent être utilisées pour l'adaptation à la parole non native. Deux d'entre elles sont proposées pour une adaptation supervisée et peuvent être employées avec seulement quelques phrases non natives.<br />En ce qui concerne la modélisation de la prononciation, deux approches existantes (l'une fondée sur la modification du dictionnaire de prononciation, l'autre fondée sur la définition d'un score de prononciation utilisé dans une phase de re-scoring) sont revisitées dans cette thèse et adaptées pour fonctionner sur une quantité de données limitée. Une nouvelle approche de groupement de locuteurs selon leurs habitudes de prononciation, est également présentée : nous l'appelons « analyse de prononciation latente ». Cette approche se révèle également utile pour améliorer le modèle de prononciation pour la reconnaissance automatique de la parole non native.<br />Enfin, une méthode d'identification d'accent est proposée. Elle nécessite une petite quantité de parole non native pour créer les modèles d'accents. Ceci est rendu possible en utilisant la capacité de généralisation des arbres de décision et en utilisant des ressources multilingues pour augmenter la performance du modèle d'accent.
167

Évaluations automatiques des émotions et sentiments, mémoire sémantique et compréhension de texte : expérimentations et simulations

Leveau, Nicolas 11 July 2011 (has links) (PDF)
Dans cette thèse, nous soutenons l'hypothèse que les caractéristiques émotionnelles d'un énoncé sont contenues au sein de la représentation mentale de celui-ci, l'émergence émotionnelle s'opérant au cours de la lecture partir de la base de texte et des informations en mémoire sémantique. Les émotions dans le langage sont étudiées du point de vue des processus automatiques et stratégiques. Les caractéristiques dimensionnelles et catégorielles des émotions sont considérées. Pour ce qui est de la base de texte, les propriétés émotionnelles de termes publiées en français, anglais, espagnol, italien, allemand et finnois se sont révélées être très similaires, confortant l'intérêt de considérer la représentation mentale comme objet d'étude plutôt que le lexème. Aussi, dans EMOVAL, l'utilisation de ces normes pour caractériser des énoncés s'est révélée fructueuse. Pour ce qui est des connaissances, deux modèles connexionnistes de la représentation sémantique sont étudiés : l'analyse de la sémantique latente - LSA (Landauer & Dumais, 1997) comme modèle statistique, et le modèle Topic (Griffiths, Steyvers & Tennebaum, 2007) comme modèle probabiliste. Premièrement, l'existence de variables latentes émotionnellement différenciées a été mise en évidence grâce au modèle Topic. Deuxièmement, les relations sémantiques entre émotions, calculées à l'aide de LSA, se sont révélées significativement corrélées avec les jugements de similitudes entre termes émotionnels. Troisièmement, dans EMOSEM, les caractéristiques émotionnelles d'un corpus de textes ont pu être identifiées, tant du point de vue de leur appartenance à une émotion, que de l'intensité de l'expression de cette émotion.
168

Analyse morphologique d'images pour la modélisation d'environnements urbains

Hernández Londoño, Jorge Eduardo 14 December 2009 (has links) (PDF)
La modélisation d'environnements urbains permet le développement de nombreuses applications telles que la navigation 3D, la planification de l'aménagement urbain ou la création de scenarii pour le cinéma. L'enjeu technologique est de réduire le temps nécessaire pour une modélisation réaliste et fidèle à la réalité. Cette thèse s'inscrit dans le cadre du projet TerraNumerica dont l'objectif est de développer une plateforme de production et d'exploitation d'environnements synthétiques urbains. Dans ce contexte, nous sommes confrontés à des problèmes de segmentation de scènes urbaines. Dans une première partie, nous montrons l'intérêt de l'opérateur d'ouverture ultime en tant qu'opérateur de segmentation générique. Ensuite nous avons proposé plusieurs améliorations qui le rendent plus robuste à des problèmes de masquage et d'images floues. L'efficacité de ces améliorations est démontrée dans le contexte de l'étude mais aussi pour la segmentation de texte enfoui et de cellules. La deuxième partie est consacrée à l'analyse de façades. Leur modélisation est réalisée à l'échelle du bâtiment. Néanmoins, lors de l'acquisition, plusieurs bâtiments apparaissent dans une même image. Nous proposons une méthode capable de séparer automatiquement les différentes façades contenues dans l'image. Ensuite, nous détectons les étages, les travées, les fenêtres... afin d'alimenter un modèle de bâtiment fidèle à la réalité. La troisième partie de cette thèse est consacrée à l'analyse des données tridimensionnelles. Pour une modélisation de la scène, il est nécessaire d'introduire des éléments du mobilier urbain ainsi que le trottoir. Nous présentons des outils pour la détection et la classification d'artefacts. Ces outils permettent 1- le filtrage de données facilitant la modélisation et 2- la réintroduction d‘éléments tels que les lampadaires, améliorant le réalisme de la scène modélisée. Nous proposons également une méthode automatique pour la segmentation du trottoir.
169

Modélisation du cycle continental de l'eau à l'échelle régionale. Impact de la modélisation de la neige sur l'hydrologie du Rhône

Etchevers, Pierre 27 January 2000 (has links) (PDF)
Afin d'étudier le cycle de l'eau à l'échelle régionale, le couplage d'ISBA (le schéma de surface de Météo-France) avec MODCOU (le modèle hydrologique de l'Ecole des Mines de Paris) a été mis au point sur le Rhône pour l'année 1987/88 par Habets (1998). En raison de la forte composante nivale alpine du bassin, CROCUS (le modèle de neige de Météo-France) a été rajouté dans le système complet. La simulation du bassin versant du Rhône a ensuite été étendue à 14 années (de 1981 à 1994). Les forçages atmosphériques ont été analysés à l'aide du système SAFRAN, spécialement conçu pour les zones de relief. Bien qu'aucun étalonnage sur les débits n'ait été réalisé, les résultats du système sont validés de manière satisfaisante par comparaison avec les débits quotidiens observés en 145 stations de jaugeage sur les grands cours d'eau du bassin versant du Rhône. L'enneigement simulé reproduit bien les hauteurs de neige observées quotidiennement pour 24 postes d'altitude. Le bilan hydrique du bassin apparaît très contrasté et met en lumière trois grands ensembles : les bassins nivo-pluviaux et humides du nord (Saône, Doubs, Ain), les bassins pluviaux et secs du sud (basse Durance, Ardèche) et les bassins alpins fortement enneigés (Isère, Drac, Haute-Durance). L'outil ainsi validé a ensuite été utilisé pour évaluer l'impact d'un changement climatique sur les grandes composantes hydriques du bassin versant. Une attention particulière a également été apportée à l'impact d'une augmentation de la résolution des calculs sur la qualité de la simulation du bassin nival de la Haute-Durance.
170

Modélisation FEM du système de contrôle non destructif 3MA en ligne de production des aciers dual phase

Gabi, Yasmine 27 April 2012 (has links) (PDF)
Les métallurgistes d'ArcelorMittal développent actuellement une nouvelle génération d'aciers " flat carbon" dédiés principalement au domaine automobile (aciers Dual- Phase ou DP). Afin d'augmenter la performance des aciers au carbone, ArcelorMittal développe une stratégie de production intelligente basée sur un contrôle non destructif en ligne de production en utilisant le capteur 3MA (Multi-Parameter Micro-Magnetic Microstructure and Stress Analyzis). Ce système a été développé par l'Institut Fraunhôfer IZFP ; il est dédié à divers domaines d'applications de contrôle non destructifs des aciers en ligne. L'objectif principal de cette recherche est de simuler le comportement magnétique du dispositif industriel 3MA via la méthode des éléments finis. La modélisation du système (dispositif CND et échantillon) présente des difficultés au niveau du maillage et du temps de calcul surtout avec la mise en œuvre du modèle d'hystérésis. En effet, le système présente une géométrie multi échelles spatiale et temporelle. Afin de palier à ces problèmes, une stratégie de calcul a été développée et validée en 2D, en séparant calcul haute fréquence (HF) et basse fréquence (LF). Cette méthode permet d'effectuer des calculs en plusieurs fois et prend moins d'espace mémoire. Le modèle d'hystérésis de Jiles-Atherton a été choisi pour sa précision et a été implémenté dans le code FEM Flux afin de décrire le comportement magnétique du matériau. Les résultats obtenus sont en accord avec les données expérimentales.

Page generated in 0.1146 seconds