• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 124
  • 52
  • 46
  • Tagged with
  • 224
  • 224
  • 197
  • 177
  • 177
  • 175
  • 173
  • 72
  • 59
  • 41
  • 40
  • 40
  • 33
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Système énergétique territorial face à la montée en puissance des énergies renouvelables : modélisation de la transition appliquée à La Réunion

Ma, Kun 04 September 2012 (has links) (PDF)
A partir du concept de système énergétique territorial (SET), défini comme le couplage d'un système territorial et d'un système énergétique, et après avoir examiné la situation actuelle et la possibilité d'une transition énergétique d'un SET, nous modélisons la transition du système électrique de La Réunion, avec un modèle informatique à base d'agents, développé sur la plateforme Anylogic. Dans ce modèle, les centrales de production et les postes sources, localisés dans les IRIS et connectés au réseau, constituent l'interface d'échange entre les deux sous-systèmes en couplage. La dynamique du modèle repose sur deux niveaux de temporalités emboitées. L'interaction entre la dynamique territoriale et la dynamique énergétique est réalisée grâce à la simulation horaire des ressources (solaire, éolienne, hydraulique) et de la demande (courbes de charge), basée sur des observations horaires réelles (météorologiques, courbes de charge, etc.), et calibrée avec les statistiques de production et de consommation de l'année de référence. Les scénarios d'évolution, structurés par des hypothèses sur la demande et la production, s'inscrivent sur plusieurs dizaines d'années avec une granularité annuelle. Ils permettent de comprendre l'effet de différentes combinaisons de paramètres (seuil de saturation du PV, stockage, taux de couverture du PV, demande, etc.) et d'acquérir ainsi des connaissances sur la manière dont peut évoluer le système énergétique. Ceci permet de proposer des pistes de réflexion sur les politiques à mener en fonction des objectifs visés (réduction des gaz à effet de serre, maîtrise du prix d'énergie, développement des renouvelables...).
202

Traitement et analyse d'images IRM de diffusion pour l'estimation de l'architecture locale des tissus

Assemlal, Haz-Edine 11 January 2010 (has links) (PDF)
Dans cette thèse, nous proposons une méthode qui tente de répondre à la problématique de l'estimation de caractéristiques variées du tissu cérébral à partir de l'acquisition d'un nombre réduit d'échantillons de signaux IRM de diffusion in vivo. Ces caractéristiques doivent permettre l'étude de la structure locale du tissu cérébral, notamment dans la substance blanche. L'approche proposée est flexible quant à la caractéristique calculée et au nombre d'échantillons disponibles. Elle définit un formalisme générique qui d'une part, unifie de nombreux travaux précédents liés à l'estimation des fonctions de densité probabilité (PDF) de déplacement en IRM de diffusion, dont l'Imagerie du Tenseur de Diffusion (DTI) et le Q-Ball Imaging (QBI). D'autre part, elle permet aussi de définir et d'estimer de nouvelles caractéristiques originales: "vraie" ODF, probabilité de non diffusion, taille moyenne des cellules, etc. Nous proposons deux formalismes: un rapide et un autre robuste au bruit des images IRM. Nous validons notre approche par des comparaisons de résultats avec des méthodes de la littérature, sur des données synthétiques ainsi que des données d'un cerveau humain acquises in vivo dans un intervalle de temps modéré.
203

Une Méthodologie pour le Développement d'Applications Hautes Performances sur des Architectures GPGPU: Application à la Simulation des Machines Éléctriques

Antonio Wendell, De Oliveira Rodrigues 26 January 2012 (has links) (PDF)
Les phénomènes physiques complexes peuvent être simulés numériquement par des techniques mathématiques basées souvent sur la discrétisation des équations aux dérivées partielles régissant ces phénomènes. Ces simulations peuvent mener ainsi à la résolution de très grands systèmes. La parallélisation des codes de simulation numérique, c'est-à-dire leur adaptation aux architectures des calculateurs parallèles, est alors une nécessité pour parvenir à faire ces simulations en des temps non-exorbitants. Le parallélisme s'est imposé au niveau des architectures de processeurs et les cartes graphiques sont maintenant utilisées pour des fins de calcul généraliste, aussi appelé "General-Purpose computation on Graphics Processing Unit (GPGPU)", avec comme avantage évident l'excellent rapport performance/prix. Cette thèse se place dans le domaine de la conception de ces applications hautes-performances pour la simulation des machines électriques. Nous fournissons une méthodologie basée sur l'Ingénierie Dirigées par les Modèles (IDM) qui permet de modéliser une application et l'architecture sur laquelle l'exécuter afin de générer un code OpenCL. Notre objectif est d'aider les spécialistes en algorithmes de simulations numériques à créer un code efficace qui tourne sur les architectures GPGPU. Pour cela, une chaine de compilation de modèles qui prend en compte les plusieurs aspects du modèle de programmation OpenCL est fournie. De plus, pour rendre le code raisonnablement efficace par rapport à un code développé à la main, nous fournissons des transformations de modèles qui regardent des niveaux d'optimisations basées sur les caractéristiques de l'architecture (niveau de mémoire par exemple). Comme validation expérimentale, la méthodologie est appliquée à la création d'une application qui résout un système linéaire issu de la Méthode des Éléments Finis pour la simulation de machines électriques. Dans ce cas nous montrons, entre autres, la capacité de la méthodologie de passer à l'échelle par une simple modification de la multiplicité des unités GPU disponibles.
204

Catalogage de petits débris spatiaux en orbite basse par observations radars isolées

Castaings, Thibaut 21 January 2014 (has links) (PDF)
Les débris spatiaux sont devenus une menace considérable pour la viabilité des satellites opérationnels en orbite basse. Afin de pouvoir éviter des collisions accidentelles, des systèmes de surveillance de l'espace existent mais sont limités en performances de détection pour les objets de petite taille (diamètre inférieur à 10cm), ce qui pousse à l'étude de nouvelles solutions. Cette thèse a pour objectif d'appuyer la faisabilité d'un système radar au sol utilisant un champ de veille étroit pour le catalogage de petits débris en orbite basse. Un tel système fournirait en effet des observations dites " isolées ", c'est-à-dire qu'une orbite n'est pas immédiatement déductible de chacune d'entre elles. Le grand nombre combinaisons nécessaires est alors prohibitif en termes de temps de calcul pour la résolution de ce problème de pistage. Nous proposons dans ces travaux une nouvelle méthode pour initialiser les pistes, c'est-à-dire associer des observations isolées avec une faible ambiguïté et en déduire des orbites précises. Les pistes ainsi obtenues sont combinées et filtrées grâce à un algorithme de pistage multicible que nous avons adapté aux particularités du problème. Avec un taux de couverture de plus de 80% obtenu en temps réel sur 3 jours pour des scénarios de 500 à 800 objets en plus d'un fort taux de fausses alarmes, les performances de la méthode proposée tendent à prouver la faisabilité du système envisagé. Afin d'extrapoler les résultats obtenus à de plus fortes densités d'observations, nous proposons un modèle de complexité combinatoire calibré sur les performances de l'algorithme aux faibles densités. L'apport d'un second capteur identique est également étudié et met en évidence un point de compromis entre réactivité et complexité combinatoire, ce qui offre un degré de liberté supplémentaire dans la conception d'un tel système.
205

Approche basée sur les modèles pour la conception des systèmes dynamiquement reconfigurables : de MARTE vers RecoMARTE

Cherif, Sana 19 December 2013 (has links) (PDF)
Dans cette thèse, nous proposons une méthodologie de co-conception des systèmes dynamiquement reconfigurables basés sur FPGA. Notre méthodologie s'appuie sur l'Ingénierie Dirigée par les Modèles (IDM) pour la mise en oeuvre de notre flot de conception, dont la spécification des modèles est décrite avec le profil standard UML MARTE (Modeling and Analysis of Real-Time and Embedded Systems). Les travaux présentés dans ce manuscrit visent à garantir la flexibilité, la réutilisabilité et l'automatisation afin de faciliter le travail du concepteur et d'améliorer sa productivité. La première contribution de cette thèse réside dans la modélisation à haut-niveau d'abstraction permettant de cacher un grand nombre de détails d'implémentation. Nous avons donc défini un flot de conception pour la modélisation des FPGAs dynamiquement reconfigurables, basé sur l'IDM afin d'assurer l'automatisation de la génération de code. Suivant ce flot, plusieurs modèles sont créés moyennant principalement les concepts du profil MARTE. Cependant, la modélisation de certains concepts de la reconfiguration dynamique des FPGAs a nécessité des extensions dans MARTE que nous avons identifiées et intégrées dans un nouveau profil qui étend MARTE baptisé RECOMARTE (Reconfigurable MARTE). La seconde contribution est l'automatisation de la chaîne de transformations et la validation expérimentale. Afin d'assurer l'automatisation de notre flot de conception vers la génération du code, une chaîne de transformations a été utilisée. Le modèle final en MARTE résultant du flot de conception est donné comme entrée à cette chaîne. Nous passons ainsi d'un modèle MARTE/RecoMARTE vers une description intermédiaire selon le standard IP-XACT afin de générer finalement des fichiers décrivant le système complet dans l'environnement XPS de Xilinx. Cette automatisation permet d'accélérer la phase de conception et éviter les erreurs dues à la manipulation directe des détails. Enfin, un exemple d'application de traitement d'image a été élaboré afin de démontrer et valider notre méthodologie. Ceci a fait apparaître les avantages de nos contributions en termes de réutilisabilité de la conception et l'automatisation
206

Méthodes probabilistes pour l'évaluation de risques en production industrielle.

Oger, Julie 16 April 2014 (has links) (PDF)
Dans un contexte industriel compétitif, une prévision fiable du rendement est une information primordiale pour déterminer avec précision les coûts de production et donc assurer la rentabilité d'un projet. La quantification des risques en amont du démarrage d'un processus de fabrication permet des prises de décision efficaces. Durant la phase de conception d'un produit, les efforts de développement peuvent être alors identifiés et ordonnés par priorité. Afin de mesurer l'impact des fluctuations des procédés industriels sur les performances d'un produit donné, la construction de la probabilité du risque défaillance est développée dans cette thèse. La relation complexe entre le processus de fabrication et le produit conçu (non linéaire, caractéristiques multi-modales...) est assurée par une méthode de régression bayésienne. Un champ aléatoire représente ainsi, pour chaque configuration du produit, l'information disponible concernant la probabilité de défaillance. Après une présentation du modèle gaussien, nous décrivons un raisonnement bayésien évitant le choix a priori des paramètres de position et d'échelle. Dans notre modèle, le mélange gaussien a priori, conditionné par des données mesurées (ou calculées), conduit à un posterior caractérisé par une distribution de Student multivariée. La nature probabiliste du modèle est alors exploitée pour construire une probabilité de risque de défaillance, définie comme une variable aléatoire. Pour ce faire, notre approche consiste à considérer comme aléatoire toutes les données inconnues, inaccessibles ou fluctuantes. Afin de propager les incertitudes, une approche basée sur les ensembles flous fournit un cadre approprié pour la mise en oeuvre d'un modèle bayésien imitant le raisonnement d'expert. L'idée sous-jacente est d'ajouter un minimum d'information a priori dans le modèle du risque de défaillance. Notre méthodologie a été mise en oeuvre dans un logiciel nommé GoNoGo. La pertinence de cette approche est illustrée par des exemples théoriques ainsi que sur un exemple réel provenant de la société STMicroelectronics.
207

Evaluation de la sûreté de systèmes dynamiques hybrides complexes. Application aux systèmes hydrauliques

Broy, Perrine 12 March 2014 (has links) (PDF)
Ces travaux s'intéressent à l'estimation de la fiabilité des évacuateurs de crues vannés. Le comportement fiabiliste de ces systèmes hydrauliques dépend à la fois d'événements aléatoires discrets, mais aussi de l'évolution d'une variable déterministe continue : ce sont des systèmes dynamiques hybrides. Pour ces systèmes, l'événement redouté est réalisé lorsque le niveau de la retenue atteint un seuil de sûreté. La démarche de fiabilité dynamique proposée dans cette thèse vise à prendre en compte l'information temporelle, de la modélisation à la synthèse d'indicateurs fiabilistes pour l'aide à la décision et développe deux contributions : 1) L'élaboration d'une base de connaissances dédiée à la description des évacuateurs de crues en termes de fiabilité dynamique. Chaque classe de composants est décrite par un automate stochastique hybride dont les états sont les différentes phases de son fonctionnement. 2) Le suivi de la simulation de Monte Carlo, le traitement et l'analyse des "histoires" (séquence de tous les états activés et des dates d'activation) obtenues en simulation. Cela permet de construire des indicateurs de fiabilité classique (probabilité d'occurrence de l'évènement redouté, identification des coupes équivalentes prépondérantes, ...). Des indicateurs de fiabilité dynamique basés sur la classification des histoires en fonction des dates de défaillance des composants concernés et sur l'estimation de l'importance dynamique sont aussi proposés.
208

Raffinement de maillage multi-grille local en vue de la simulation 3D du combustible nucléaire des Réacteurs à Eau sous Pression

Barbié, Lauréline 03 October 2013 (has links) (PDF)
Le but de cette étude est d'améliorer les performances, en termes d'espace mémoire et de temps de calcul, des simulations actuelles de l'Interaction mécanique Pastille-Gaine (IPG), phénomène complexe pouvant avoir lieu lors de fortes montées en puissance dans les réacteurs à eau sous pression. Parmi les méthodes de raffinement de maillage, méthodes permettant de simuler efficacement des singularités locales, une approche multi-grille locale a été choisie car elle présente l'intérêt de pouvoir utiliser le solveur en boîte noire tout en ayant un faible nombre de degrés de liberté à traiter par niveau. La méthode Local Defect Correction (LDC), adaptée à une discrétisation de type éléments finis, a tout d'abord été analysée et vérifiée en élasticité linéaire, sur des configurations issues de l'IPG, car son utilisation en mécanique des solides est peu répandue. Différentes stratégies concernant la mise en oeuvre pratique de l'algorithme multi-niveaux ont également été comparées. La combinaison de la méthode LDC et de l'estimateur d'erreur a posteriori de Zienkiewicz-Zhu, permettant d'automatiser la détection des zones à raffiner, a ensuite été testée. Les performances obtenues sur des cas bidimensionnels et tridimensionnels sont très satisfaisantes, l'algorithme proposé se montrant plus performant que des méthodes de raffinement h-adaptatives. Enfin, l'algorithme a été étendu à des problèmes mécaniques non linéaires. Les questions d'un raffinement espace/temps mais aussi de la transmission des conditions initiales lors du remaillage ont entre autres été abordées. Les premiers résultats obtenus sont encourageants et démontrent l'intérêt de la méthode LDC pour des calculs d'IPG.
209

Conduite orientée ordonnancement d'un simulateur dynamique hybride : application aux procédés discontinus / Control oriented scheduling of a dynamic hybrid simulator : application to batch processes

Fabre, Florian 20 October 2009 (has links)
Ce manuscrit présente des travaux visant à intégrer un module d'ordonnancement (ProSched) à l'environnement de modélisation et simulation dynamique hybride PrODHyS dans le but d'automatiser la génération de scénarii de simulation de procédés discontinus sur la base d'une recette et d'une liste d'ordres de fabrication (OF). La méthodologie développée repose sur une approche mixte optimisation/simulation. Dans ce cadre, trois points essentiels ont été développés dans ces travaux : - tout d'abord, concevoir et développer des composants réutilisables (classes de recette) permettant de modéliser de manière hiérarchisée et systématique le déroulement des opérations unitaires. Pour cela, les notions de jeton Task et de macro-place paramétrable ont été introduites dans les RdPDO et permettent de décrire les recettes à réaliser par assemblage de ces composants prédéfinis. - ensuite, définir un modèle mathématique générique d'ordonnancement basé sur un formalisme de représentation bien établi (le R.T.N.) qui permet de modéliser les principales caractéristiques d'un procédé discontinu et de fournir l'ensemble des données d'entrée nécessaires au modèle de simulation. Pour cela, un modèle PLNE basé sur la formulation Unit Specific Event a été mis en œuvre. - enfin, définir l'interface existant entre le modèle d'optimisation et le modèle de simulation, à travers la notion de place de pilotage et de centre de décision au niveau du simulateur. Dans ce cadre, différentes stratégies de couplage sont proposées. Les potentialités de cette approche sont illustrées par la simulation d'un procédé complet. / This thesis presents works which aim to incorporate a scheduling module (ProSched) to an environment for modeling and dynamic hybrid simulation PrODHyS in order to automate the generation of scenarios for simulation of batch processes based on a recipe and a list of production orders (OF). The methodology developed is based on a mixed optimization / simulation approach. In this context, three key points have been developed in this work: - First, design and develop reusable components (recipe classes) for the hierarchical and systematic modeling of the sequencing of unit operations. For this, the notions of Task token and macro-place have been introduced in the RdPDO formalism and allow the modeling of recipes by assembling these predefined components. - Secondly, define a generic mathematical model of scheduling based on a well defined graphical formalism (RTN) that models the main characteristics of batch processes and provide all input data necessary to the simulation model. For this, a MILP model based on the Unit Specific Event formulation has been implemented. - Finally, define the interface between the optimization model and the simulation model through the concept of control place and decision-making center at the simulator level. In this context, various strategies of mixing optimization and simulation are proposed. The potential of this approach is illustrated by the simulation of a complete manufacturing process
210

High performance lattice Boltzmann solvers on massively parallel architectures with applications to building aeraulics

Obrecht, Christian 11 December 2012 (has links) (PDF)
With the advent of low-energy buildings, the need for accurate building performance simulations has significantly increased. However, for the time being, the thermo-aeraulic effects are often taken into account through simplified or even empirical models, which fail to provide the expected accuracy. Resorting to computational fluid dynamics seems therefore unavoidable, but the required computational effort is in general prohibitive. The joint use of innovative approaches such as the lattice Boltzmann method (LBM) and massively parallel computing devices such as graphics processing units (GPUs) could help to overcome these limits. The present research work is devoted to explore the potential of such a strategy. The lattice Boltzmann method, which is based on a discretised version of the Boltzmann equation, is an explicit approach offering numerous attractive features: accuracy, stability, ability to handle complex geometries, etc. It is therefore an interesting alternative to the direct solving of the Navier-Stokes equations using classic numerical analysis. From an algorithmic standpoint, the LBM is well-suited for parallel implementations. The use of graphics processors to perform general purpose computations is increasingly widespread in high performance computing. These massively parallel circuits provide up to now unrivalled performance at a rather moderate cost. Yet, due to numerous hardware induced constraints, GPU programming is quite complex and the possible benefits in performance depend strongly on the algorithmic nature of the targeted application. For LBM, GPU implementations currently provide performance two orders of magnitude higher than a weakly optimised sequential CPU implementation. The present thesis consists of a collection of nine articles published in international journals and proceedings of international conferences (the last one being under review). These contributions address the issues related to single-GPU implementations of the LBM and the optimisation of memory accesses, as well as multi-GPU implementations and the modelling of inter-GPU and internode communication. In addition, we outline several extensions to the LBM, which appear essential to perform actual building thermo-aeraulic simulations. The test cases we used to validate our codes account for the strong potential of GPU LBM solvers in practice.

Page generated in 0.1603 seconds