• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 124
  • 52
  • 46
  • Tagged with
  • 224
  • 224
  • 197
  • 177
  • 177
  • 175
  • 173
  • 72
  • 59
  • 41
  • 40
  • 40
  • 33
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Simulation concurrente de fautes comportementales pour des systèmes à événements discrets : Application aux circuits digitaux

Capocchi, Laurent 25 November 2005 (has links) (PDF)
La Simulation Comparative et Concurrente (SCC) permet d'effectuer plusieurs simulations d'un système en une seule<br />exécution. Une des premières applications de la SCC a été la Simulation de Fautes Concurrente (SFC) permettant la simu-<br />lation de fautes au sein des systèmes digitaux décrits au niveau portes logiques. De nos jours, les concepteurs de circuits<br />évitent de travailler sur ces modèles logiques et préfèrent utiliser des descriptions plus abstraites basées sur des langages<br />de description de matériel comme le VHDL (Very high speed integrated circuits Hardware Description Language). Ces<br />langages permettent de modéliser et de simuler le comportement des circuits digitaux mais ils ne sont pas appropriés pour<br />la simulation concurrente des comportements fautifs ou fautes. Les barrières au développement d'un simulateur concurrent<br />de fautes comportementales sont le manque de modèles de fautes réalistes et la difficulté à mettre en œuvre les algorithmes<br />concurrents au sein d'un noyau de simulation.<br /> Pour répondre à cette problématique, nous proposons le formalisme BFS-DEVS (Behavioral Fault Simulator for Discrete<br />EVent system Specification). Ce formalisme permet de modéliser et de simuler les fautes comportementales sur des systèmes<br />à événements discrets comme les circuits digitaux décrits en VHDL. Il dérive du formalisme DEVS (Discrete EVent system<br />Specification) introduit par le professeur B.P. Zeigler à la fin des années 70. Le noyau de simulation BFS-DEVS intègre les<br />algorithmes concurrents de la SFC et il s'appuie sur une technique de propagation de listes de fautes au sein des modèles du<br />système. Cette technique améliore la rapidité du processus de simulation car elle permet la détection simultanée de plusieurs<br />fautes et simplifie également l'observabilité des résultats en fin de simulation.
42

Techniques d'inversion pour la diagraphie différée et l'imagerie électromagnétique

Litman, Amelie 27 November 2009 (has links) (PDF)
Les problèmes inverses se retrouvent dans de nombreux domaines de la physique. Dans ce manuscrit, deux thématiqes seront ainsi évoquées. La première concerne la diagraphie différée, qui est une étape-clé de la prospection pétrolière. La mise en place de schémas numériques et algorithmiques est explicitée ainsi que les difficultés inhérentes associées. Le deuxième axe de recherche concerne plus particulièrement les problèmes inverses de diffraction en électromagnétisme. Différents algorithmes d'inversion ont été proposés et validés par des confrontations expérimentales. Le lien fort entre conception et exploitation d'instruments d'imagerie par diffraction sera également évoqué.
43

Contrôle autonome d'opérateurs pour la recherche locale

Veerapen, Nadarajen 29 November 2012 (has links) (PDF)
Au fil des années, un nombre croissant de méthodes de résolution ont été proposées afin de traiter des problèmes plus grands et plus complexes. Parmi ces méthodes, les métaheuristiques sont largement utilisées dans le monde académique et industriel afin de résoudre efficacement des problèmes d'optimisation et de satisfaction de contraintes. Toutefois la conception de métaheuristiques de plus en plus performantes produit souvent des systèmes fortement complexes dont l'utilisation demande une expertise non négligeable aussi bien du problème lui-même que de la façon de paramétrer la méthode de résolution. Concevoir des algorithmes de recherche autonomes est donc une question importante. Cette thèse traite du problème de la gestion et de la sélection d'opérateurs dans le contexte de la recherche locale, au sein d'un contrôleur générique. Celui a pour but de pouvoir être réutilisé facilement pour traiter différents problèmes. Nous nous attachons donc à concevoir des méthodes simples et robustes. La sélection des opérateurs se base sur un apprentissage des performances antérieures de chaque opérateur afin de déterminer les opérateurs vraisemblablement les plus bénéfiques à chaque pas de la recherche. Pour effectuer ces choix, le contrôleur se base sur la capacité des opérateurs à améliorer la qualité des solutions ainsi que sur la faculté de produire des solutions qui diffèrent de celles déjà obtenues. Les méthodes proposées sont testées sur différents problèmes théoriques et pratiques d'optimisation combinatoire et de satisfaction de contraintes. Les résultats obtenus montrent qu'il est possible d'obtenir des résultats corrects avec des méthodes simples. Les mécanismes adaptatifs proposés se révèlent robustes sur différents problèmes.
44

Plate-forme multimodale pour la reconnaissance d'émotions via l'analyse de signaux physiologiques : Application à la simulation d'entretiens d'embauche

Hamdi, Hamza 03 December 2012 (has links) (PDF)
La reconnaissance des émotions est un aspect important de l'informatique affective dont l'un des objectifs est l'étude et le développement d'interactions comportementales et émotionnelles entre humains et agents conversationnels animés. Dans ce contexte, un point également important concerne les dispositifs d'acquisition et les outils de traitement des signaux, conduisant à une estimation de l'état émotionnel de l'utilisateur. Le travail présenté dans ce manuscrit repose sur le développement d'une plate-forme multimodale d'acquisition et de traitement de signaux physiologiques (PACE). Cette plate-forme peut être considérée comme un middleware modulaire et générique permettant de mesurer, en temps réel, l'état émotionnel de l'utilisateur via l'estimation d'un vecteur d'état. Elle s'intègre dans le cadre de la mise en place d'un simulateur innovant destiné à la simulation d'entretiens d'embauche (Projet PISE : Plate-forme Immersive de Simulation d'Entretien). Cet outil permettra aux personnes en phase d'insertion ou de réinsertion, une meilleure gestion de leurs compétences comportementales et émotionnelles. L'approche que nous avons développée se fonde sur les résultats expérimentaux obtenus et sur une méthodologie originale impliquant différents modèles mathématiques. Différents protocoles expérimentaux, basés sur deux techniques d'induction de stimuli (images IAPS et séquences vidéo de Schaeffer) ont été proposés. Ils permettent la détermination de la corrélation entre les états émotionnels et les signaux physiologiques (EEG, ECG, etc.) issus des capteurs proposés. Trois méthodes de classification (SVM, naïve bayésienne, régression logistique) ont été comparées sur plusieurs critères d'évaluation. Nous avons proposé, à partir des résultats obtenus, une méthodologie permettant l'extraction en temps réel des émotions via les modèles proposés. Une étude expérimentale a également été menée avec pour objectif de valider la plate-forme PACE via la reconnaissance d'états émotionnels lors de séquences vidéo développées à l'Université d'Angers. L'approche multimodale proposée a donné de meilleurs résultats que les approches uni-modales précédentes. Enfin, notre plate-forme a été intégrée au simulateur PISE, et évaluée de manière subjective et objective lors de simulations d'entretiens. Les résultats ont permis de valider partiellement le simulateur.
45

Méthodologie d'analyse et de rétro-conception pour l'amélioration énergétique des procédés industriels / Analysis and retrofit methodology for energy efficiency improvements of industrial processes

Gourmelon, Stéphane 21 September 2015 (has links)
A la veille d’une nouvelle conférence sur le climat, les questions environnementales demeurent plus que jamais au premier plan de la vie publique. La lutte contre le réchauffement climatique, et les émissions de gaz à effet de serre, dont l’attribution à l’activité humaine fait globalement l’objet d’un consensus scientifique, constituent l’un des plus grands défis de l’humanité pour les prochaines années. Dans ce contexte, l’amélioration de l’efficacité énergétique des sites de production est une des préoccupations des industriels. Les réglementations environnementales, et les fluctuations des cours de l’énergie les forcent à continuellement améliorer leurs procédés pour en maintenir la compétitivité. Ceux-ci doivent ainsi pouvoir disposer d’outils leur permettant d’effectuer des diagnostics énergétiques sur les installations, leur facilitant la prise de décision et leur permettant d’élaborer des solutions d’efficacité énergétique sur leurs sites industriels. Les travaux présentés dans ce document visent à introduire une méthodologie d’analyse et de rétro-conception pour l’amélioration énergétique des procédés industriels. Cette méthodologie, qui s’appuie sur une utilisation combinée de la méthode du pincement et de l’analyse exergétique, se décompose en trois grandes étapes : la première comprend le recueil des données, la modélisation et la simulation du procédé. La deuxième étape, dédiée à l’analyse du procédé, est elle-même divisée en deux phases. La première, qui s’appuie pour l’essentiel sur l’utilisation de la méthodologie du pincement, s’intéresse uniquement à l’analyse du système de fourniture et de récupération de l’énergie thermique. Si cela s’avère nécessaire, le procédé complet est étudié dans une deuxième phase. L’analyse pincement se limitant à l’étude des procédés thermiques, une méthodologie d’analyse exergétique est mise en œuvre. Cette méthodologie s’appuie sur l’implémentation de l’analyse exergétique dans l’environnement ProSimPlus, entreprise par Ali Ghannadzadeh, et poursuivie pendant cette thèse. Les formules d'exergie ont été affinées pour s’ajuster aux différents modèles thermodynamiques. L’approche d’analyse proposée dans ce manuscrit est basée sur l’utilisation d’une nouvelle représentation graphique des bilans exergétiques : le ternaire exergétique. Ce dernier permet d’illustrer tous les aspects des bilans exergétiques et ainsi d'assister l’ingénieur dans l’analyse du procédé. La troisième étape s’intéresse à la conception pour l’amélioration énergétique. Alors que l’analyse du pincement propose des solutions d’amélioration, l’analyse exergétique ne le permet pas. Elle nécessite l’apport d’une certaine expertise pour aboutir au développement de solutions d’améliorations. Pour pallier ce problème, l’expertise est en partie capitalisée dans un système de raisonnement à partir de cas. Ce système permet de proposer des solutions à des problèmes nouveaux en analysant les similarités avec des problèmes anciens. Cet outil se révèle utile pour définir des solutions locales d’améliorations énergétiques. L’analyse du pincement associée à des outils numériques est ensuite utilisée pour concevoir des propositions complètes d’améliorations. La seconde partie de ce manuscrit présente cette étape. / On the eve of a new conference on climate change, environmental issues remain more than ever at the forefront of public life. Tackling climate change, and reducing greenhouse gases emissions, that are largely attributable to human activity, represents one of the biggest challenges for humanity in the coming years. In such a context, the promotion of best practices to enable an efficient utilization of energy has emerged as one of the major point of focus. High volatility of energy prices and the increasingly stringent environmental regulations have forced industrials to continuously improve their processes in order to cut the energy consumption down and reduce GHG emissions. For this purpose, industrials need tools to perform energy audits on facilities, to ease decision-making and to enable them to develop their energy efficiency solutions on their sites. In this context, the study presented in this dissertation aims at introducing a new systematic procedure for energy diagnosis and retrofit of industrial processes. This methodology presented in this dissertation is divided into three stages: the first involves the data collection, the modeling and simulation of the process. The second stage, dedicated to the analysis of the process, is subdivided into two phases. The first, which is essentially relying on the Pinch methodology, is only concerned with the analysis of the thermal energy supply and recovery system. If necessary, the complete process is studied in the second phase of the analysis. Pinch analysis being limited to the analysis of thermal systems, an exergy analysis methodology is then implemented. This methodology is based on the implementation of the Exergy analysis in the ProSimPlus modelling and simulation environment, undertaken by A. Ghannadzadeh, and pursued in this study. The formulas proposed by Ali Ghannadzadeh have been adjusted to take into account different thermodynamic approaches. A new graphical representation of exergy balances, the exergetic ternary diagram, is also introduced to assist engineers in the analysis process. It enables to illustrate all aspects of exergy balances, i.e. the irreversibility, the exergy losses and the exergy efficiencies of each unit operation. The automation of this new graphical layout was made possible by the implementation of a generic exergy efficiency in the simulator. This analysis paves the way to the third step of the overall methodology dedicated to retrofitting. This methodology is detailed in the first part of this dissertation. While Pinch analysis proposes improvement solutions, the Exergy analysis does not. The key to achieving a significant exergy analysis lies in the engineer’s ability to propose alternatives for reducing thermodynamic imperfections, thus exergy analysis is supposed to be undertaken by an experienced user. To overcome this problem, the expertise is partly capitalized in a case-based reasoning system. This system allows the proposition of solutions to new problems by analyzing the similarities with solved problems. This tool is useful for defining local solutions for energy improvements. The Pinch analysis combined to numerical tools is then used to develop alternatives. This third step is developed in the third part of the manuscript.
46

Supporting multidisciplinary vehicle modeling : towards an ontology-based knowledge sharing in collaborative model based systems engineering environment / Ingénierie des systèmes basés sur les modèles (MBSE) appliquée au processus de conception de simulation complexe : vers une ontologie de la modélisation et la simulation pour favoriser l'échange des connaissances en entreprise étendue

Sirin, Göknur 20 March 2015 (has links)
Les systèmes industriels (automobile, aérospatial, etc.) sont de plus en plus complexes à cause des contraintes économiques et écologiques. Cette complexité croissante impose des nouvelles contraintes au niveau du développement. La question de la maitrise de la capacité d’analyse de leurs architectures est alors posée. Pour résoudre cette question, les outils de modélisation et de simulation sont devenus une pratique courante dans les milieux industriels afin de comparer les multiples architectures candidates. Ces outils de simulations sont devenus incontournables pour conforter les décisions. Pourtant, la mise en œuvre des modèles physiques est de plus en plus complexe et nécessite une compréhension spécifique de chaque phénomène simulé ainsi qu’une description approfondie de l’architecture du système, de ses composants et des liaisons entre composants. L’objectif de cette thèse est double. Le premier concerne le développement d’une méthodologie et des outils nécessaires pour construire avec précision les modèles de simulation des architectures de systèmes qu’on désire étudier. Le deuxième s’intéresse à l’introduction d’une approche innovante pour la conception, la production et l’intégration des modèles de simulations en mode « plug and play » afin de garantir la conformité des résultats aux attentes, notamment aux niveaux de la qualité et de la maturité. Pour accomplir ces objectifs, des méthodologies et des processus d’ingénierie des systèmes basés sur les modèles (MBSE) ainsi que les systèmes d’information ont été utilisés. Ce travail de thèse propose pour la première fois un processus détaillé et un outil pour la conception des modèles de simulation. Un référentiel commun nommé « Modèle de carte d'identité (MIC) » a été développé pour standardiser et renforcer les interfaces entre les métiers et les fournisseurs sur les plans organisationnels et techniques. MIC garantit l’évolution et la gestion de la cohérence de l’ensemble des règles et les spécifications des connaissances des domaines métiers dont la sémantique est multiple. MIC renforce également la cohérence du modèle et réduit les anomalies qui peuvent interférer pendant la phase dite IVVQ pour Intégration, Vérification, Validation, Qualification. Finalement, afin de structurer les processus de conception des modèles de simulation, le travail s’est inspiré des cadres de l’Architecture d’Entreprise en reflétant les exigences d’intégration et de standardisation du modèle opératoire de l’entreprise. Pour valider les concepts introduits dans le cadre de cette thèse, des études de cas tirés des domaines automobile et aérospatiale ont été réalisées. L'objectif de cette validation est d'observer l'amélioration significative du processus actuel en termes d'efficacité, de réduction de l'ambiguïté et des malentendus dans la modélisation et la simulation du système à concevoir. / Simulation models are widely used by industries as an aid for decision making to explore and optimize a broad range of complex industrial systems’ architectures. The increased complexity of industrial systems (cars, airplanes, etc.), ecological and economic concerns implies a need for exploring and analysing innovative system architectures efficiently and effectively by using simulation models. However, simulations designers currently suffer from limitations which make simulation models difficult to design and develop in a collaborative, multidisciplinary design environment. The multidisciplinary nature of simulation models requires a specific understanding of each phenomenon to simulate and a thorough description of the system architecture, its components and connections between components. To accomplish these objectives, the Model-Based Systems Engineering (MBSE) and Information Systems’ (IS) methodologies were used to support the simulation designer’s analysing capabilities in terms of methods, processes and design tool solutions. The objective of this thesis is twofold. The first concerns the development of a methodology and tools to build accurate simulation models. The second focuses on the introduction of an innovative approach to design, product and integrate the simulation models in a “plug and play" manner by ensuring the expected model fidelity. However, today, one of the major challenges in full-vehicle simulation model creation is to get domain level simulation models from different domain experts while detecting any potential inconsistency problem before the IVVQ (Integration, Verification, Validation, and Qualification) phase. In the current simulation model development process, most of the defects such as interface mismatch and interoperability problems are discovered late, during the IVVQ phase. This may create multiple wastes, including rework and, may-be the most harmful, incorrect simulation models, which are subsequently used as basis for design decisions. In order to address this problem, this work aims to reduce late inconsistency detection by ensuring early stage collaborations between the different suppliers and OEM. Thus, this work integrates first a Detailed Model Design Phase to the current model development process and, second, the roles have been re-organized and delegated between design actors. Finally an alternative architecture design tool is supported by an ontology-based DSL (Domain Specific Language) called Model Identity Card (MIC). The design tools and mentioned activities perspectives (e.g. decisions, views and viewpoints) are structured by inspiration from Enterprise Architecture Frameworks. To demonstrate the applicability of our proposed solution, engine-after treatment, hybrid parallel propulsion and electric transmission models are tested across automotive and aeronautic industries.
47

Application of Model-Driven Engineering and Metaprogramming to DEVS Modeling & Simulation / Application de l'ingénierie dirigée par les modèles et de la métaprogrammation à la modélisation & simulation DEVS

Touraille, Luc 07 December 2012 (has links)
La multiplication des environnements logiciels pour la Modélisation & Simulation DEVS pose un problème de collaboration à la communauté scientifique. En effet, l'utilisation d'outils disparates rend l'échange, la réutilisation et la comparaison de modèles très difficiles, empêchant les scientifiques de s'appuyer sur des travaux précédents pour construire leurs modèles. L'interopérabilité des outils n'est pas le seul problème soulevé par le besoin de modèles toujours plus complexes. Au fur et à mesure que les modèles grossissent, leur développement devient plus difficile, notamment en termes de détection des erreurs de conception. D'autre part, la simulation de ces modèles demande de plus en plus de ressources. Par conséquent, il est nécessaire de concevoir des techniques pour améliorer la performance des simulateurs et pour fournir des fonctionnalités de vérification de modèle afin d'assister les scientifiques dans la conception de leurs modèles. Dans cette thèse, nous proposons deux approches innovantes pour la M&S DEVS qui s'attaquent aux problèmes susmentionnés. La première contribution décrite dans ce document est un environnement basé sur les modèles pour modéliser des systèmes avec le formalisme DEVS, intitulé SimStudio. Cet environnement repose sur l'Ingénierie Dirigée par les Modèles pour fournir un cadriciel de haut niveau dans lequel les scientifiques peuvent créer, éditer et visualiser des modèles, et générer automatiquement un ensemble d’artefacts, notamment des spécifications de modèles compatibles avec différents simulateurs DEVS. Le noyau de SimStudio est un métamodèle de DEVS, indépendant de toute plateforme, qui fournit un format pivot pour la représentation des modèles DEVS. En se basant sur ce métamodèle, nous avons développé plusieurs fonctionnalités de vérification de modèle ainsi que plusieurs transformations de modèle pouvant être utilisées pour générer automatiquement de la documentation, des diagrammes ou du code ciblant diverses plateformes DEVS. Ainsi, SimStudio fournit une preuve de concept des capacités d’intégration qu’un standard DEVS pourrait fournir ; en fait, le métamodèle présenté dans cette thèse pourrait potentiellement servir de base de réflexion pour un tel standard. La seconde contribution de cette thèse est DEVS-MetaSimulateur (DEVS-MS), une bibliothèque DEVS qui utilise la métaprogrammation pour générer des exécutables de simulation spécialisés et optimisés pour le modèle qu’ils traitent. Pour ce faire, la bibliothèque effectue un grand nombre d’opérations durant la compilation, résultant en un code de simulation où une grande partie de l’overhead de simulation a été éliminé. Les tests que nous avons effectués ont montré que les programmes générés étaient très efficaces, mais le gain de performance n’est pas la seule caractéristique intéressante de DEVS-MS. En effet, grâce à la métaprogrammation, DEVS-MS peut également partiellement vérifier à la compilation que les modèles sont corrects, c’est-à-dire que leurs caractéristiques sont bien conformes au formalisme DEVS. Les erreurs de modélisation sont ainsi détectées et signalées très tôt dans le cycle de développement, et avec un taux de détection bien meilleur que ne le permettrait des tests classiques. / The multiplication of software environments supporting DEVS Modeling & Simulation is becoming a hindrance to scientific collaboration. Indeed, the use of disparate tools in the community makes the exchange, reuse and comparison of models very difficult, preventing practitioners from building on previous works to devise models of ever-increasing complexity. Tool interoperability is not the only issue raised by the need for models of higher and higher complexity. As models grow, their development becomes more error-prone, and their simulation becomes more resource-consuming. Consequently, it is necessary to devise techniques for improving simulators performance and for providing thorough model verification to assist the practitioner during model design. In this thesis, we propose two innovative approaches for DEVS Modeling & Simulation that tackle the aforementioned issues. The first contribution described in this document is a model-driven environment for modeling systems with the DEVS formalism, named SimStudio. This environment relies on Model-Driven Engineering to provide a high-level framework where practitioners can create, edit and visualize models, and automatically generate multiple artifacts, most notably model specifications compatible with various DEVS simulators. The core of SimStudio is a platform-independent metamodel of the DEVS formalism, which provides a pivot format for DEVS models. Based on this metamodel, we developed several model verification features as well as many model transformations that can be used to automatically generate documentation, diagrams or code targeting various DEVS platforms. Thus, SimStudio gives a proof of concept of the integration capabilities that a DEVS standard would provide; as a matter of fact, the metamodel presented in this thesis could possibly serve as a basis for such a standard. The second contribution of this thesis is DEVS-MetaSimulator (DEVS-MS), a DEVS library relying on metaprogramming to generate simulation executables that are specialized and optimized for the model they handle. To do so, the library performs many computations during compilation, resulting in a simulation code where most overhead have been eliminated. The tests we conducted showed that the generated programs were very efficient, but the performance gain is not the only feature of DEVS-MS. Indeed, through metaprogramming, DEVS-MS can also assert the correctness of models by verifying model characteristics at compile-time, detecting and reporting modeling errors very early in the development cycle and with better confidence than what could be achieved with classical testing.
48

Modélisation théorique et processus associés pour Architectes Modèle dans un environnement multidisciplinaire / Theoretical Modeling and associated processes for Model Architects in a multidisciplinary simulation environment (multiphysics)

Fontaine, Gauthier 28 February 2017 (has links)
La simulation multi-disciplinaire et multi-physique représente un enjeu scientifique et industriel majeur. La simulation a été essentiellement traitée par les physiciens (mécanique, électromagnétique, ...) comme un problème numérique sur des cas d'étude très précis mais n'a jamais été abordée d'un point de vue système. La problématique générale posée par la simulation de systèmes complexes inclut la composition des modèles, l'optimisation multi-objectifs, la sémantique et la vérification formelle des compositions et le cadre offert par l'ingénierie système. Cette thèse propose une démarche originale établissant les fondements théoriques et méthodologiques pour un processus sans rupture entre ingénierie système, optimisation multi-objectif et simulation multi-physique. Des cas d'études issus de l'automobile démontrent la validité de cette approche expérimentée sur la base du langage Modelica. / Multi-disciplinary and multi-physics simulation represents a major scientific and industrial challenge. The simulation has essentially been considered by physicists (mechanic domain, electromagnetic domain, ...) as a numerical problem on specific case studies but has never been adressed from a system perspective. The general problem induced by the numerical simulation of complex systems include model composition, multi-objective optimization, the semantics and formal verification of compositions and the frame of systems engineering. This thesis proposes an original approach establishing the theoretical and methodological foundations for a seamless process between systems engineering, multi-objective optimization and multi-physics simulation. Automotive case studies show the validity of such an approach based on Modelica langage.
49

Séchage d'un milieu déformable non saturé : Modélisation du couplage hygromécanique

Chemkhi, Saber 31 January 2008 (has links) (PDF)
Le thème de cette étude est la modélisation du séchage d'un milieu poreux déformable partiellement saturé (solide, liquide et gaz). Cette modélisation tient compte de la nature du produit ainsi que des conditions initiales et de sa forme. En fait, au cours de leur séchage, les milieux poreux déformables subissent des contraintes liées au retrait volumique. L'objectif est de prévoir ces contraintes afin de contrôler la déformation du produit. La modélisation du séchage des milieux poreux saturés étant maîtrisée, de même pour les milieux non saturés et non déformables. La problématique se pose au niveau de la transition entre milieu saturé et milieu non saturé où il n'existe pas actuellement de modélisation physique continue. Dans ce travail, on propose un modèle décrivant les transferts de chaleur, de masse et de quantité de mouvement appliqué au séchage d'un milieu non saturé et déformable. Le gradient de pression est le terme moteur du transport de l'eau dans le milieu au travers de la loi de Darcy. La particularité du modèle est qu'il tient compte du fort couplage entre transport et comportement rhéologique du matériau en utilisant la notion de contraintes effectives. Les variables de couplage sont la vitesse de déformation du solide et la pression intrinsèque de la phase liquide. Le modèle est validé pour une argile à différentes conditions de séchage convectif. Les simulations montrent la faisabilité du modèle décrivant le séchage d'un milieu partiellement saturé et l'étude de sensibilité montre la forte influence de la perméabilité du matériau et de la pression capillaire d'une part, et des propriétés rhéologiques d'autre part.
50

L'Efficience Énergétique des Services dans les Systèmes Répartis Hétérogènes et Dynamiques : Application à la Maison Numérique

Druilhe, Rémi 05 December 2013 (has links) (PDF)
La maison est un environnement dans lequel de plus en plus d'équipements sont interconnectés. Cette multiplication des équipements informatiques et des services associés augmente la consommation d'énergie de la maison numérique. Pour limiter cette tendance, les équipements de l'électronique grand public contrôlent leur consommation d'énergie individuellement, indépendamment les uns des autres. Les environnements répartis offrent de nouvelles opportunités de gestion de la consommation d'énergie des équipements. Ce travail propose de mettre en place une coordination intelligente entre les équipements de façon à limiter la consommation énergétique de l'ensemble de ces équipements tout en délivrant les mêmes services. Notre approche consiste à déplacer des composants logiciels d'un équipement à l'autre afin de maximiser l'efficience énergétique de la maison numérique. Cependant, ces déplacements sont contraints à la fois par l'environnement, e.g., ressources matérielles disponibles, et par les besoins des composants logiciels, e.g., ressources matérielles requises, présence de l'utilisateur. Pour concevoir un tel système, il est nécessaire de considérer les propriétés intrinsèques à la maison numérique dont l'hétérogénéité, la dynamicité et la qualité de service. L'hétérogénéité nécessite une modélisation de chaque équipement et de chaque service suivant des critères différenciant, e.g., ressources matérielles, présence de l'utilisateur. La dynamicité requiert de modifier la répartition des composants logiciels lorsqu'un événement significatif survient, e.g., apparition d'un équipement, afin de conserver l'efficience énergétique. Enfin, la mise en place de solutions moins énergivores ne doit pas impacter la qualité de service, e.g., satisfaire les besoins en ressources matérielles des composants logiciels. Nous proposons une modélisation de ces propriétés. Ce modèle est ensuite considéré par un système décisionnel autonome. Sur l'observation d'événements significatifs, le système prend la décision de modifier la répartition des composants sur les équipements afin d'atteindre l'objectif d'efficience énergétique tout en satisfaisant à la qualité de service. L'implantation du système décisionnel est réalisée par une architecture elle-même conçue pour être efficiente énergétiquement. Le système décisionnel est considéré comme un service à part entière. Il est construit comme les autres services présents dans l'environnement, et est donc capable de se déplacer d'un équipement à un autre pour s'exécuter sur celui qui est le plus approprié en fonction du contexte. L'approche est validée au travers de son implémentation appelée HomeNap et le déroulé de scénarios de la vie courante. Les résultats obtenus montrent des gains énergétiques. Ces résultats montrent également que les gains sont fonctions des usages de la maison numérique. Enfin, ces gains s'accroissent lorsque le nombre d'équipements et de services augmente, ce qui correspond à la tendance actuellement observée.

Page generated in 0.5838 seconds