• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Adaptability and reconfiguration of automotive embedded systems / Adaptabilité et reconfiguration des systémes embarqués automobiles

Belaggoun, Amel 10 October 2017 (has links)
Les véhicules modernes sont de plus en plus informatisés pour satisfaire les exigences de sureté les plus strictes et pour fournir de meilleures expériences de conduite. Par conséquent, le nombre d'unités de contrôle électronique (ECU) dans les véhicules modernes a augmenté de façon continue au cours des dernières années. En outre, les applications à calcul complexe offrent une demande de calcul plus élevée sur les ECU et ont des contraintes de temps-réel dures et souples, d'où le besoin d’une approche unifiée traitant les deux types de contraintes. Les architectures multi-cœur permettent d'intégrer plusieurs niveaux de criticité de sureté sur la même plate-forme. De telles applications ont été conçues à l'aide d'approches statiques; cependant, les approches dites statiques ne sont plus réalisables dans des environnements très dynamiques en raison de la complexité croissante et les contraintes de coûts strictes, d’où la nécessite des solutions plus souples. Cela signifie que, pour faire face aux environnements dynamiques, un système automobile doit être adaptatif; c'est-à-dire qu'il doit pouvoir adapter sa structure et / ou son comportement à l'exécution en réponse à des changements fréquents dans son environnement. Ces nouvelles exigences ne peuvent être confrontées aux approches actuelles des systèmes et logiciels automobiles. Ainsi, une nouvelle conception de l'architecture électrique / électronique (E / E) d'un véhicule doit être développé. Récemment, l'industrie automobile a convenu de changer la plate-forme AUTOSAR actuelle en "AUTOSAR Adaptive Platform". Cette plate-forme est développée par le consortium AUTOSAR en tant que couche supplémentaire de la plate-forme classique. Il s'agit d'une étude de faisabilité continue basée sur le système d'exploitation POSIX qui utilise une communication orientée service pour intégrer les applications dans le système à tout moment. L'idée principale de cette thèse est de développer de nouveaux concepts d'architecture basés sur l'adaptation pour répondre aux besoins d'une nouvelle architecture E / E pour les véhicules entièrement électriques (VEF) concernant la sureté, la fiabilité et la rentabilité, et les intégrer à AUTOSAR. Nous définissons l'architecture ASLA (Adaptive System Level in AUTOSAR), qui est un cadre qui fournit une solution adaptative pour AUTOSAR. ASLA intègre des fonctions de reconfiguration au niveau des tâches telles que l'addition, la suppression et la migration des tâches dans AUTOSAR. La principale différence entre ASLA et la plate-forme Adaptive AUTOSAR est que ASLA permet d'attribuer des fonctions à criticité mixtes sur le même ECU ainsi que des adaptations bornées temps-réel, tant dis que Adaptive AUTOSAR sépare les fonctions temps réel critiques (fonctionnant sur la plate-forme classique) des fonctions temps réel non critiques (fonctionnant sur la plate-forme adaptative). Pour évaluer la validité de notre architecture proposée, nous fournissons une implémentation prototype de notre architecture ASLA et nous évaluons sa performance à travers des expériences. / Modern vehicles have become increasingly computerized to satisfy the more strict safety requirements and to provide better driving experiences. Therefore, the number of electronic control units (ECUs) in modern vehicles has continuously increased in the last few decades. In addition, advanced applications put higher computational demand on ECUs and have both hard and soft timing constraints, hence a unified approach handling both constraints is required. Moreover, economic pressures and multi-core architectures are driving the integration of several levels of safety-criticality onto the same platform. Such applications have been traditionally designed using static approaches; however, static approaches are no longer feasible in highly dynamic environments due to increasing complexity and tight cost constraints, and more flexible solutions are required. This means that, to cope with dynamic environments, an automotive system must be adaptive; that is, it must be able to adapt its structure and/or behaviour at runtime in response to frequent changes in its environment. These new requirements cannot be faced by the current state-of-the-art approaches of automotive software systems. Instead, a new design of the overall Electric/Electronic (E/E) architecture of a vehicle needs to be developed. Recently, the automotive industry agreed upon changing the current AUTOSAR platform to the “AUTOSAR Adaptive Platform”. This platform is being developed by the AUTOSAR consortium as an additional product to the current AUTOSAR classic platform. This is an ongoing feasibility study based on the POSIX operating system and uses service-oriented communication to integrate applications into the system at any desired time. The main idea of this thesis is to develop novel architecture concepts based on adaptation to address the needs of a new E/E architecture for Fully Electric Vehicles (FEVs) regarding safety, reliability and cost-efficiency, and integrate these in AUTOSAR. We define the ASLA (Adaptive System Level in AUTOSAR) architecture, which is a framework that provides an adaptive solution for AUTOSAR. ASLA incorporates tasks-level reconfiguration features such as addition, deletion and migration of tasks in AUTOSAR. The main difference between ASLA and the Adaptive AUTOSAR platform is that ASLA enables the allocation of mixed critical functions on the same ECU as well as time-bound adaptations while adaptive AUTOSAR separates critical, hard real-time functions (running on the classic platform) from non-critical/soft-real-time functions (running on the adaptive platform). To assess the validity of our proposed architecture, we provide an early prototype implementation of ASLA and evaluate its performance through experiments.
172

Approches de parallélisation automatique et d'ordonnancement pour la co-simulation de modèles numériques sur processeurs multi-coeurs / Automatic parallelization and scheduling approaches for co-simulation of numerical models on multi-core processors

Saidi, Salah Eddine 18 April 2018 (has links)
Lors de la conception de systèmes cyber-physiques, des modèles issus de différents environnements de modélisation doivent être intégrés afin de simuler l'ensemble du système et estimer ses performances. Si certaines parties du système sont disponibles, il est possible de connecter ces parties à la simulation dans une approche Hardware-in-the-Loop (HiL). La simulation doit alors être effectuée en temps réel où les modèles réagissent périodiquement aux composants réels. En utilisant des modèles complexes, il devient difficile d'assurer une exécution rapide ou en temps réel sans utiliser des architectures multiprocesseurs. FMI (Functional Mocked-up Interface), un standard pour l'échange de modèles et la co-simulation, offre de nouvelles possibilités d'exécution multi-cœurs des modèles. L'un des objectifs de cette thèse est de permettre l'extraction du parallélisme potentiel dans une co-simulation multi-rate. Nous nous appuyons sur l'approche RCOSIM qui permet la parallélisation de modèles FMI. Des améliorations sont proposées dans le but de surmonter les limitations de RCOSIM. Nous proposons de nouveaux algorithmes pour permettre la prise en charge de modèles multi-rate. Les améliorations permettent de gérer des contraintes spécifiques telles que l'exclusion mutuelle et les contraintes temps réel. Nous proposons des algorithmes pour l'ordonnancement des co-simulations, en tenant compte de différentes contraintes. Ces algorithmes visent à accélérer la co-simulation ou assurer son exécution temps réel dans une approche HiL. Les solutions proposées sont testées sur des co-simulations synthétiques et validées sur un cas industriel. / When designing cyber-physical systems, engineers have to integrate models from different modeling environments in order to simulate the whole system and estimate its global performances. If some parts of the system are available, it is possible to connect these parts to the simulation in a Hardware-in-the-Loop (HiL) approach. In this case, the simulation has to be performed in real-time where models periodically react to the real components. The increase of requirements on the simulation accuracy and its validity domain requires more complex models. Using such models, it becomes hard to ensure fast or real-time execution without using multiprocessor architectures. FMI (Functional Mocked-up Interface), a standard for model exchange and co-simulation, offers new opportunities for multi-core execution of models. One goal of this thesis is the extraction of potential parallelism in a set of interconnected multi-rate models. We build on the RCOSIM approach which allows the parallelization of FMI models. In the first part of the thesis, improvements have been proposed to overcome the limitations of RCOSIM. We propose new algorithms in order to allow handling multi-rate models and schedule them on multi-core processors. The improvements allow handling specific constraints such as mutual exclusion and real-time constraints. Second, we propose algorithms for the allocation and scheduling of co-simulations, taking into account different constraints. These algorithms aim at accelerating the execution of the co-simulation or ensuring its real-time execution in a HiL approach. The proposed solutions have been tested on synthetic co-simulations and validated against an industrial use case.
173

Une approche efficace et polyvalente pour l'ordonnancement de systèmes à criticité mixte sur processeur multi-coeurs / Versatile and efficient mixed–criticality scheduling for multi-core processors

Gratia, Romain 06 January 2017 (has links)
Ce document présente nos contributions aux algorithmes d'ordonnancement à criticité mixte pour multi-processeurs. La correction de l'exécution des applications temps réel critiques est assurée par l'utilisation d'un ordonnancement vérifié à la conception. Dans ce contexte, le dimensionnement des plate-formes d'exécution vise à minimiser le nombre de processeurs nécessaires pour assurer un ordonnancement correct. Ce dimensionnement est affecté par les exigences de sûreté de fonctionnement. Ces exigences poussent à surestimer le temps nécessaire garantissant l'exécution correcte des applications. Il en découle un dimensionnement assez coûteux. Les méthodes d'ordonnancement des systèmes à criticité mixte proposent des compromis sur les garanties d'exécution des applications améliorant le dimensionnement. Différents compromis ont été proposés mais tous reposent sur la notion de mode d'exécution. Les modes sont ordonnés, et les tâches voient leur temps d'exécution requis croître avec les modes. Cependant, afin de diminuer le dimensionnement du système, seul l'ordonnancement des tâches les plus critiques est garanti. Ce modèle est appelé "discarding". La majorité des algorithmes proposés se limitent à deux modes d'exécutions par simplicité. De plus, les algorithmes les plus efficaces pour multi-processeurs exhibent un nombre élevé de préemptions, ce qui constitue un frein à leur adoption. Finalement, ces algorithmes sont rarement généralisables. Pourtant, la prise en compte de plus de deux modes, ou de tâches aux périodes élastiques permettrait une adoption plus large par le milieu industriel. L'approche proposée repose sur la séparation des préoccupations entre la prise en compte des modes de fonctionnement, et l'ordonnancement des tâches sur multi-processeurs. Cette méthode permet de concevoir une politique d'ordonnancement efficace et adaptable à différents modèles de systèmes à criticité mixte. Notre approche consiste à transformer un lot de tâches à criticité mixte en un lot de tâches qui n'est plus à criticité mixte. Ceci nous permet d'utiliser un algorithme d'ordonnancement temps réel optimal engendrant peu de préemptions et de migrations, à savoir RUN. Cette approche, appliquée en premier pour le modèle discarding avec deux modes d'exécution, rempli son objectif d'efficacité. Nous illustrons sa généricité en utilisant le même principe pour ordonnancer des systèmes discarding avec plus de deux modes d'exécution. Enfin, une démarche reposant sur la décomposition de tâche permet de généraliser l'approche au cas des tâches élastiques. / This thesis focuses on the scheduling of mixed-criticality scheduling algorithms for multi-processors. The correctness of the execution of the real-time applications is ensured by a scheduler and is checked during the design phase. The execution platform sizing aims at minimising the number of processors required to ensure this correct scheduling. This sizing is impacted by the safety requirements. Indeed, these requirements tend to overestimate the execution times of the applications to ensure their correct executions. Consequently, the resulting sizing is costly. The mixed-criticality scheduling theory aims at proposing compromises on the guarantees of the execution of the applications to reduce this over-sizing. Several models of mixed-criticality systems offering different compromises have been proposed but all are based on the use of execution modes. Modes are ordered and tasks have non decreasing execution times in each mode. Yet, to reduce the sizing of the execution platform, only the execution of the most critical tasks is ensured. This model is called the discarding model. For simplicity reasons, most of the mixed-criticality scheduling algorithms are limited to this model. Besides, the most efficient scheduling policies for multi-processors entail too many preemptions and migrations to be actually used. Finally, they are rarely generalised to handle different models of mixed-criticality systems. However, the handling of more than two execution modes or of tasks with elastic periods would make such solutions more attractive for the industry. The approach proposed in this thesis is based on the separation of concerns between handling the execution modes and the scheduling of the tasks on the multi-processors. With this approach, we achieve to design an efficient scheduling policy that schedules different models of mixed-criticality systems. It consists in performing the transformation of a mixed-criticality task set into a non mixed-criticality one. We then schedule this task set by using an optimal hard real-time scheduling algorithm that entails few preemptions and migrations: RUN. We first apply our approach on the discarding model with two execution modes. The results show the efficiency of our approach for such model. Then, we demonstrate the versatility of our approach by scheduling systems of the discarding model with more than two execution modes. Finally, by using a method based on the decomposition of task execution, our approach can schedule systems based on elastic tasks.
174

Formation électro-assistée de monocouches auto-assemblées sur or. Suivi in situ et effets du potentiel appliqué à l'électrode sur le mécanisme de formation / Electro-assisted formation of self-assembled monolayers on gold. In situ study and effects of the applied potential on the mechanism of formation.

Capitao, Dany 10 October 2016 (has links)
Créer des surfaces spécifiques apparaît comme un enjeu majeur de la chimie actuelle. La formation de monocouches auto-assemblées (SAMs) à partir de dérivés soufrés est l’une des stratégies pour modifier des surfaces d’or. A ce jour, le mécanisme de formation des SAMs sur or n’est toujours pas élucidé.Une nouvelle approche de formation de SAMs par voie électrochimique a récemment été développée, avec la possibilité de suivre in-situ en temps réel la chimisorption de dérivés soufrés, notamment avec un cycle dithiolane. Contrairement aux méthodes standards d’adsorption par simple immersion, cette approche par polarisation de l’électrode tend à faciliter la chimisorption (cinétique, reproductibilité …). L’excellente résolution temporelle du suivi cinétique conjuguée à une bonne reproductibilité met en évidence un mécanisme d’adsorption via un phénomène de nucléation-croissance. Déjà identifié pour la formation de SAMs en phase gazeuse, il n’a jamais été clairement établi en phase liquide. L’utilisation de cette méthode a également permis l'élaboration de monocouches mixtes binaires de manière contrôlée et prédictible. En se basant sur les constantes d’affinité, nous avons pu réaliser des SAMs dont les proportions en surface reflétaient celles en solution. Ce résultat majeur laisse entrevoir des applications en particulier pour l’étude de systèmes enzymatiques sur surface.Enfin, afin de mieux cerner les facteurs clés régissant le mécanisme de formation, une étude systématique en fonction de la nature du groupe d’ancrage a permis de souligner le rôle crucial de celui-ci concernant aussi bien la cinétique d’adsorption que la stabilité de la monocouche. / Create specific surfaces appears as a major issue in chemistry. The formation of self-assembled monolayers (SAMs) using sulfur derivatives is one of the most commonly used strategy to modify gold surfaces. Nowadays, the formation mechanism of self-assembled monolayers (SAMs) on gold is still investigated.A new electrochemical approach for SAMs formation has recently been developed allowing an in situ and real time monitoring of the chemisorption of various sulfur compounds including dithiolane derivatives. Unlike standard adsorption methods which consist in a simple immersion, this approach tends to facilitate the chemisorption by polarizing the electrode. The high temporal resolution coupled to this good reproducibility highlight an adsorption mechanism which proceeds by a nucleation-growth process. This type of mechanism, already identified for the SAMs formation in the gas phase, has never been reported in the liquid phase.In addition, this method allows the preparation of binary mixed monolayers in a controlled and predictable manner. Knowing the affinity constants, it is possible to produce SAMs whose surface proportions reflect those in solution.Finally, to better understand the key factors governing the SAMs formation mechanism, a systematic study depending on the nature of the anchoring group has highlighted a significant difference between the different anchoring groups for the kinetics as well as for the stability of the monolayer.
175

Etude et évaluation de politiques d'ordonnancement temps réel multiprocesseur / Study and evaluation of real-time multiprocessor scheduling policies

Cheramy, Maxime 11 December 2014 (has links)
De multiples algorithmes ont été proposés pour traiter de l’ordonnancement de tâchestemps réel dans un contexte multiprocesseur. Encore très récemment de nouvelles politiquesont été définies. Ainsi, sans garantie d’exhaustivité, nous en avons recensé plusd’une cinquantaine. Cette grande diversité rend difficile une analyse comparée de leurscomportements et performances. L’objectif de ce travail de thèse est de permettre l’étudeet l’évaluation des principales politiques d’ordonnancement existantes. La première contributionest SimSo, un nouvel outil de simulation dédié à l’évaluation des politiques. Grâceà cet outil, nous avons pu comparer les performances d’une vingtaine d’algorithmes. Laseconde contribution est la prise en compte, dans la simulation, des surcoûts temporelsliés à l’exécution du code de l’ordonnanceur et à l’influence des mémoires caches sur la duréed’exécution des travaux par l’introduction de modèles statistiques évaluant les échecsd’accès à ces mémoires / Numerous algorithms have been proposed to address the scheduling of real-time tasksfor multiprocessor architectures. Yet, new scheduling algorithms have been defined veryrecently. Therefore, and without any guarantee of completeness, we have identified morethan fifty of them. This large diversity makes the comparison of their behavior and performancedifficult. This research aims at allowing the study and the evaluation of keyscheduling algorithms. The first contribution is SimSo, a new simulation tool dedicatedto the evaluation of scheduling algorithms. Using this tool, we were able to compare theperformance of twenty algorithms. The second contribution is the consideration, in the simulation,of temporal overheads related to the execution of the scheduler and the impactof memory caches on the computation time of the jobs. This is done by the introductionof statistical models evaluating the cache miss ratios
176

Compilation de scénarios dans un environnement d'intégration

Ben Khedher, Dhafer January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
177

Pilotage en temps réel d'une ligne de finition de bois d'oeuvre intégrant du séchage à haute fréquence à l'aide de l'apprentissage par renforcement

Tremblay, François-Alexandre 06 July 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / L'industrie des produits du bois évolue dans un contexte de forte compétition qui incite les scieries à se tourner vers des procédés plus agiles, tel que le séchage du bois en continu par micro-ondes, une technologie récemment brevetée. Cette technologie permet de corriger le séchage des planches une à la fois, par opposition au séchage classique par lot. L'intégration de ce séchage de précision à une ligne de finition traditionnelle complexifie toutefois la logistique de l'entreprise. En effet, bien que la technologie permette d'améliorer la qualité du bois, la surcharge de planches trop humides occasionne des goulots d'étranglement et une réduction de la productivité. Il est donc nécessaire de développer des systèmes décisionnels qui déterminent en temps réel si une planche humide doit passer au séchoir micro-onde afin d'améliorer sa qualité ou continuer son chemin vers la fin de la ligne de finition. Ce projet consiste à concevoir et à évaluer des algorithmes de prises de décisions en temps réel sur une ligne de finition afin de maximiser la valeur générée par unité de temps. Compte tenu de l'aspect séquentiel des décisions (chaque décision affecte les taux actuels et futurs d'occupation des différents équipements, la qualité du bois et la productivité de l'usine), l'apprentissage par renforcement est utilisé. Dans ce sous-domaine de l'intelligence artificielle, les algorithmes apprennent des politiques décisionnelles optimales, pour une fonction objectif donnée, par interaction avec leur environnement à travers un processus « d'essais-erreurs ». Nous montrons le potentiel de l'apprentissage par renforcement à travers un modèle de simulation imitant le contexte fortement dynamique des scieries. Les politiques d'apprentissage par renforcement apprises ont permis d'augmenter la productivité d'au moins 19% par rapport à une heuristique semblable à celles utilisées actuellement en industrie. Ces politiques sont aussi relativement robustes aux perturbations soudaines qui peuvent survenir dans l'environnement. / The wood products industry is evolving in a context of strong competition encouraging sawmills towards more agile processes such as continuous wood drying using microwaves, a recently patented technology. This technology makes it possible to correct wood drying one plank at a time as opposed to traditional batch drying. However, the integration of this precision drying process into traditional finishing operations complicates sawmill's logistics. Although the technology improves wood quality, the overload of wet lumber causes bottlenecks and a reduction of productivity. It is therefore necessary to develop new decision-making systems to determine in real time whether wet lumber should be microwaved to improve its quality or continue on its way towards the end of the finishing line. This project consists of designing and evaluating real-time decision-making algorithms on a finishing line in order to maximize the value generated per unit of time, a constant challenge in the Canadian wood products industry. Considering the sequential aspect of decisions (each decision affects current and future occupancy rates of different equipment, wood quality and plant productivity), reinforcement learning (RL) is used. In this subfield of artificial intelligence, algorithms learn optimal decision sequences by interacting with their environment through a "trial and error" process. We show the potential of RL through a simulation model mimicking the real and highly dynamic factory context. RL policies learned increase productivity on wet lumber by at least 19% compared to the heuristic currently used in industry. These policies are also relatively robust to sudden disturbances that may occur in the system.
178

Laboratoires virtuels interactifs d'électrotechnique en simulation temps réel

Wicki, Byamba 29 September 2022 (has links)
Les avancées technologiques des programmes de simulation et des ordinateurs commerciaux rendent la simulation en temps réel de procédés complexes plus accessible au public. La simulation en temps réel nous permet de ressentir les vraies dynamiques d'un modèle physique qui pourrait être trop difficile ou trop coûteux à réaliser en réalité. Le concept présenté, dans ce mémoire, porte sur l'utilisation de la simulation en temps réel pour réaliser des laboratoires virtuels interactifs et versatiles. En génie électrique, on pourrait prendre comme exemple les laboratoires de machines électriques où il est difficile en salle de classe de démontrer les dynamiques et les envergures des machines rencontrées dans l'industrie. Le laboratoire virtuel de ce cours serait une représentation complète de la table physique dans l'environnement de simulation, à la différence que l'on pourrait modifier les machines à volonté pour avoir par exemple des machines plus proches de la réalité industrielle. Dans un premier temps, les objectifs et contraintes des laboratoires d'enseignement sont présentés. On en déduira les objectifs que doivent remplir les laboratoires virtuels en temps réel. Ensuite, on introduira la conception de la structure que doit respecter le modèle de simulation pour permettre la réalisation d'un laboratoire "bac à sable". Une réflexion doit être apportée pour que le modèle permette à l'utilisateur de réaliser le maximum d'expériences différentes tout en restant intuitif. Des composants permettant d'atteindre les objectifs déterminés ont été développés. Ils ont été créés pour permettre leur modification durant la simulation, apportant ainsi une plus grande versatilité une fois la simulation créée. Enfin, l'étendue des possibilités que proposent les laboratoires virtuels en temps réels sera présentée. Des expériences seront réalisées sur deux laboratoires créés dans le cadre de ce mémoire. Le premier traite du cours d'électrotechnique fondamental, où divers essais sur les transformateurs et les charges passives peuvent être réalisés. Le deuxième porte sur un réseau d'usine où le démarrage des machines de grande puissance et leurs interactions sont présentés. / Technological advances in simulation programs and commercial computers make real-time simulation of complex processes more accessible to the general public. Real-time simulation allows us to experience the true dynamics of a physical model that might be too difficult or too expensive to realize in reality. The concept presented in this memoire focuses on the use of real-time simulation to create interactive and versatile virtual laboratories. In electrical engineering, we could take, as an example, the electrical machine laboratories where it is difficult in the classroom to demonstrate the dynamics and scale of machines encountered in the industry. The virtual lab in this course would be a complete representation of the physical workbench with in the simulation environment. With the difference that the machines could be modified at will, for example, to be closer to the reality of the industry. First, the objectives and constraints of the teaching laboratories are presented, from wich we will deduce the objectives that must be fulfilled by real-time virtual laboratories. Then, we will introduce the design of the structure that the simulation model must respect to allow the realization of a "sandbox" type laboratory. The model must allow to realize a maximum of different experiments while remaining intuitive. Components allowing to reach the determined objectives have been developed. They were created to allow their modification during the simulation, thus bringing a greater versatility once the simulation is created. Finally, the extent of the possibilities offered by real-time virtual laboratories will be presented. Experiments will be performed on two labs created for this memoire. The first deals with the fundamental electrical engineering course, where various tests on transformers and passive loads can be performed. The second deals with a factory grid where the starting of large machines and their interactions are presented.
179

Laboratoires virtuels interactifs d'électrotechnique en simulation temps réel

Wicki, Byamba 29 September 2022 (has links)
Les avancées technologiques des programmes de simulation et des ordinateurs commerciaux rendent la simulation en temps réel de procédés complexes plus accessible au public. La simulation en temps réel nous permet de ressentir les vraies dynamiques d'un modèle physique qui pourrait être trop difficile ou trop coûteux à réaliser en réalité. Le concept présenté, dans ce mémoire, porte sur l'utilisation de la simulation en temps réel pour réaliser des laboratoires virtuels interactifs et versatiles. En génie électrique, on pourrait prendre comme exemple les laboratoires de machines électriques où il est difficile en salle de classe de démontrer les dynamiques et les envergures des machines rencontrées dans l'industrie. Le laboratoire virtuel de ce cours serait une représentation complète de la table physique dans l'environnement de simulation, à la différence que l'on pourrait modifier les machines à volonté pour avoir par exemple des machines plus proches de la réalité industrielle. Dans un premier temps, les objectifs et contraintes des laboratoires d'enseignement sont présentés. On en déduira les objectifs que doivent remplir les laboratoires virtuels en temps réel. Ensuite, on introduira la conception de la structure que doit respecter le modèle de simulation pour permettre la réalisation d'un laboratoire "bac à sable". Une réflexion doit être apportée pour que le modèle permette à l'utilisateur de réaliser le maximum d'expériences différentes tout en restant intuitif. Des composants permettant d'atteindre les objectifs déterminés ont été développés. Ils ont été créés pour permettre leur modification durant la simulation, apportant ainsi une plus grande versatilité une fois la simulation créée. Enfin, l'étendue des possibilités que proposent les laboratoires virtuels en temps réels sera présentée. Des expériences seront réalisées sur deux laboratoires créés dans le cadre de ce mémoire. Le premier traite du cours d'électrotechnique fondamental, où divers essais sur les transformateurs et les charges passives peuvent être réalisés. Le deuxième porte sur un réseau d'usine où le démarrage des machines de grande puissance et leurs interactions sont présentés. / Technological advances in simulation programs and commercial computers make real-time simulation of complex processes more accessible to the general public. Real-time simulation allows us to experience the true dynamics of a physical model that might be too difficult or too expensive to realize in reality.The concept presented in this memoire focuses on the use of real-time simulation to create interactive and versatile virtual laboratories. In electrical engineering, we could take, as an example, the electrical machine laboratories where it is di cult in the classroom to demonstrate the dynamics and scale of machines encountered in the industry. The virtual lab in this course would be a complete representation of the physical workbench with in the simulation environment. With the difference that the machines could be modified at will, for example, to be closer to the reality of the industry. First, the objectives and constraints of the teaching laboratories are presented, from wich we will deduce the objectives that must be fullled by real-time virtual laboratories.Then, we will introduce the design of the structure that the simulation model must respect to allow the realization of a "sandbox" type laboratory. The model must allow to realize a maximum of different experiments while remaining intuitive.Components allowing to reach the determined objectives have been developed. They were created toallow their modification during the simulation, thus bringing a greater versatility once the simulationis created.Finally, the extent of the possibilities oered by real-time virtual laboratories will be presented. Experiments will be performed on two labs created for this memoire. The firrst deals with the fundamental electrical engineering course, where various tests on transformers and passive loads can be performed. The second deals with a factory grid where the starting of large machines and their interactions are presented.
180

Intégration de données temps-réel issues de capteurs dans un entrepôt de données géo-décisionnel

Mathieu, Jean 17 April 2018 (has links)
Nous avons pu, au cours des dernières années, assister à une augmentation du nombre de capteurs utilisés pour mesurer des phénomènes de plus en plus variés. En effet, nous pouvons aujourd'hui utiliser les capteurs pour mesurer un niveau d'eau, une position (GPS), une température et même le rythme cardiaque d'un individu. La grande diversité de capteurs fait d'eux aujourd'hui des outils par excellence en matière d'acquisition de données. En parallèle à cette effervescence, les outils d'analyse ont également évolué depuis les bases de données transactionnelles et ont mené à l'apparition d'une nouvelle famille d’outils, appelés systèmes d’analyse (systèmes décisionnels), qui répond à des besoins d’analyse globale sur les données. Les entrepôts de données et outils OLAP (On-Line Analytical Processing), qui font partie de cette famille, permettent dorénavant aux décideurs d'analyser l'énorme volume de données dont ils disposent, de réaliser des comparaisons dans le temps et de construire des graphiques statistiques à l’aide de simples clics de la souris. Les nombreux types de capteurs peuvent certainement apporter de la richesse à une analyse, mais nécessitent de longs travaux d'intégration pour les amener jusqu'à un entrepôt géo-décisionnel, qui est au centre du processus de prise de décision. Les différents modèles de capteurs, types de données et moyens de transférer les données sont encore aujourd'hui des obstacles non négligeables à l'intégration de données issues de capteurs dans un entrepôt géo-décisionnel. Également, les entrepôts de données géo-décisionnels actuels ne sont pas initialement conçus pour accueillir de nouvelles données sur une base fréquente. Puisque l'utilisation de l'entrepôt par les utilisateurs est restreinte lors d'une mise à jour, les nouvelles données sont généralement ajoutées sur une base hebdomadaire, mensuelle, etc. Il existe pourtant des entrepôts de données capables d'être mis à jour plusieurs fois par jour sans que les performances lors de leur exploitation ne soient atteintes, les entrepôts de données temps-réel (EDTR). Toutefois, cette technologie est encore aujourd’hui peu courante, très coûteuse et peu développée. Ces travaux de recherche visent donc à développer une approche permettant de publier et standardiser les données temps-réel issues de capteurs et de les intégrer dans un entrepôt géo-décisionnel conventionnel. Une stratégie optimale de mise à jour de l'entrepôt a également été développée afin que les nouvelles données puissent être ajoutées aux analyses sans que la qualité de l'exploitation de l'entrepôt par les utilisateurs ne soit remise en cause. / In the last decade, the use of sensors for measuring various phenomenons has greatly increased. As such, we can now make use of sensors to measure GPS position, temperature and even the heartbeats of a person. Nowadays, the wide diversity of sensor makes them the best tools to gather data. Along with this effervescence, analysis tools have also advanced since the creation of transactional databases, leading to a new category of tools, analysis systems (Business Intelligence (BI)), which respond to the need of the global analysis of the data. Data warehouses and OLAP (On-Line Analytical Processing) tools, which belong to this category, enable users to analyze big volumes of data, execute time-based requests and build statistic graphs in a few simple mouse clicks. Although the various types of sensor can surely enrich any analysis, such data requires heavy integration processes to be driven into the data warehouse, centerpiece of any decision-making process. The different data types produced by sensors, sensor models and ways to transfer such data are even today significant obstacles to sensors data streams integration in a geo-decisional data warehouse. Also, actual geo-decisional data warehouses are not initially built to welcome new data on a high frequency. Since the performances of a data warehouse are restricted during an update, new data is usually added weekly, monthly, etc. However, some data warehouses, called Real-Time Data Warehouses (RTDW), are able to be updated several times a day without letting its performance diminish during the process. But this technology is not very common, very costly and in most of cases considered as "beta" versions. Therefore, this research aims to develop an approach allowing to publish and normalize real-time sensors data streams and to integrate it into a classic data warehouse. An optimized update strategy has also been developed so the frequent new data can be added to the analysis without affecting the data warehouse performances.

Page generated in 0.042 seconds