• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 1
  • 1
  • Tagged with
  • 12
  • 12
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement d'un outil générique de simulation distribuée de marchés électroniques basés sur les enchères

Khemila, Mohamed Ali January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Évaluation de la performance dans la modélisation SystemC de systèmes multiprocesseur à base de processeur réseau

Boudina, Nadir January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Contribution au prototypage virtuel de systèmes mécatroniques basé sur une architecture distribuée HLA. Expérimentation sous les environnements OpenModelica-OpenMASK

Hadj Amor, Hassen 04 December 2008 (has links) (PDF)
La mécatronique est l'intégration de différentes sciences et techniques de la mécanique, de l'automatique, de l'électronique et de l'informatique. L'évolution rapide des marchés concurrents exige la diminution du temps de développement d'un produit tout en augmentant la qualité et la performance du système. Il est donc nécessaire d'augmenter l'efficacité du processus de conception. Pour répondre à cette nécessité, en complément des outils d'analyse, la simulation, et spécialement le prototypage virtuel, est devenu l'une des clés technologiques. Il est difficile de trouver des outils de simulation capables d'analyser des systèmes pluridisciplinaires dépendants de différents domaines. Pourtant, un environnement qui permet une simulation intégrée multidisciplinaire de systèmes mécatroniques est nécessaire pour une évaluation fonctionnelle plus précise de la conception du produit et pour améliorer la qualité et l'efficacité de cette conception. La présente contribution décrit une méthode de conception et de simulation des systèmes mécatroniques. On identifie d'abord le modèle de comportement et le modèle géométrique 3D associé. Ensuite, le modèle de comportement est vu comme un système dynamique hybride formé de deux automates hybrides couplés (Partie Opérative, Partie Commande). Nous présentons ensuite les simulateurs OpenMASK, OpenModelica, le standard IEEE1516 HLA et les travaux reliés à cette architecture de simulation distribuée. Dans une démarche descendante, nous présentons ensuite notre approche et notre expérimentation pour intégrer les fonctionnalités de HLA dans ces simulateurs, pour distribuer les éléments de modélisation de systèmes mécatroniques de haut niveau et enfin pour compléter Modelica sur le formalisme des automates hybrides qui nous est indispensable. Nous proposons des extensions pour intégrer le temps réel en vue de simulations interactives. Nous appliquons enfin cette approche sur les simulateurs cités en utilisant le bus HLA CERTI sous un environnement Linux à partir d'un exemple représentatif d'un système mécatronique
4

Reuse and Scalability in Modeling and Simulation Software Engineering

Ribault, Judicaël 21 January 2011 (has links) (PDF)
L'étude d'un système à l'aide de simulations informatiques à événements discrets implique plusieurs activités: spéci cation du modèle conceptuel, description de l'architecture logicielle du modèle, développement des logiciels, scénarisation de la simulation, instrumentation, plani cation d'expérimentation, con guration des ressources de calcul, exécution, post-traitement et analyse, validation et de véri cation (V&V). De nombreux éléments logiciels sont requis pour remplir toutes ces activités. Toutefois, il est fréquent de créer un nouveau simulateur à partir de rien quand on commence une étude à l'aide de simulation. Dans ce cas il est nécessaire de développer de multiples outils prenant en charge les activités de la simulation. Cette thèse aborde le dé de la création de nouveaux simulateurs tout en réutilisant des modèles et des outils provenant d'autres simulateurs. En e et, la réutilisation de logiciel augmente la abilité, est moins sujette aux erreurs, permet une meilleure utilisation des expertises complémentaires, améliore la conformité aux normes, et accélère le développement. La réutilisation de logiciels peut être appliquée à toutes les activités de la simulation. Plusieurs problèmes doivent être résolus pour tirer pleinement pro t de la réutilisation. Dans cette thèse, nous abordons trois questions principales: Tout d'abord, nous étudions les solutions pratiques de réutilisation permettant de combiner un ensemble choisi d'éléments logiciels utiles pour la modélisation et la simulation, en incluant aussi bien les modèles, les moteurs de simulation, les algorithmes et les outils; Deuxièmement, nous nous concentrons sur les questions liées à l'instrumentation; Troisièmement, nous étudions le problème de l'intégration d'éléments logiciels provenant d'autres simulateurs dans un nouveau simulateur. Pour atteindre ces objectifs, nous étudions des techniques avancées de du génie logiciel, tels que le génie logiciel à base de composants (CBSE) et la programmation orientée aspect, sur lesquels nous construisons une solution originale pour la modélisation et la simulation à l'aide de multiples couches réutilisables. Nous avons développé un prototype d'architecture logicielle qui prouve la faisabilité de cette solution.
5

Réseaux pair-à-pair et simulation distribuée<br />Application à la simulation multiagent

Cabani, Adnane 07 December 2007 (has links) (PDF)
Mes travaux de recherche s'intéressent à la simulation distribuée et aux possibilités offertes par le paradigme pair-à-pair. Le modèle pair-à-pair est généralement asymétrique. Il est constitué de réseaux de machines totalement hétérogènes avec des configurations matérielles et des débits de connexion très variables. Les nœuds constituant un tel réseau sont hautement dynamiques et organisés de manière totalement décentralisée.<br /><br />Une étude comparative entre les deux paradigmes grille de calcul et pair-à-pair est présentée. Elle révèle que la taxonomie des systèmes de l'informatique répartie est simpliste et sommaire. Nous en présentons une autre plus raffinée. Elle prend en compte de nouveaux paramètres pouvant aider l'utilisateur à faire un choix entre les grilles de calculs et le modèle pair-à-pair.<br /><br />Ces nouveaux paramètres sont pris en compte dans le développement de la plate-forme PHAC (P2P-based Highly Available Computing Framework) présentée dans ce mémoire. Il s'agit d'un environnement de programmation de haut niveau qui permet de construire un réseau pair-à-pair hautement disponible et adapté aux besoins de l'utilisateur. La plate-forme tient compte des spécificités des réseaux pair-à-pair telles que la volatilité et l'hétérogénéité des pairs. La robustesse du réseau est étudiée selon une voie expérimentale. Les résultats montrent que le réseau est suffisamment robuste pour distribuer des simulations de manière transparente.
6

Architecture de simulation distribuée temps-réel / Real-time distributed simulation architecture

Chaudron, Jean-Baptiste 25 January 2012 (has links)
Ce travail de thèse s'inscrit dans le projet plus global PRISE (Plate-forme de Recherche pour l'Ingénierie des Systèmes Embarqués) dont l'objectif principal est le développement d'une plateforme d'exécution pour les logiciels embarqués. De tels logiciels sont dits critiques et ils sont, par conséquent, soumis à des règles de conception spécifiques. Notamment, ces logiciels doivent répondre à des contraintes de temps réel et ainsi garantir des comportements temporels prédictifs afin de toujours donner des résultats justes avec le respect d'échéances temporelles.L'objectif de cette thèse est d'évaluer l'utilisation des techniques de la simulation distribuée (et particulièrement de la norme HLA) pour répondre aux besoins de simulation hybride et temps réel de la plate-forme. Afin de respecter ces contraintes et garantir la prédictibilité temporelle d'une simulation distribuée, il faut avoir une vision complète de l'ensemble du problème et notamment des différents niveaux d'actions : applicatif, intergiciel, logiciel, matériel et aussi formel pour la validation du comportement temporel.Cette thèse se base sur la RTI (Run Time Infrastructure, intergiciel HLA) de l'ONERA : le CERTI et propose une démarche méthodologique adaptée à ces différents niveaux d'actions. Des cas d'étude, notamment un simulateur du vol d'un avion, ont été spécifiés, implémentés et expérimentés sur la plate-forme PRISE. / This work takes place in the global project PRISE (Plate-forme de Recherche pour l'Ingénierie des Systèmes Embarqués) in which the focus is to develop an execution platform for embedded software. Embedded software are said criticals and, therefore, are subject to specific design rules.Particularly, these software must meet real time constraints and thus ensure a temporal predictive behaviour in order to always give accurate results with respect to corresponding timing deadlines.The main objective of this thesis is to study the use of distributed simulation techniques (and specifically the HLA standard) to meet the real-time and hybrid simulation needs of the PRISE platform. To comply with these real-time constraints and ensure the predictability of a distributed simulation, we must have a complete view of the whole problem and in particular the different levels of action: application, middleware, software, hardware and also a formal level for validation of the timing behaviour.This work is based on the RTI (Run Time Infrastructure, HLA middleware) from ONERA laboratory called : the CERTI and proposes a methodological approach adapted to take into account these different levels of action. Some case studies, including a flight simulator of an aircraft, have been specified, implemented and tested on the PRISE platform.
7

Parallélisation massive de dynamiques spatiales : contribution à la gestion durable du mildiou de la pomme de terre / Massive scale parallelization of spatial dynamics : input for potato blight sustainable management

Herbez, Christopher 21 November 2016 (has links)
La simulation à évènements discrets, dans le contexte du formalisme DEVS, est en plein essor depuis quelques années. Face à une demande grandissante en terme de taille de modèles et par conséquent en temps de calcul, il est indispensable de construire des outils tel qu'ils garantissent une optimalité ou au mieux une excellente réponse en terme de temps de simulations. Certes, des outils de parallélisation et de distribution tel que PDEVS existent, mais la répartition des modèles au sein des noeuds de calculs reste entièrement à la charge du modélisateur. L'objectif de cette thèse est de proposer une démarche d'optimisation des temps de simulation parallèle et distribuée, en restructurant la hiérarchie de modèles. La nouvelle hiérarchie ainsi créée doit garantir une exécution simultanée d'un maximum de modèles atomiques, tout en minimisant le nombre d'échanges entre modèles n'appartenant pas au même noeud de calculs (i.e. au même sous-modèle). En effet, l'optimisation des temps de simulation passe par une exécution simultanée d'un maximum de modèles atomiques, mais dans un contexte distribué, il est important de minimiser le transfert d'évènements via le réseau pour éviter les surcoûts liés à son utilisation. Il existe différentes façons de structurer un modèle DEVS : certains utilisent une structure hiérarchique à plusieurs niveaux, d'autres optent pour une structure dite "à plat". Notre approche s'appuie sur cette dernière. En effet, il est possible d'obtenir un unique graphe de modèles, correspondant au réseau de connexions qui lient l'ensemble des modèles atomiques. À partir de ce graphe, la création d'une hiérarchie de modèles optimisée pour la simulation distribuée repose sur le partitionnement de ce graphde de modèles. En effet, la théorie des graphes offre un certain nombre d'outils permettant de partitionner un graphe de façon à satisfaire certaines contraintes. Dans notre cas, la partition de modèles obtenue doit être équilibrée en charge de calcul et doit minimiser le transfert de messages entre les sous-modèles. L'objectif de cette thèse est de présenter la démarche d'optimization, ainsi que les outils de partitionnement et d'apprentissage utilisés pour y parvenir. En effet, le graphe de modèles fournit par la structure à plat ne contient pas toutes les informations nécessaires au partitionnement. C'est pourquoi, il est nécessaire de mettre en place une pondération de celui qui reflète au mieux la dynamique individuelle des modèles qui le compose. Cette pondération est obtenue par apprentissage, à l'aide de chaînes de Markov cachées (HMM). L'utilisation de l'apprentissage dans un contexte DEVS a nécessité quelques modifications pour prendre en compte toutes ces spécificités. Cette thèse présente également toute une phase de validation : à la fois, dans un contexte parallèle dans le but de valider le comportement du noyau de simulation et d'observer les limites liées au comportement des modèles atomiques, et d'autre part, dans un contexte distribué. Pour terminer, cette thèse présente un aspect applicatif lié à la gestion durable du mildiou de la pomme de terre. Le modèle mildiou actuel est conçu pour être utilisé à l'échelle de la parcelle. En collaboration avec des agronomes, nous proposons d'apporter quelques modifications à ce dernier pour étendre son champ d'action et proposer une nouvelle échelle spatiale. / Discrete-event simulation, in a context of DEVS formalism, has been experiencing a boom over the recent years. In a situation of increasing demand in terms of model size and consequently in calculation time, it is necessary to build up tools to ensure optimality, or even better, an excellent response to simulation times.Admittedly, there exist parallelization and distribution tools like PDEVS, but the distribution of models within compute nodes is under the modeler s sole responsability.The Ph.D. main scope is to propose an optimization approach of parallel and distributed simulation times, restructuring the hierarchy of models. The new founded hierarchy can thus guarantee a simultaneous execution of a maximum quantity of atomic models while minimizing the number of exchanges between models, which are not associated with the same calculation node (i.e. with the same sub-model). Accordingly, optimizing simulation time goes through a simultaneous implementation of a maximum quantity of atomic models, but in a distributed context it is highly important to minimize the adaptation transfer via the network to avoid overcharges related to its use. Ther exist deifferent ways of structuring a DEVS model : some scientist use a multi-leveled hierarchical structure, and others opt for a "flat" structure. Our objective focuses on the latter. Indeed, it is possible to obtain a single graph of models, corresponding to the connection network linking all the atomic models. From this graph the creation of a model hierarchy optimized by the distributed simulation focuses on the partitioning of this model graph. In such cases, the graph theory reveals a certain numbers of tools to partition the graph to meet some constraints. In our study, the resulting model partition must not only balance calculation needs but also minimize the message transfer between sub-models. The Ph.D. main scope it to propose not only an optimization approach but also partitioning and learning tools to achieve full compliance in our processing methods. In such cases, the model graph using the flat structure does not provide us with all the necessary information related to partitioning. That is the reason whi it is highly necessary to assign a weighting in the graph that best reflects the individual dynamics of models composing it. This weighting comes from learning, using the Hidden Markov Models (HMM). The use of learning in DEVS context results in some adjustments ti consider all the specificities. The thesis also ensures the complete validation phase, either in a parallel context to validate the simulation node behavior and observe the limits of atomic model behavior, or in a distributed context. This dissertation in its final state also includes a pratice-oriented approach to sustainably manage potato blight. The current fungus Phytophthora infestans simulation model is conceived for a plot scale. In collacoration with agronomists, we provide a few changes to update the Phytophthora infestans model to extend the scope of action and propose a new scale of values.
8

Covérification des systèmes intégrés

Azizi, Mostafa January 2000 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
9

Architecture de communication à QoS garantie pour la simulation distribuée

Hakiri, Akram 13 July 2012 (has links) (PDF)
Les travaux décrits dans cette thèse s'articulent autour des architectures de communication en réseaux locaux et réseaux distants pour les applications de simul! ation distribuée interactive, particulièrement dans le cadre d! u projet Platsim. Nous avons traité dans un premier temps, les aspects gestion de la QoS pour les simulations distribuées basées sur les middlewares HLA et DDS en réseaux locaux, et ensuite nous avons étendu cette contribution avec DDS sur des réseaux grandes distances. La première contribution consiste à enrichir PlatSim par un modèle formel pour la gestion de la QoS que nous avons implémentée sur HLA pour combler les manques de QoS dont souffre ce middleware. Ensuite, nous avons proposé une architecture pour l'interconnexion des simulateurs distribués avec le middleware DDS. L'utilisation de DDS est intéressante pour la simplicité de son implémentation et ses performances de communication déjà prouvées sur des systèmes complexes. Dans la deuxième contribution, nous avons développé un algorithme de navigation à l'estime (dead-reckoning) pour l'anticipation du comportement des entités simulées. Cette approche permet d'émuler leur comportement lors de la déterm! ination de l'erreur maximale admissible satisfaisant les contraintes de la QoS requise, ce qui, en cas de défaillance du système de communication, permet d'estimer le comportement des objets simulés. Ensuite, nous avons présenté une proposition pour l'interconnexion des simulations distribuées DDS et cette approche de dead-reckoning, par deux mécanismes différents: dans un premier temps, nous avons montré qu'il est possible d'utiliser le service de routage DDS pour mettre en place un "pont-fédéré" DDS permettant d'interconnecter des domaines DDS différents dans un même domaine IP, et ensuite nous avons proposé un "Proxy DDS" qui permet d'interconnecter des simulations DDS situées dans des domaines DDS différents et des domaines IP hétérogènes. Enfin, nos deux dernières contributions con cernent l'étude et la mise en place d'une architecture de communication à grande distance à QoS garantie pour les simulations distribuées sur DDS. Tout d'abord, nous avons présenté! une architecture de signalisation de la QoS pour en se basant! sur l'u tilisation conjointe du protocole COPS et de la signalisation SIP. Ensuite, nous avons étendu des travaux réalisés au LAAS-CNRS dans le cadre du projet européen EuQoS. Nous avons alors utilisé des composants de cette architecture que nous avons adaptés pour fournir, à l'utilisateur final ou à l'administrateur de l'application, des interfaces simples lui permettant de demander le type de service requis pour son application sans avoir besoin de changer le protocole de signalisation.
10

Developing an enterprise operating system for the monitoring and control of enterprise operations / Développement d'un système d'exploitation des entreprises pour le suivi et le contrôle des opérations

Youssef, Joseph 21 December 2017 (has links)
Le système d'exploitation (OS) est un concept bien connu en informatique comme interface entre l'Homme et le matériel informatique (MacOS, Windows, IOS, Android, ...). Dans le but de développer la future génération de systèmes d'entreprise basés sur les principes de l'IoT et du Cyber-Physique, cette thèse propose de développer un système d'exploitation d'entreprise « System d’Exploitation des Entreprises » (EOS); Contrairement à ERP, qui est défini comme un programme qui permet à l'organisation au niveau opérationnel d'utiliser un système d'applications intégrées afin d'automatiser de nombreuses fonctions liées à la technologie et aux services, EOS servira d'interface entre les gestionnaires d'entreprise et les ressources d'entreprise pour le suivi en temps réel et le contrôle des opérations.Nous présenterons d'abord le contexte, les priorités, les défis et les résultats escomptés. Ensuite, un ensemble d'exigences et de fonctionnalités d'EOS est décrit. Après, un état de l’art existant sur les travaux pertinents est donné et mis en correspondance avec les exigences spécifiées liées à EOS. Par la suite, et en fonction des exigences et des résultats, les architectures conceptuelle, technique et d’implantation sont décrites, y compris tous les composants internes et externes. La dernière partie présenteront deux exemples dans les secteurs bancaire et manufacturier pour illustrer l'utilisation de l'EOS. / Operating System (OS) is a well-known concept in computer science as an interface between human and computer hardware (MacOS, Windows, IOS, Android,…). In the perspective of developing future generation of enterprise systems based on IoT and Cyber-Physical System principles, this doctorate research proposes to develop an Enterprise Operating System (EOS); Unlike ERP, which is defined as a platform that allows the organization at the operational level to use a system of integrated applications in order to automate many back office functions related to technology and services, EOS will act as an interface between enterprise business managers and enterprise resources for real time monitoring and control of enterprise operations.The thesis presents at first the context, priorities, challenges and expected results. Then a set of requirements and functionalities of EOS is described. After that, a survey on existing relevant works is given and mapped to the specified requirements related to EOS. Afterwards, and based on the requirements and state-of-the-art results, the EOS conceptual, technical and implementation architectures are outlined including all internal and external components. The last part draws two examples in the banking and manufacturing sectors to illustrate the use of the EOS.

Page generated in 0.0154 seconds