• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 180
  • 77
  • 22
  • Tagged with
  • 274
  • 121
  • 85
  • 85
  • 53
  • 48
  • 42
  • 42
  • 40
  • 39
  • 36
  • 35
  • 34
  • 34
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Approche polymorphe de la modélisation électrothermique pour la fiabilisation des dispositifs microélectroniques de puissance / Polymorph approach of the electrothermal modeling to improve the reliability of microelectronic power devices

Azoui, Toufik 23 May 2013 (has links)
Le fort développement actuel des systèmes électroniques embarqués nous conduit à relever le défi de leur fiabilisation, ceci d’autant plus que des organes de sécurité sont souvent concernés et que ces systèmes opèrent dans des conditions environnementales difficiles avec une exigence de réduction de coût drastique. Ce qui caractérise le mieux l’évolution récente de ces systèmes électroniques embarqués c’est une forte intégration qui conduit à réduire leur encombrement et leur poids tout en augmentant la puissance électrique convertie. Il en résulte automatiquement une augmentation de la densité de puissance dissipée et l’étude de leur comportement électrothermique prend, dans ces conditions, une importance fondamentale. Le présent travail concerne le développement d’outils précis de modélisation électrothermique qui permettent d’appréhender l’impact de la technologie choisie (conception, connectiques, matériaux …) sur les phénomènes causés par les défauts qui apparaissent avec le vieillissement. Des règles de robustesse spécifiques à chaque technologie pourront être édictées à l’aide de simulations 3D distribuées présentées dans le mémoire. Dans un premier temps la modélisation électrothermique compacte a été abordée. Ensuite, en se limitant aux modules MOS de puissance, une première classe de problèmes caractérisée par l’absence de commutation peut être traitée en ayant recours à une modélisation électrothermique par éléments finis qui considère que le composant est constitué par un ensemble de zones de résistivités électriques et de conductivités thermiques différentes. Une tentative a été faite en vue d’étendre l’étude électrothermique aux classes de problèmes mettant en œuvre des MOS de puissance fonctionnant en régime de commutation. Le modèle électrique distribué doit alors être capable de calculer et de répartir les pertes totales (état passant, état bloqué et commutation) pour un régime de commutation rapide. Enfin, un soin particulier a été accordé à l’étude du fonctionnement en avalanche, une méthode basée sur l’expérimentation et l’utilisation d’un modèle électrothermique simple afin d’estimer la température de jonction d’un MOSFET de puissance lors de son fonctionnement en régime d’avalanche de courte durée a été développée. Pour conclure, on a démontré qu’il n’existe pas une réponse unique en termes de modélisation électrothermique et que chaque méthode vise à résoudre une classe spécifique de problèmes / The strong current development of embedded electronic systems leads us to the challenge of their reliability, all the more so as the security organs are often involved and that these systems operate in harsh environmental conditions with a requirement to reduce cost drastically. What best characterizes the recent evolution of the embedded electronic systems is a strong integration that leads to reduce their size and weight while increasing the electrical power converted. This automatically increases the power density dissipated and so the study of their electro-thermal behavior becomes of fundamental importance. The present work concerns the development of specific tools that allow electro-thermal modeling to understand the impact of the chosen technology (design, connections, materials ...) on the phenomena caused by defects that occur with ageing. Robustness rules specific to each technology may be adopted using 3D simulations presented in the report. At first, compact electro-thermal modeling was discussed. Second, considering power MOS modules which operate in a non-switching mode, a first class of problems can be treated by using a finite element electro-thermal modeling that assumes that the components act as a set of zones whose electrical and thermal conductivities are different. An attempt was made to extend the electro-thermal study to classes of problems where power MOSFETs are switching. Distributed electrical models must then be able to calculate and allocate total losses (on-state, off-state and switching) for a fast switching rate. Finally, particular attention has been given to the study of avalanche mode operation; a method based on experimentation and the use of a simple electro-thermal model to estimate the junction temperature of a power MOSFET when operating in short duration avalanche mode has been developed. To conclude, we have demonstrated that there is no single answer in terms of electro-thermal modeling and each method developed aims to solve a specific class of problems
62

Covérification des systèmes intégrés

Azizi, Mostafa January 2000 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
63

Un protocole de communication pour applications transactionnelles distribuées

Hamzeh, Wissam January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
64

Un schéma d'emprunt de ressources pour l'adaptation du comportement d'applications distribuées / A resource borrowing schema for behavior adaptation of distributed applications

Batouma, Narkoy 30 September 2011 (has links)
Les systèmes d’exploitation utilisent très généralement une politique de « meilleur effort » (Best-effort) pour exécuter les applications. Tant que les ressources sont suffisantes, les applications s’exécutent normalement mais quand les ressources deviennent insuffisantes, des mécanismes de contrôle sont nécessaires pour continuer à obtenir des services de qualité acceptable. Cette thèse a pour objectif de gérer la QoS des applications distribuées. La première partie propose un middleware totalement décentralisé pour contrôler l’utilisation des ressources des applications distribuées. Cette approche se fonde sur une planification approximative et un schéma d’emprunt de ressources afin d’améliorer la QoS globale du système. Via ce schéma d’emprunt, chaque nœud construit localement une vue détaillée de la disponibilité des ressources dans le système. La présence da la connaissance de la disponibilité des ressources en local permet à chaque nœud de prendre localement des décisions et de planifier les tâches des applications. Pour un contrôle plus fin de l’exécution, la deuxième partie ajoute un support pour l’adaptation du comportement des applications. Le middleware utilise un modèle général des applications sous forme de graphe d’exécution décoré avec les besoins en ressources. Un chemin dans le graphe est une exécution possible de l’application avec une certaine utilité, et ce sont ces chemins qui fournissent les degrés de liberté dont le middleware a besoin pour adapter la consommation des ressources au contexte. Les applications coopèrent avec le middleware dans le processus de gestion de la QoS lors de l’admission puis durant toute l’exécution. Le middleware est le chef d’orchestre et c’est lui qui pilote et c’est lui qui pilote l’exécution des actions des applications (arcs dans le graphe) Pour valider notre approche, un prototype à base d’agents a été réalisé. Les résultats démontrent l’intérêt de notre approche. / Generally, Operating Systems control and execute applications based on a best effort policy. As long as resources are sufficient, applications are normally executed but when resources become scarce, control mechanisms (graceful degradation) are necessary to maintain acceptable QoS. This thesis aims to manage the QoS of distributed applications. The first part of the thesis proposes a fully decentralized middleware to control the use of resources of distributed applications. This approach is based on a resource borrowing schema and an approximate scheduling in order to improve the overall QoS provided by the system. Using this borrowing schema, each node locally constructs a comprehensive view of resources availability in the system. The local knowledge of resources availability makes it possible for each node to make decisions and to schedule the execution of the applications. To finely control execution, the second part of the thesis adds a support for behavior adaptation of applications. The middleware interprets a general model of applications as an execution graph enriched with resources requirements. Each application must be designed according to this model to be manageable by the middleware (intrusive approach). A path in the graph is a possible execution of application with a certain utility. These paths provide degrees of freedom needed by the middleware to adapt resource consumption to the context. During the QoS management process, applications cooperate with the middleware at admission and execution phase. The middleware guides and controls the execution of applications actions (edges in the execution graph). To validate our approach, a prototype based on agents has been implemented using JADE. The results show the interest of our approach.
65

Algorithms and Ordering Heuristics for Distributed Constraint Satisfaction Problems

Wahbi, Mohamed 03 July 2012 (has links) (PDF)
Les problèmes de satisfaction de contraintes distribués (DisCSP) permettent de formaliser divers problèmes qui se situent dans l'intelligence artificielle distribuée. Ces problèmes consistent à trouver une combinaison cohérente des actions de plusieurs agents. Durant cette thèse nous avons apporté plusieurs contributions dans le cadre des DisCSPs. Premièrement, nous avons proposé le Nogood-Based Asynchronous Forward-Checking (AFC-ng). Dans AFC-ng, les agents utilisent les nogoods pour justifier chaque suppression d'une valeur du domaine de chaque variable. Outre l'utilisation des nogoods, plusieurs backtracks simultanés venant de différents agents vers différentes destinations sont autorisés. En deuxième lieu, nous exploitons les caractéristiques intrinsèques du réseau de contraintes pour exécuter plusieurs processus de recherche AFC-ng d'une manière asynchrone à travers chaque branche du pseudo-arborescence obtenu à partir du graphe de contraintes dans l'algorithme Asynchronous Forward-Checking Tree (AFC-tree). Puis, nous proposons deux nouveaux algorithmes de recherche synchrones basés sur le même mécanisme que notre AFC-ng. Cependant, au lieu de maintenir le forward checking sur les agents non encore instanciés, nous proposons de maintenir la consistance d'arc. Ensuite, nous proposons Agile Asynchronous Backtracking (Agile-ABT), un algorithme de changement d'ordre asynchrone qui s'affranchit des restrictions habituelles des algorithmes de backtracking asynchrone. Puis, nous avons proposé une nouvelle méthode correcte pour comparer les ordres dans ABT_DO-Retro. Cette méthode détermine l'ordre le plus pertinent en comparant les indices des agents dès que les compteurs d'une position donnée dans le timestamp sont égaux. Finalement, nous présentons une nouvelle version entièrement restructurée de la plateforme DisChoco pour résoudre les problèmes de satisfaction et d'optimisation de contraintes distribués.
66

Architecture distribuée interopérable pour la gestion des projets multi-sites : application à la planification des activités de production / A distributed and interoperable architecture to manage multi-site projects : application to the planning of production activities

Ishak, Karim 04 November 2010 (has links)
Aujourd’hui, la production est souvent multi-site car les entreprises se recentrent sur leurs cœurs de métiers. Dans ce contexte, la gestion des projets est une tâche difficile car il faut prendre en compte la distribution de la décision et l’hétérogénéité qui peut exister entre les différentes applications de production des partenaires. Les Systèmes Multi-Agents, et notamment le modèle SCEP (Superviseur, Client, Environnement, Producteur), apportent une solution satisfaisante au problème de la distribution de la décision, en instaurant une coopération entre des agents responsables de la gestion des projets client et des agents représentant les sites de production distants. Néanmoins, ce modèle présente des limites à cause de sa faible capacité à communiquer et à coopérer avec des modèles et des systèmes de gestion hétérogènes ainsi qu’à sa difficulté à localiser les nouveaux partenaires. Dans ce mémoire, nous proposons une architecture distribuée et interopérable SCEP-SOA intégrant les concepts du modèle SCEP et ceux du modèle SOA (Service Oriented Architecture) qui offre des mécanismes de mise en relation des partenaires et permet des communications entre des systèmes et des applications hétérogènes. Pour garantir la bonne compréhension des informations échangées entre les partenaires, l’architecture SCEP-SOA met en œuvre une stratégie d’interopérabilité sémantique basée sur l’intégration des ontologies. Cette stratégie s’articule autour d’une ontologie globale et commune utilisée pour l’échange des informations, et des mécanismes de correspondances entre cette ontologie globale et les ontologies locales des partenaires. Cette architecture est illustrée sur un cas d’étude où l’on se focalise sur l’interopérabilité entre des applications dédiées à la planification des projets de fabrication multi-sites. / Today, the production is often multi-site because companies focus on their core competencies. In this context, projects’ management is a difficult task because it must take into account the distribution of the decision and the heterogeneity which can exist between the various production applications of the partners. The Multi-agents systems, in particular the SCEP model (Supervisor, Customer, Environment, Producer), offer a satisfactory solution for the decision distribution problem, by establishing a cooperation between agents responsible of the management of the customer projects and agents representing the remote production sites. Nevertheless, this model presents limits because of its weak ability to communicate and to cooperate with heterogeneous models and management systems, as well as in its difficulty to localize new partners. In this dissertation, we propose a distributed and interoperable architecture, SCEP-SOA, which integrates concepts of the SCEP model and SOA (Service Oriented Architecture) which offers mechanisms for putting in relation various partners and allows communication between heterogeneous systems and applications. To insure the good understanding of the information exchanged between the partners, the SCEP-SOA architecture implements a strategy of semantic interoperability based on the integration of ontologies. This strategy is based on the use of a shared global ontology for information exchange, and on mechanisms of mappings between the global ontology and the partners’ local ontologies. This architecture is illustrated by a study case in which we focus on the interoperability between applications dedicated to the planning of manufacturing multi-sites projects
67

Compilation pour machines à mémoire répartie : une approche multipasse / Compilation for distributed memory machines : a multipass approach

Lossing, Nelson 03 April 2017 (has links)
Les grilles de calculs sont des architectures distribuées couramment utilisées pour l'exécution de programmes scientifiques ou de simulation. Les programmeurs doivent ainsi acquérir de nouvelles compétences pour pouvoir tirer partie au mieux de toutes les ressources offertes. Ils doivent apprendre à écrire un code parallèle, et, éventuellement, à gérer une mémoire distribuée.L'ambition de cette thèse est de proposer une chaîne de compilation permettant de générer automatiquement un code parallèle distribué en tâches à partir d'un code séquentiel. Pour cela, le compilateur source-à-source PIPS est utilisé. Notre approche a deux atouts majeurs : 1) une succession de transformations simples et modulaires est appliquée, permettant à l'utilisateur de comprendre les différentes transformations appliquées, de les modifier, de les réutiliser dans d'autres contextes, et d'en ajouter de nouvelles; 2) une preuve de correction de chacune des transformations est donnée, permettant de garantir que le code généré est équivalent au code initial.Cette génération automatique de code parallèle distribué de tâches offre également une interface de programmation simple pour les utilisateurs. Une version parallèle du code est automatiquement générée à partir d'un code séquentiel annoté.Les expériences effectuées sur deux machines parallèles, sur des noyaux de Polybench, montrent une accélération moyenne linéaire voire super-linéaire sur des exemples de petites tailles et une accélération moyenne égale à la moitié du nombre de processus sur des exemples de grandes tailles. / Scientific and simulation programs often use clusters for their execution. Programmers need new programming skills to fully take advantage of all the available resources. They have to learn how to write parallel codes, and how to manage the potentially distributed memory.This thesis aims at generating automatically a distributed parallel code for task parallelisation from a sequential code. A source-to-source compiler, PIPS, is used to achieve this goal. Our approach has two main advantages: 1) a chain of simple and modular transformations to apply, thus visible and intelligible by the users, editable and reusable, and that make new optimisations possible; 2) a proof of correctness of the parallelisation process is made, allowing to insure that the generated code is correct and has the same result as the sequential one.This automatic generation of distributed-task program for distributed-memory machines provide a simple programming interface for the users to write a task oriented code. A parallel code can thus automatically be generated with our compilation process.The experimental results obtained on two parallel machines, using Polybench kernels, show a linear to super-linear average speedup on small data sizes. For large ones, average speedup is equal to half the number of processes.
68

Approche multi-processeurs homogènes sur System-on-Chip pour le traitement d'image

Damez, Lionel 17 December 2009 (has links) (PDF)
La conception de prototypes de systèmes de vision en temps réel embarqué est sujet à de multiples contraintes sévères et fortement contradictoires. Dans le cas de capteurs dits "intelligents", il est nécessaire de fournir une puissance de traitement suffisante pour exécuter les algorithmes à la cadence des capteurs d'images avec un dispositif de taille minimale et consommant peu d'énergie. La conception d'un système monopuce (ou SoC) et l'implantation d'algorithmes de plus en plus complexes pose problème si on veut l'associer avec une approche de prototypage rapide d'applications scientifiques. Afin de réduire de manière significative le temps et les différents coûts de conception, le procédé de conception est fortement automatisé. La conception matérielle est basée sur la dérivation d'un modèle d'architecture multiprocesseur générique de manière à répondre aux besoins de capacité de traitement et de communication spécifiques à l'application visée. Les principales étapes manuelles se réduisent au choix et au paramétrage des différents composants matériels synthétisables disponibles. La conception logicielle consiste en la parallélisation des algorithmes, qui est facilitée par l'homogénéité et la régularité de l'architecture de traitement parallèle et la possibilité d'employer des outils d'aide à la parallélisation. Avec l'approche de conception sont présentés les premiers éléments constitutifs qui permettent de la mettre en oeuvre.Ceux ci portent essentiellement sur les aspects de conception matérielle. L'approche proposée est illustrée par l'implantation d'un traitement de stabilisation temps réel vidéo sur technologie SoPC
69

Evaluation expérimentale de l'apport, pour une formation d'ingénieurs, d'un simulateur informatique en travaux pratiques de bureau d'études mécaniques

Huchette, Michaël 02 September 2002 (has links) (PDF)
Le métier de concepteur de produits industriels change : nouvelles organisations du travail, nouveaux outils informatiques, nouvelles méthodes. L'enjeu de cette thèse est de prendre en compte ces évolutions dans le contenu des formations technologiques du supérieur. L'objectif est de mesurer les difficultés rencontrées par des étudiants de Licence de Technologie mécanique au cours d'une formation nouvelle à la conception de machines industrielles. Cette formation consiste à simuler la conception distribuée et à distance d'une machine. Trois activités d'étudiants ont été analysées, en référence à trois tâches professionnelles : la recherche de produits existants dans une base de données hypertexte, pour un réinvestissement en conception ; la conception collective d'une sous-structure de la machine par un groupe de 3 étudiants ; la coordination de deux groupes travaillant à distance, communiquant par Mél et par visioconférences pour rendre compatibles les sous-structures conçues par chacun d'eux. Les raisonnements et les connaissances en jeu dans ces trois activités sont précisées grâce à des concepts issus de la psychologie cognitive et de l'ergonomie. Puis des résultats de recherches en pédagogie et en didactique permettent de faire des hypothèses sur les difficultés des étudiants.
70

Méthodes pour le guidage coopératif.

Rochefort, Yohan 09 September 2013 (has links) (PDF)
L'objectif de cette thèse est de définir puis d'étudier les performances de méthodes de guidage coopératif de véhicules aériens autonomes. L'intérêt du guidage coopératif est de confier une mission complexe à une flotte, plutôt qu'à un véhicule unique, afin de distribuer la charge de travail et d'améliorer les performances et la fiabilité. Les lois de guidage étudiées sont distribuées sur l'ensemble des véhicules afin d'une part, de répartir la charge de calcul et d'autre part, d'augmenter la fiabilité en éliminant la possibilité de perte de l'organe central de calcul de la commande.La première partie de la thèse porte sur les possibilités offertes par la règle des plus proches voisins. La loi de guidage développée consiste à ce que la commande de chaque véhicule soit élaborée en combinant les états des véhicules voisins. Afin de transmettre des consignes au groupe de véhicules, des objets dénommés agents virtuels sont introduits. Ceux-ci permettent de représenter des obstacles, d'indiquer une direction ou une cible au groupe de véhicules en utilisant des mécanismes déjà présent dans la loi de guidage.La seconde partie de la thèse porte sur les possibilités offertes par la commande prédictive. Ce type de commande consiste à employer un modèle du comportement du système afin de prédire les effets de la commande, et ainsi de déterminer celle qui minimise un critère de coût en respectant les contraintes du système. La loi de guidage développée emploi un critère de coût tenant compte et arbitrant entre les différents aspects de la mission (sécurité, progression de la mission, modération de la commande), et une procédure de recherche de la commande utilisant jeu prédéfinis de commandes candidates afin d'explorer l'espace de commande de manière efficace. Cette procédure, distincte des algorithmes d'optimisation habituels, génère une charge de calcul faible et constante, ne nécessite pas d'étape d'initialisation et est très peu sensible aux minima locaux.

Page generated in 0.058 seconds