• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 16
  • 5
  • Tagged with
  • 62
  • 29
  • 25
  • 18
  • 18
  • 17
  • 17
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Gestion de l'Energie des Piles à Combustible Microbiennes

Degrenne, Nicolas 18 October 2012 (has links) (PDF)
Les Piles à Combustible Microbiennes (PCMs) mettent en oeuvre le métabolisme de micro-organismes et utilisent de la matière organique pour générer de l'énergie électrique. Les applications potentielles incluent le traitement d'eau usée autonome en énergie, les bio-batteries, et le grappillage d'énergie ambiante. Les PCMs sont des équipements basse-tension et basse-puissance dont le comportement est influencé par la vitesse à laquelle l'énergie électrique est récupérée. Dans cette thèse, on étudie des méthodes pour récupérer l'énergie électrique de façon efficace. La tension à laquelle l'énergie est récupérée des PCMs influence leur fonctionnement et leurs performances électriques. La puissance délivrée est maximum pour une tension spécifique (environ 1/3 de la tension en circuit-ouvert). Les PCMs ont été testées à ce point en utilisant une charge contrôlée automatiquement qui inclut un algorithme de recherche de puissance maximale. Un tel outil a été utilisé pour évaluer la puissance maximum, la vitesse de consommation du combustible, le rendement Coulombic et le rendement de conversion de 10 PCMs à chambre unique de 1.3 L, construites de façon similaire. Bien que d'autres choix structurels et opératoires peuvent permettre d'améliorer ces performances, ces résultats ont étudié pour la première fois les performances des PCMs en condition de production d'énergie de point de puissance maximal et les PCMs ont été testées avec des conditions de récupération d'énergie réalistes. Récupérer un maximum d'énergie des PCMs est la ligne directrice de ce rapport. Cela est rendu possible par des circuits dédiés de gestion de l'énergie qui embarquent un contrôle contre-réactif pour réguler la tension des PCMs à une valeur de référence qui est égale à une fraction de leur tension en circuit ouvert. Deux scénarios typiques sont développés dans la suite. Une application critique des PCMs concerne le grappillage autonome de petites énergies, pour alimenter des équipements électroniques basse-puissance (e.g. capteurs sans fil). Dans ce cas, les contraintes basse-puissance et basse-tension imposées par les PCMs nécessitent des fonctionnalités de démarrage autonomes. L'oscillateur d'Armstrong, composé d'inductances couplées à fort rapport d'enroulement et d'un interrupteur normalement-fermé permet d'élever des tensions de façon autonome à partir de sources basse-tension continues comme les PCMs. Ce circuit a été associé à des convertisseurs d'électronique de puissance AC/DC et DC/DC pour réaliser respectivement un élévateur-de-tension et une unité de gestion de l'énergie (UGE) auto-démarrante basée sur une architecture flyback. La première est adaptée pour les puissances inférieures à 1 mW, alors que la seconde peut être dimensionnée pour des niveaux de puissance de quelques mW et permet de mettre en oeuvre une commande qui recherche le point de puissance maximal du générateur. Une seconde application d'intérêt concerne le cas où de l'énergie est récupérée depuis plusieurs PCMs. L'association série peut être utilisée pour élever la tension de sortie mais elle peut avoir des conséquences négatives en terme de performances à cause des non-uniformités entre cellules. Cet aspect peut être résolu avec des circuits d'équilibrage de tension. Trois de ces circuits ont été analysés et évalués. Le circuit " complete disconnection " déconnecte une cellule défectueuse de l'association pour s'assurer qu'elle ne diminue pas le rendement global. Le circuit " switched-capacitor " transfère de l'énergie depuis les MFCs fortes vers les faibles pour équilibrer les tensions de toutes les cellules de l'association. Le circuit " switched-MFCs " connecte les PCMs en parallèle et en série de façon alternée. Chacune des trois méthodes peut être mise en oeuvre à bas prix et à haut rendement, la plus efficace étant la " switched-capacitor " qui permet de récupérer plus de 85 % de la puissance maximum idéale d'une association très largement non uniforme.
52

The impact of cooperation on new high performance computing platforms

Cordeiro, Daniel 09 February 2012 (has links) (PDF)
L'informatique a changé profondément les aspects méthodologiques du processus de découverte dans les différents domaines du savoir. Les chercheurs ont à leur disposition aujourd'hui de nouvelles capacités qui permettent d'envisager la résolution de nouveaux problèmes. Les plates-formes parallèles et distribuées composées de ressources partagées entre différents participants peuvent rendre ces nouvelles capacités accessibles à tout chercheur et offrent une puissance de calcul qui a été limitée jusqu'à présent aux projets scientifiques les plus grands (et les plus riches). Dans ce document qui regroupe les résultats obtenus pendant cette thèse, nous explorons quatre facettes différentes de la façon dont les organisations s'engagent dans une collaboration sur de plates-formes parallèles et distribuées. En utilisant des outils classiques de l'analyse combinatoire, de l'ordonnancement multi-objectif et de la théorie des jeux, nous avons montré comment calculer des ordonnancements avec un bon compromis entre les résultats obtenus par les participants et la performance globale de la plate-forme. En assurant des résultats justes et en garantissant des améliorations de performance pour les différents participants, nous pouvons créer une plate-forme efficace où chacun se sent toujours encouragé à collaborer et à partager ses ressources. Tout d'abord, nous étudions la collaboration entre organisations égoïstes. Nous montrons que le comportement égoïste entre les participants impose une borne inférieure sur le makespan global. Nous présentons des algorithmes qui font face à l'égoïsme des organisations et qui présentent des résultats équitables. La seconde étude porte sur la collaboration entre les organisations qui peuvent tolérer une dégradation limitée de leur performance si cela peut aider à améliorer le makespan global. Nous améliorons les bornes d'inapproximabilité connues sur ce problème et nous présentons de nouveaux algorithmes dont les garanties sont proches de l'ensemble de Pareto (qui regroupe les meilleures solutions possibles). La troisième forme de collaboration étudiée est celle entre des participants rationnels qui peuvent choisir la meilleure stratégie pour leur tâches. Nous présentons un modèle de jeu non coopératif pour le problème et nous montrons comment l'utilisation de "coordination mechanisms" permet la création d'équilibres approchés avec un prix de l'anarchie borné. Finalement, nous étudions la collaboration entre utilisateurs partageant un ensemble de ressources communes. Nous présentons une méthode qui énumère la frontière des solutions avec des meilleurs compromis pour les utilisateurs et sélectionne la solution qui apporte la meilleure performance globale.
53

Molecular Dynamics for Exascale Supercomputers / La dynamique moléculaire pour les machines exascale

Cieren, Emmanuel 09 October 2015 (has links)
Dans la course vers l’exascale, les architectures des supercalculateurs évoluent vers des nœuds massivement multicœurs, sur lesquels les accès mémoire sont non-uniformes et les registres de vectorisation toujours plus grands. Ces évolutions entraînent une baisse de l’efficacité des applications homogènes (MPI simple), et imposent aux développeurs l’utilisation de fonctionnalités de bas-niveau afin d’obtenir de bonnes performances.Dans le contexte de la dynamique moléculaire (DM) appliqué à la physique de la matière condensée, les études du comportement des matériaux dans des conditions extrêmes requièrent la simulation de systèmes toujours plus grands avec une physique de plus en plus complexe. L’adaptation des codes de DM aux architectures exaflopiques est donc un enjeu essentiel.Cette thèse propose la conception et l’implémentation d’une plateforme dédiée à la simulation de très grands systèmes de DM sur les futurs supercalculateurs. Notre architecture s’organise autour de trois niveaux de parallélisme: décomposition de domaine avec MPI, du multithreading massif sur chaque domaine et un système de vectorisation explicite. Nous avons également inclus une capacité d’équilibrage dynamique de charge de calcul. La conception orienté objet a été particulièrement étudiée afin de préserver un niveau de programmation utilisable par des physiciens sans altérer les performances.Les premiers résultats montrent d’excellentes performances séquentielles, ainsi qu’une accélération quasi-linéaire sur plusieurs dizaines de milliers de cœurs. En production, nous constatons une accélération jusqu’à un facteur 30 par rapport au code utilisé actuellement par les chercheurs du CEA. / In the exascale race, supercomputer architectures are evolving towards massively multicore nodes with hierarchical memory structures and equipped with larger vectorization registers. These trends tend to make MPI-only applications less effective, and now require programmers to explicitly manage low-level elements to get decent performance.In the context of Molecular Dynamics (MD) applied to condensed matter physics, the need for a better understanding of materials behaviour under extreme conditions involves simulations of ever larger systems, on tens of thousands of cores. This will put molecular dynamics codes among software that are very likely to meet serious difficulties when it comes to fully exploit the performance of next generation processors.This thesis proposes the design and implementation of a high-performance, flexible and scalable framework dedicated to the simulation of large scale MD systems on future supercomputers. We managed to separate numerical modules from different expressions of parallelism, allowing developers not to care about optimizations and still obtain high levels of performance. Our architecture is organized in three levels of parallelism: domain decomposition using MPI, thread parallelization within each domain, and explicit vectorization. We also included a dynamic load balancing capability in order to equally share the workload among domains.Results on simple tests show excellent sequential performance and a quasi linear speedup on several thousands of cores on various architectures. When applied to production simulations, we report an acceleration up to a factor 30 compared to the code previously used by CEA’s researchers.
54

Approches anytime et distribuées pour l'appariment de graphes / Anytime and distributed approaches for graph matching

Abu-Aisheh, Zeina 25 May 2016 (has links)
En raison de la capacité et de l'amélioration des performances informatiques, les représentations structurelles sont devenues de plus en plus populaires dans le domaine de la reconnaissance de formes (RF). Quand les objets sont structurés à base de graphes, le problme de la comparaison d'objets revient à un problme d'appariement de graphes (Graph Matching). Au cours de la dernière décennie, les chercheurs travaillant dans le domaine de l'appariement de graphes ont porté une attention particulière à la distance d'édition entre graphes (GED), notamment pour sa capacité à traiter différent types de graphes. GED a été ainsi appliquée sur des problématiques spécifiques qui varient de la reconnaissance de molécules à la classi fication d'images. / Due to the inherent genericity of graph-based representations, and thanks to the improvement of computer capacities, structural representations have become more and more popular in the field of Pattern Recognition (PR). In a graph-based representation, vertices and their attributes describe objects (or part of them) while edges represent interrelationships between the objects. Representing objects by graphs turns the problem of object comparison into graph matching (GM) where correspondences between vertices and edges of two graphs have to be found.
55

Conception combinatoire des lignes de désassemblage sous incertitudes / Combinatorial design of disassembly lines under uncertainties

Bentaha, Mohand Lounes 16 October 2014 (has links)
Les travaux présentés dans ce manuscrit portent sur la conception des lignes de désassemblageen contexte incertain. Une ligne de désassemblage consiste en unesuccession de postes de travail où les tâches sont exécutées séquentiellement au niveau de chaque poste. La conception d'un tel système, de revalorisationdes produits en fin de vie, peut être ramenée à un problème d'optimisation combinatoire.Ce dernier cherche à obtenir une configuration permettant d'optimiser certains objectifs enrespectant des contraintes techniques, économiques et écologiques.Dans un premier temps, nous décrivons les activités principales de la revalorisation des produitsen fin de vie, en particulier le désassemblage. Puis, après présentation des travaux de la littératureportant sur la prise en compte des incertitudes des durées opératoires lors de la conception des lignesde production, nous nous focalisons sur l'étude des incertitudes des durées opératoires des tâches de désassemblage.Ainsi, nous présentons trois modélisations principales avec leurs approches de résolution.La première s'intéresse à la minimisation des arrêts de la ligne causés par les incertitudes des durées des opérationsde désassemblage. La deuxième cherche à garantir un niveau opérationnel de la ligne lié à sa cadence de fonctionnement.Le but de la troisième modélisation est l'intégration des problématiques de conception des ligneset de séquencement des tâches de désassemblage. Enfin, les performances des méthodes de résolutionproposées sont présentées en analysant les résultats d'optimisation sur un ensemble d'instances de taille industrielle. / This thesis is dedicated to the problem of disassembly line design in uncertain context. A disassembly linecan be represented as a succession of workstations where tasks are performed sequentially at each workstation.The design of such a product recovery system can be reduced to a combinatorial optimization problem which seeksa line configuration that optimizes certain objectives under technical, economical and environmental constraints.We begin by describing the principal product recovery activities especially disassembly. Then, after a literaturereview on the design of production lines under uncertainty of task processing times, we focus our study on the consideration of the disassembly task time uncertainties. Hence, we present three main models as well as the associatedsolution approaches. The first one is interested in minimizing the line stoppages caused by the task processing timeuncertainties. The second one seeks to guarantee an operational level closely related with the line speed. The goal of thethird model is to integrate the line design and sequencing problems. At last, the performances of the proposed solutionapproaches are presented by analyzing the optimization results on a set of instances of industrial size.
56

Adaptation dynamique des jeux de visite pour les musées : contribution à l'équilibrage de l'expérience du visiteur joueur / Dynamic adaptation of games to visit museums : a contribution to balancing playing visitor's experience

Astic, Isabelle 10 December 2018 (has links)
Le jeu sérieux semble une piste pertinente pour ouvrir le musée à un jeune public et fournir une présentation originale des œuvres, tirant partie des possibilités des outils numériques. Des propositions existent déjà mais, à ma connaissance, sans réflexion globale sur la nature et les objectifs de ces jeux : quel type de jeu construire pour les musées ? Quelles expériences sont recherchées par les visiteurs joueurs ? Comment leur procurer à la fois une expérience satisfaisante de jeu et de visite ?L'étude que j'ai menée ici, à partir de l'analyse de travaux des projets de médiation numérique auxquels j'ai participé, d'études académiques sur les jeux sérieux et l'expérience des visiteurs et des joueurs et de mon expérience professionnelle dans le domaine de la médiation et du développement informatique, apporte des réponses à ces différentes questions. Elle propose la notion de "jeu de visite", adapté à un public plus différencié et en conçoit une modélisation autour de la notion de "mission adaptable". Elle permet une modification dynamique des constituants du jeu et de son contexte d'exécution, en fonction de l'expérience recherchée par et pour le visiteur joueur. / Serious games seem a relevant proposition for a more open offer for young audience and a more creative works' presentations taking advantages of the opportunities of digital technologies. Such proposition already exist but, as far as I know, what they should be exactly has never been studied. What kind of games are the more appropriate for museums ? Which experiences do gaming visitors expect ? How to manage their satisfaction about their visit and about playing a real game ? These are the questions this PhD thesis contribute to answer.I based my reflection and my proposals on the analyse of projects devoted to cultural mediation in which I participated, on the research studies about serious games, visitors and gamers experience and on my professional background in cultural mediation and software engineering. I propose the notion of "visit game", appropriate for a more differentiated public, and build a model of this type of game around the concept of "adaptable mission". It allows to dynamically modify its components and its context of execution, depending on the experience expected by and for the gaming visitor.
57

Etude d’un système hybride de kitting semi-automatisé dans le secteur automobile : conception du système et modèle d’optimisation pour l’affectation des pièces aux pickers / Analysis of a hybrid robot–operator kitting system in the automotive industry : design and optimal assignment of parts to pickers

Boudella, Mohamed El Amine 19 September 2018 (has links)
Cette thèse, réalisée en collaboration avec le Groupe Renault dans le cadre d’un projet d’automatisation du kitting, s’intéresse à l’optimisation du processus de kitting en termes de maximisation du temps de cycle. Pour cela, nous étudions différentes configurations de système de kitting hybride avec robots(s) et opérateur(s) travaillant en série et séparés par un stock de découplage. Le(s) robot(s) commence(nt) la préparation des kits de pièces puis le(s) opérateur(s) se trouvant dans la partie manuelle du kitting récupère(nt) cette préparation et la complète(nt) avec les pièces affectées à cette zone.Notre objectif est de développer un outil d’aide à la décision permettant d’évaluer la performance d’un kitting hybride et de simuler son fonctionnement dans une configuration donnée (layout, politique de picking, etc.) avant son déploiement physique.Tout d’abord, à travers une modélisation des opérationsélémentaires de kitting effectuées par des robots et des opérateurs (prise et dépose, déplacement, etc.), nous proposons un modèle de temps de cycle permettant d’évaluer la performance du système hybride en termes de temps de cycle. Ensuite, nous développons un modèle d’affectation de pièces (PLMNE) permettant de les répartir entre kitting robotisé et manuel. L’objectif est de minimiser les temps de cycle et d’équilibrer la charge de travail entre les deux modes de kitting. Le modèle est appliqué à deux études de cas pratiques issues d’une usine Renault. Les résultats permettent d’identifier les paramètres qui impactent le plus les temps de cycle et le choix d’affectation des pièces entre kitting automatisé et manuel. Enfin, nous développons un modèle de simulation afin de calculer la taille optimale du stock de découplage entre kitting automatisé et manuel dans le but de maximiser la cadence du système hybride de kitting. / In this thesis, conducted with Renault in the context of a kitting automation project, we are interested in the optimisation of kitting processes in terms of cycle time maximisation. To do so, we study different configurations of hybrid robot-operator kitting systems where robots (two types of robots considered) and operators are connected in series by an intermediate buffer (to decouple their activities). The robotic kitting area starts the preparation of kits then the operators in the manual kitting area retrieve the preparation of robots and complete with the remaining parts.Our objective is to develop a decision-making tool that assesses the hybrid system performance in a given configuration (layout, picking policy, etc.).First, through a modelling of elementary kitting operations performed by robots and operators (pick and place, travel, etc.), we develop a cycle time model to assess the performance of hybrid kitting systems. Then, we develop an assignment model that assigns parts (formulated as a mixed integer linear programming (MILP) problem) either to robotic or manual kitting areas with the objective of minimising cycle times and balancing workload between them. The model is applied to two case studies pertaining to a Renault plant. This analysis identifies the parameters that influence cycle times and the choice between robotic and manual kitting. Finally, we develop a simulation model to find the optimal buffer size between robotic and manual kitting so that throughput is maximised.
58

Optimisation et Auto-Optimisation dans les réseaux LTE / Optimization and Self-Optimization in LTE-Advanced Networks

Tall, Abdoulaye 17 December 2015 (has links)
Le réseau mobile d’Orange France comprend plus de 100 000 antennes 2G, 3G et 4G sur plusieurs bandes de fréquences sans compter les nombreuses femto-cells fournies aux clients pour résoudre les problèmes de couverture. Ces chiffres ne feront que s’accroître pour répondre à la demande sans cesse croissante des clients pour les données mobiles. Cela illustre le défi énorme que rencontrent les opérateurs de téléphonie mobile en général à savoir gérer un réseau aussi complexe tout en limitant les coûts d’opération pour rester compétitifs. Cette thèse s’attache à utiliser le concept SON (réseaux auto-organisants) pour réduire cette complexité en automatisant les tâches répétitives ou complexes. Plus spécifiquement, nous proposons des algorithmes d’optimisation automatique pour des scénarios liés à la densification par les small cells ou les antennes actives. Nous abordons les problèmes classiques d’équilibrage de charge mais avec un lien backhaul à capacité limitée et de coordination d’interférence que ce soit dans le domaine temporel (notamment avec le eICIC) ou le domaine fréquentiel. Nous proposons aussi des algorithmes d’activation optimale de certaines fonctionnalités lorsque cette activation n’est pas toujours bénéfique. Pour la formulation mathématique et la résolution de tous ces algorithmes, nous nous appuyons sur les résultats de l’approximation stochastique et de l’optimisation convexe. Nous proposons aussi une méthodologie systématique pour la coordination de multiples fonctionnalités SON qui seraient exécutées en parallèle. Cette méthodologie est basée sur les jeux concaves et l’optimisation convexe avec comme contraintes des inégalités matricielles linéaires. / The mobile network of Orange in France comprises more than 100 000 2G, 3G and 4G antennas with severalfrequency bands, not to mention many femto-cells for deep-indoor coverage. These numbers will continue toincrease in order to address the customers’ exponentially increasing need for mobile data. This is an illustrationof the challenge faced by the mobile operators for operating such a complex network with low OperationalExpenditures (OPEX) in order to stay competitive. This thesis is about leveraging the Self-Organizing Network(SON) concept to reduce this complexity by automating repetitive or complex tasks. We specifically proposeautomatic optimization algorithms for scenarios related to network densification using either small cells orActive Antenna Systems (AASs) used for Vertical Sectorization (VeSn), Virtual Sectorization (ViSn) and multilevelbeamforming. Problems such as load balancing with limited-capacity backhaul and interference coordination eitherin time-domain (eICIC) or in frequency-domain are tackled. We also propose optimal activation algorithms forVeSn and ViSn when their activation is not always beneficial. We make use of results from stochastic approximationand convex optimization for the mathematical formulation of the problems and their solutions. We also proposea generic methodology for the coordination of multiple SON algorithms running in parallel using results fromconcave game theory and Linear Matrix Inequality (LMI)-constrained optimization.
59

Distribution et Stockage de Contenus dans les Réseaux

Modrzejewski, Remigiusz 24 October 2013 (has links) (PDF)
Dans cette thèse, nous étudions divers problèmes dont l'objectif est de gérer la croissance d'internet plus efficacement. En effet celle-ci est très vive : 41% pour le pic en 2012. Afin de répondre aux défis posés par cette évolution aux divers acteurs du réseau, des protocoles de gestion et de communication plus intelligents sont nécessaires. Les protocoles de l'Internet furent conçus comme des protocoles point à point. Or, la part de la diffusion de média dans le trafic est prépondérante et en nette hausse, et des projections indiquent qu'en 2016 80-90% du trafic sera engendré par de la diffusion vidéo. Cette divergence entraîne des inefficacités, car des multiples copies d'un message transitent par un lien. Dans cette thèse, nous étudions comment remediér á cette inefficacité. Nos contributions sont organisées selon les couches et les phases de déploiement du réseau. Nous étudions le placement de caches lors de la conception du réseau. Ensuite, pour la gestion d'un réseau, nous regardons quand placer des appareils en veille, en utilisant un mécanisme de cache et en coopération avec des réseaux de distribution. Puis, au niveau de la couche application, nous étudions un problème de maintenance d'arbres équilibrés pour la diffusion de média. Enfin, nous analysons la probabilité de survie des données dans un système de sauvegarde distribuée. Notre travail se fonde à la fois sur des méthodes théoriques (Chaînes de Markov, Programmation Linéaire), mais aussi sur des outils empiriques tels que la simulation et l'expérimentation.
60

Simulation massivement parallèle des écoulements turbulents à faible nombre de Mach

Malandain, Mathias 15 January 2013 (has links) (PDF)
L'objectif de cette thèse est l'accélération des solveurs utilisés pour la résolution de l'équation de Poisson pour la pression, dans le cas de la simulation d'écoulements à faible nombre de Mach sur des maillages non structurés. Cet objectif est complété par un besoin de stabilité, en particulier sur des géométries complexes. Plusieurs modifications de la méthode des Gradients Conjugués avec déflation ont été considérées à cet effet. Une méthode de redémarrage basée sur une estimation de l'effet des erreurs numériques a été mise en oeuvre et validée. Par la suite, une méthode consistant à calculer des solutions linéaires ou quadratiques par morceaux sur le maillage grossier s'est avérée instable dans le solveur non structuré YALES2. La nouvelle méthode alors développée consiste à transformer la méthode standard de déflation à deux niveaux de maillage en une méthode à trois niveaux. Cependant, le nombre élevé d'itérations sur le troisième niveau de maillage nouvellement créé ralentit le solveur, ce que nous avons rectifié grâce à deux méthodes développées particulièrement pour réduire le nombre d'itérations sur les niveaux grossiers. La première méthode est la création de solutions initiales grâce à une méthode de projection adaptée. La seconde consiste en une adaptation du critère de convergence sur les niveaux grossiers. Les résultats numériques sur des simulations massivement parallèles, avec le solveur à deux niveaux classique, montrent une réduction considérable du temps de calcul du solveur et une amélioration importante de sa scalabilité faible. L'application de ces techniques à la déflation à trois niveaux induit des gains supplémentaires en termes de temps de calcul. Outre le perfectionnement de ce solveur, des recherches supplémentaires doivent être conduites sur l'équilibrage dynamique de charges de calcul, qui pourrait devenir un développement-clé du solveur.

Page generated in 0.0383 seconds