• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 379
  • 167
  • 50
  • 1
  • Tagged with
  • 592
  • 239
  • 177
  • 174
  • 119
  • 111
  • 100
  • 92
  • 91
  • 87
  • 86
  • 84
  • 83
  • 74
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Efficacité énergétique dans le calcul très haute performance : application à la tolérance aux pannes et à la diffusion de données

Diouri, Mohammed El Mehdi 27 September 2013 (has links) (PDF)
Les infrastructures de calcul très haute performance ont connu une croissance rapide en particulier ces dernières années. Cette croissance a toujours été motivée par les besoins accrus en puissance de calcul qu'expriment les scientifiques dans divers domaines. Cependant, ces systèmes devenus de plus en plus larges constituent de gros consommateurs d'électricité et consomment déjà plusieurs mégawatts. Afin de consommer ''moins'' et ''mieux'', nous avons proposé un environnement logiciel qui d'une part, permet de choisir avant de pré-exécuter l'application, les versions de services applicatifs consommant le moins d'énergie, et qui d'autre part, repose sur une grille électrique intelligente pour planifier les réservations des ressources de calcul de ces infrastructures. Cet environnement, appelé SESAMES, a été adapté à deux services applicatifs indispensables au calcul très haute performance : la tolérance aux pannes et la diffusion de données. Des validations expérimentales ont montré que l'on peut réduire la consommation énergétique de chacun des deux services étudiés en s'appuyant sur les estimations énergétiques précises fournies par SESAMES pour n'importe quel contexte d'exécution et pour n'importe quelle plate-forme dotée de wattmètres. Notre méthodologie d'estimation repose sur une description du contexte d'exécution et sur une calibration de la plate-forme d'exécution basée sur la collecte de mesures énergétiques. Des simulations ont démontré que l'ordonnanceur multi-critères des réservations de ressources proposé dans SESAMES, permet de réduire à la fois la consommation énergétique, le coût financier et l'impact environnemental de ces réservations, tout en respectant les contraintes imposées par l'utilisateur et le fournisseur d'énergie.
322

Logistique hospitalière à l'aide de robots mobiles reconfigurables

Baalbaki, Hassan 09 September 2011 (has links) (PDF)
Ce manuscrit expose notre travail dans le cadre du projet IWARD et détaille la couche de gestion et de décision du groupement de robots. Ce projet avait comme objectif d'assister le personnel médical dans leur travail, ceci est réalisé en utilisant des robots mobiles, reconfigurables, et rechargeables. Ces robots sont conçus pour effectuer des taches logistiques comme : Le transport de médicaments, le nettoyage, le guidage des patients, la surveillance et la téléconsultation. Dans la première partie de la thèse nous présenterons le problème stratégique qui consiste à déterminer les plannings de rechargement des robots, la configuration des robots opérationnels ainsi que la localisation des stations d'attentes des robots lorsqu'ils sont en état de veille. Différentes hiérarchies à plusieurs niveaux de décisions, sont formulées comme des programmes linéaires en nombres entiers. Des formulations utilisant l'approche de génération de colonnes sont aussi développées pour résoudre ces problèmes. Dans la deuxième partie, le problème tactique est exposé, ceci consiste à affecter les taches arrivantes aux différents robots et d'ordonnancer dynamiquement l'exécution ces missions. Deux approches sont inspectées une version centralisée utilisant les algorithmes évolutionnaires et une autre version distribuée utilisant les algorithmes d'enchères inversées. Afin de mettre à l épreuve ces deux approches, une simulation a événements discrets a été conçue et développée spécifiquement pour le projet, permettant ainsi d'évaluer ces deux approches.
323

Analyse d'intervalles pour l'ordonnancement d'activités

Briand, Cyril 07 December 2009 (has links) (PDF)
Ce travail s'attache à décrire l'intérêt de l'analyse d'intervalles en ordonnancement. L'analyse d'intervalles considère les relations d'ordres existantes (algèbre de Allen) entres certains intervalles caractéristiques des tâches à ordonnancer. On montre comment, pour certains problèmes particuliers, elle permet de définir des conditions de dominance ou des conditions suffisantes d'optimalité, caractérisant des ensembles remarquables de solutions. Dans le cas de certains problèmes à une machine réputés difficiles, nous montrons comment de telles conditions peuvent être utiles pour déduire des nouvelles formulations de programmation linéaire en nombres entiers très efficaces. De plus, les conditions étant relativement indépendantes des valeurs numériques du problème, on montre aussi leur intérêt pour la caractérisation d'ensembles flexibles et robustes de solutions. D'autres travaux seront également évoqués dans lesquels la notion d'intervalle est centrale.
324

De l'ordonnancement déterministe à l'ordannancement distribué sous incertitudes

Ourari, Samia 28 January 2011 (has links) (PDF)
Ce travail présente l'étude de deux types de problèmes d'ordonnancement. Le premier concerne la résolution centralisée et exacte d'un problème à une machine, le second, la résolution distribuée et coopérative d'un problème job shop où chaque machine est assimilée à un acteur possédant sa propre autonomie décisionnelle. Pour ces deux problèmes, des conditions de dominance sont utilisées, dans le premier cas, dans le but de limiter la complexité algorithmique liée à la recherche de solutions admissibles ou optimales, dans le deuxième cas, pour accroître la capacité de chaque acteur à résister aux incertitudes liées aux fluctuations de son environnement. Dans un premier temps, un théorème proposé dans les années quatre-vingt est rappelé, qui, considérant le problème à une machine, permet de caractériser un ensemble de solutions dominantes. Sur la base de ce théorème, nous proposons ensuite de nouvelles conditions analytiques et numériques de dominance permettant de restreindre encore davantage l'ensemble des solutions dominantes. En exploitant ces résultats, des formulations mathématiques originales et efficaces sont présentées, sous forme de programmes linéaires en nombres entiers, pour la modélisation et la résolution du problème à une machine en s'intéressant tour à tour au critère de minimisation du plus grand retard algébrique, puis à celui de minimisation du nombre de travaux en retard. Dans un deuxième temps, nous étudions le problème d'ordonnancement job shop dans un environnement multi-acteur, chaque acteur gérant l'activité d'une machine. Tenant compte de l'autonomie de décision et des objectifs propres de chacun, l'ordonnancement est envisagé sous la forme d'une fonction distribuée où la solution globale résulte d'une coopération entre les différents acteurs, cette solution pouvant évoluer dans le temps au fur-et-à-mesure des prises de décision locales. Ainsi, chaque acteur construisant localement sa propre organisation et n' n'ayant qu'une connaissance part ielle et incertaine de l'organisation des autres, nous proposons que les organisations locales soient construites de façon robuste. Pour cela nous montrons comment, à l'aide des résultats de dominance, maintenir au niveau de chaque acteur un ensemble dominant de solutions ayant une performance au pire bornée. Une nouvelle approche d'ordonnancement est ensuite proposée où les acteurs négocient deux à deux, de façon distribuée, de façon à converger progressivement vers des décisions assurant un compromis satisfaisant entre l'optimisation des objectifs locaux et des objectifs globaux.
325

Des réseaux de processus cyclo-statiques à la génération de code pour le pipeline multi-dimensionnel

Fellahi, Mohammed 22 April 2011 (has links) (PDF)
Les applications de flux de données sont des cibles importantes de l'optimisation de programme en raison de leur haute exigence de calcul et la diversité de leurs domaines d'application: communication, systèmes embarqués, multimédia, etc. L'un des problèmes les plus importants et difficiles dans la conception des langages de programmation destinés à ce genre d'applications est comment les ordonnancer à grain fin à fin d'exploiter les ressources disponibles de la machine.Dans cette thèse on propose un "framework" pour l'ordonnancement à grain fin des applications de flux de données et des boucles imbriquées en général. Premièrement on essaye de paralléliser le nombre maximum de boucles en appliquant le pipeline logiciel. Après on merge le prologue et l'épilogue de chaque boucle (phase) parallélisée pour éviter l'augmentation de la taille du code. Ce processus est un pipeline multidimensionnel, quelques occurrences (ou instructions) sont décalées par des iterations de la boucle interne et d'autres occurrences (instructions) par des iterationsde la boucle externe. Les expériences montrent que l'application de cette technique permet l'amélioration des performances, extraction du parallélisme sans augmenter la taille du code, à la fois dans le cas des applications de flux des donnée et des boucles imbriquées en général.
326

Gestion logicielle légère pour la reconfiguration dynamique partielle sur les FPGAs.

Xu, Yan 13 March 2014 (has links) (PDF)
Cette thèse s'intéresse aux architectures contenant des FPGAs reconfigurables dynamiquement et partiellement. Dans ces architectures, la complexité et la difficulté de portage des applications sont principalement dues aux connections étroites entre la gestion de la reconfiguration et le calcul lui-même. Nous proposons 1) un nouveau niveau d'abstraction, appelé gestionnaire de composants matériels (HCM) et 2) un mécanisme de communication scalable (SCM), qui permettent une séparation claire entre l'allocation d'une fonction matérielle et la procédure de reconfiguration. Cela réduit l'impact de la gestion de la reconfiguration dynamique sur le code de l'application, ce qui simplifie grandement l'utilisation des plateformes FPGA. Les application utilisant le HCM et le SCM peuvent aussi être portées de manière transparentes à des systèmes multi-FPGA et/ou multi-utilisateurs. L'implémentation de cette couche HCM et du mécanisme SCM sur des plateformes réalistes de prototypage virtuel démontre leur capacité à faciliter la gestion du FPGA tout en préservant les performances d'une gestion manuelle, et en garantissant la protection des fonctions matérielles. L'implémentation du HCM et du mécanisme SCM ainsi que leur environnement de simulation sont open-source dans l'espoir d'une réutilisation par la communauté.
327

Impact de la coopération dans les nouvelles plates-formes de calcul à hautes performances

De angelis cordeiro, Daniel 09 February 2012 (has links) (PDF)
L'informatique a changé profondément les aspects méthodologiques du processus de découverte dans les différents domaines du savoir. Les chercheurs ont à leur disposition aujourd'hui de nouvelles capacités qui permettent d'envisager la résolution de nouveaux problèmes. Les plates-formes parallèles et distribués composées de ressources partagés entre différents participants peuvent rendre ces nouvelles capacités accessibles à tout chercheur et offre une puissance de calcul qui a été limitée jusqu'à présent, aux projets scientifiques les plus grands (et les plus riches). Dans ce document qui regroupe les résultats obtenus pendant mon doctorat, nous explorons quatre facettes différentes de la façon dont les organisations s'engagent dans une collaboration sur de plates-formes parallèles et distribuées. En utilisant des outils classiques de l'analyse combinatoire, de l'ordonnancement multi-objectif et de la théorie des jeux, nous avons montré comment calculer des ordonnancements avec un bon compromis entre les résultats obtenu par les participants et la performance globale de la plate-forme. En assurant des résultats justes et en garantissant des améliorations de performance pour les différents participants, nous pouvons créer une plate-forme efficace où chacun se sent toujours encourager à collaborer et à partager ses ressources. Tout d'abord, nous étudions la collaboration entre organisations égoïstes. Nous montrons que le comportement égoïste entre les participants impose une borne inférieure sur le makespan global. Nous présentons des algorithmes qui font face à l'égoïsme des organisations et qui présentent des résultats équitables. La seconde étude porte sur la collaboration entre les organisations qui peuvent tolérer une dégradation limitée de leur performance si cela peut aider à améliorer le makespan global. Nous améliorons les bornes d'inapproximabilité connues sur ce problème et nous présentons de nouveaux algorithmes dont les garanties sont proches de l'ensemble de Pareto (qui regroupe les meilleures solutions possibles). La troisième forme de collaboration étudiée est celle entre des participants rationnels qui peuvent choisir la meilleure stratégie pour leur tâches. Nous présentons un modèle de jeu non coopératif pour le problème et nous montrons comment l'utilisation de "coordination mechanisms" permet la création d'équilibres approchés avec un prix de l'anarchie borné. Finalement, nous étudions la collaboration entre utilisateurs partageant un ensemble de ressources communes. Nous présentons une méthode qui énumère la frontière des solutions avec des meilleurs compromis pour les utilisateurs et sélectionne la solution qui apporte la meilleure performance globale.
328

Implémentation rigoureuse des systèmes temps-réels

Abdellatif, Tesnim 05 June 2012 (has links) (PDF)
Les systèmes temps-réels sont des systèmes qui sont soumis à "des contraintes de temps", comme par exemple le délais de réponse d'un système à un événement physique. Souvent les temps de réponse sont de l'ordre du milliseconde et parfois même du microseconde. Construire des systèmes temps-réels nécessite l'utilisation de méthodologies de conception et de mise en œuvre qui garantissent la propriété de respect des contraintes de temps, par exemple un système doit réagir dans les limites définies par l'utilisateur tels que les délais et la périodicité. Un délai non respecté dans systèmes temps-réel critique est catastrophique, comme par exemple dans les systèmes automobiles. Si un airbag se déclanche tard dans un accident de voiture, même quelques millisecondes trop tard peuvent conduire à des répercussions graves. Dans les systèmes temps-réels non critiques, une perte significative de performance et de QoS peuvent se produire, comme par exemple dans les réseaux de systèmes multimédia. Contribution: Nous fournissons une méthode de conception rigoureuse des systèmes temps-réel. L'implèmentation est générée à partir d'une application logicielle temps-réel et une plate-forme cible, en utilisant les deux modèles suivants: * Un modèle abstrait représentant le comportement de l'application logicielle en temps réel sous forme d' un automate temporisé. Celui-ci décrit des contraintes temporelles définies par l'utilisateur qui sont indépendantes de la plateforme. Ses transitions sont intemporelles et correspondent à l'exécution des différentes instructions de l'application. * Un modèle physique représentant le comportement du logiciel en temps réel s'exécutant sur une plate-forme donnée. Il est obtenu par l'attribution des temps d'exécution aux transitions du modèle abstrait. Une condition nécessaire pour garantir l'implémentabilité dy système est la "time-safety", c'est à dire, toute séquence d'exécution du modèle physique est également une séquence d'exécution du modèle abstrait. "Time-safety" signifie que la plate-forme est assez rapide pour répondre aux exigences de synchronisation de l'application. Comme les temps d'exécution des actions ne sont pas connus avec exactitude, "time-safety" est vérifiée pour les temps d'exécution pire cas es actions en faisant l' hypothèse de la robustesse. La robustesse signifie que la "time-safety" est préservée lorsqu'on augmente la vitesse de la plate-forme d'exécution. Pour des logiciels et plate-forme d'exécution correspondant à un modèle robuste, nous définissons un moteur d'exécution qui coordonne l'exécution du logiciel d'application afin de répondre à ses contraintes temporelles. En outre, en cas de non-robustesse, le moteur d'exécution permet de détecter les violations de contraintes temporelles en arrêtant l'exécution. Nous avons mis en place le moteur d'exécution pour les programmes BIP. Nous avons validé la méthode pour la conception et la mise en œuvre du robot Dala. Nous montrons les avantages obtenus en termes d'utilisation du processeur et l'amélioration de la latence de la réaction.
329

Méthodes à divergences pour la résolution de problèmes de satisfaction de contraintes et d'optimisation combinatoire

Karaoui, Wafa 09 October 2010 (has links) (PDF)
Le formalisme " Problème de Satisfaction de Contraintes " (ou CSP pour Constraint Satisfaction Problem) peut être considéré comme un langage de représentation formelle qui couvre l'ensemble des problèmes dont la modélisation fait intervenir des contraintes. L'intérêt de ce formalisme réside dans l'exploitation de la généricité d'algorithmes de résolution puissants mais également dans la performance d'algorithmes dédiés à des problèmes particuliers. Dans ce travail de thèse, nous étudions la résolution de CSP par des méthodes de recherche arborescente basées sur la notion de " divergence ". Dans ce cadre, nous proposons de nouveaux mécanismes d'amélioration des méthodes de recherche générales qui exploitent les échecs rencontrés pendant la résolution, en adoptant des heuristiques de pondération des variables et des valeurs. Nous proposons également d'autres techniques spécifiques aux méthodes à base de divergences qui conditionnent l'exploration de l'arbre de recherche développé, notamment la restriction des divergences, les différents modes de comptage ainsi que le positionnement des divergences. Ces propositions sont validées par des expérimentations numériques menées sur des problèmes de satisfaction de contraintes aléatoires (tirés de contextes réels) ainsi que des problèmes d'optimisation. Des comparaisons sont effectuées entre variantes de méthodes à divergences intégrant différentes combinaisons parmi les améliorations étudiées et d'autres méthodes connues pour leur performance.
330

Nouvelles méthodes pour les problèmes d'ordonnancement cyclique

Ben Rahhou, Touria 26 June 2013 (has links) (PDF)
Les travaux de recherche concernant l'ordonnancement mobilisent un nombre important de chercheurs. Cette forte émulation est principalement due au large panorama des problématiques d'ordonnancement. Parmi elles, le problème d'atelier à cheminement multiple, communément appelé " Job-Shop ", tient une place particulièrement prépondérante tant ce problème est rencontré dans le milieu industriel. De nombreux sujets de recherche, en France et à l'étranger, sont issus de cette problématique. Les problèmes de Job-Shop peuvent souvent être simplifiés en les considérant comme des problèmes cycliques. L'ordonnancement des tâches devient ainsi cyclique et son objectif est d'organiser les activités de production en répétant un cycle de base que l'on a optimisé. De nombreux paramètres entrent en jeu dans l'optimisation du cycle de base tels que la période du cycle choisie, l'ordre des opérations élémentaires pour réaliser un travail, la durée de ces opérations, le nombre de produits à réaliser par cycle, etc. Plusieurs approches ont été utilisées pour résoudre ce problème. Parmi elles, nous pouvons citer l'approche par réseaux de Petri et plus particulièrement par graphes d'événements temporisés, l'approche par les graphes, l'approche par la programmation linéaire et l'approche par la théorie des tas. L'approche par les graphes permet une représentation graphique du problème sous forme d'un graphe où les noeuds représentent les différentes opérations et où les arcs illustrent les contraintes du problème d'ordonnancement cyclique, un tel problème admet une solution réalisable si, et seulement si, le graphe associé est consistant. Cette propriété de consistance d'un problème d'ordonnancement cyclique et de son graphe permet d'élaguer l'arbre de recherche de la procédure de séparation et d'évaluation proposée pour cette approche. Concernant l'approche par la théorie des tas, le sous-problème de l'évaluation d'une solution peut être résolu aisément avec l'aide de la théorie des tas. En effet, en traduisant le problème dans une structure mathématique adaptée, l'évaluation du taux de production du cycle revient au calcul d'une valeur propre d'un produit de matrices dans lequel chacune des matrices représente une opération élémentaire. Cette propriété s'avère particulièrement intéressante dans le cas de l'évaluation successive d'un grand nombre d'ordonnancement. En outre, la théorie des tas permet une représentation très intuitive d'un ordonnancement, puisque celui-ci s'illustre comme un empilement de plusieurs briques (en fait, un " tas " de briques) dont le contour supérieur correspond aux dates de fin des dernières opérations des machines.

Page generated in 0.0508 seconds