• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 382
  • 169
  • 51
  • 1
  • Tagged with
  • 598
  • 239
  • 177
  • 174
  • 119
  • 112
  • 104
  • 92
  • 91
  • 89
  • 88
  • 84
  • 84
  • 74
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Maîtrise de la dimension temporelle de la qualité de service dans les réseaux

MARTIN, Steven 06 July 2004 (has links) (PDF)
Les nouvelles applications sur Internet nécessitent des garanties de qualité de service (QoS) de la part du réseau. Nous nous intéressons à deux paramètres de QoS : le temps de réponse et la gigue de bout-en-bout. Nous proposons un ordonnancement, noté FP/DP, à base de priorités fixes (FP), départageant les paquets ex aequo selon leurs priorités dynamiques (DP). La priorité fixe d'un flux reflète son degré d'importance et sa priorité dynamique est un paramètre temporel. FP/FIFO et FP/EDF sont deux exemples d'ordonnancement FP/DP. Nous déterminons des bornes déterministes sur les paramètres de QoS considérés, en utilisant l'approche par trajectoire. En monoprocesseur, nous améliorons les résultats existants et prouvons que FP/EDF domine FP/FIFO sous certaines conditions. En distribué, nous apportons de nouveaux résultats et montrons que l'approche par trajectoire est beaucoup moins pessimiste que l'approche holistique. Nos résultats sont appliqués dans une architecture DiffServ/MPLS.
262

Etude et résolution de problèmes d'ordonnancement d'opérations d'évacuation / Solving evacuation scheduling problem

Boukebab, Kaouthar 01 December 2015 (has links)
Les travaux présentés dans cette thèse, qui s’inscrivent dans le cadre du projet franco-allemand DSS_Evac_Logistic, visent à proposer des méthodes permettant de calculer des plans d’évacuation macroscopiques d’une ville lors d’une catastrophe majeure. Deux problèmes d’évacuations sont considérés dans cette thèse : le problème d’évacuation par bus et le problème d’évacuation par bus et voitures. Le problème d’évacuation par bus a pour objectif de définir un plan d’évacuation afin de mettre à l’abri les évacués. Dans cette thèse, nous nous sommes intéressés à l’étude de trois versions du problème d’évacuation par bus. La première version est monocritère où nous cherchons à minimiser la date de fin d’évacuation. Puis, dans le second problème et afin d’assurer la sécurité des évacués, nous avons considéré une version bicritère qui généralise le cas monocritère, en incluant le risque encouru lors de l’évacuation des personnes. Les deux critères à minimiser sont la date de fin d’évacuation et le risque. La troisième version est une version robuste bicritère qui permet d’appréhender l’incertitude sur les données. Le but est de minimiser à la fois la date de fin d’évacuation et les modifications apportées sur une solution, de sorte qu’elle soit réalisable pour n’importe quel scénario de données. Pour résoudre ces problèmes d’évacuation par bus, nous avons proposé des méthodes exactes et des méthodes heuristiques. / The work presented in this thesis, which is a part of the Franco-German project DSS_Evac_Logistic, aims at proposing methods to calculate macroscopic evacuation plans for mid-size towns after a tremendous disaster. Two evacuation problems have been tackled in this thesis : the bus evacuation problem and bus-and-vehicle evacuation problem. The bus evacuation problem aims at calculating an evacuation plan to relocate evacuees outside the endangered area. In this thesis, we consider three versions of the bus evacuation problem. The first one is a monocriterion problem, where the objective is to minimize the maximum evacuation time. In order to guarantee the safety of evacuees, we have considered a bicriteria problem, which is a generalization of the monocriterion version, in which we take into consideration the risk exposure of the evacuees. Consequently, the bicriteria problem is solved by minimizing the total evacuation time and the risk. The third version is a bicriteria robust version because most of the planning data is subject to uncertainty. The goal is to minimize both the evacuation time and the vulnerability of the schedule that is subject to different evacuation circumstances. To solve all the versions of the bus evacuation problem, we have developed exact solutions based on mathematical formulation to address small instances and heuristic solutions to deal with larger instances.
Read more
263

Réconcilier performance et prédictibilité sur un many-coeur en utilisant des techniques d'ordonnancement hors-ligne / Reconciling performance and predictability on a noc-based mpsoc using off-line scheduling techniques

Fakhfakh, Manel 27 June 2014 (has links)
Les réseaux-sur-puces (NoCs) utilisés dans les architectures multiprocesseurs-sur-puces posent des défis importants aux approches d'ordonnancement temps réel en ligne (dynamique) et hors-ligne (statique). Un NoC contient un grand nombre de points de contention potentiels, a une capacité de bufferisation limitée et le contrôle réseau fonctionne à l'échelle de petits paquets de données. Par conséquent, l'allocation efficace de ressources nécessite l'utilisation des algorithmes da faible complexité sur des modèles de matériel avec un niveau de détail sans précédent dans l'ordonnancement temps réel. Nous considérons dans cette thèse une approche d'ordonnancement statique sur des architectures massivement parallèles (Massively parallel processor arrays ou MPPAs) caractérisées par un grand nombre (quelques centaines) de c¿urs de calculs. Nous identifions les mécanismes matériels facilitant l'analyse temporelle et l'allocation efficace de ressources dans les MPPAs existants. Nous déterminons que le NoC devrait permettre l'ordonnancement hors-ligne de communications, d'une manière synchronisée avec l'ordonnancement de calculs sur les processeurs. Au niveau logiciel, nous proposons une nouvelle méthode d'allocation et d'ordonnancement capable de synthétiser des ordonnancements globaux de calculs et de communications couvrants toutes les ressources d'exécution, de communication et de la mémoire d'un MPPA. Afin de permettre une utilisation efficace de ressources du matériel, notre méthode prend en compte les spécificités architecturales d'un MPPA et implémente des techniques d'ordonnancement avancées comme la préemption pré-calculée de transmissions de données. Nous avons évalué n / On-chip networks (NoCs) used in multiprocessor systems-on-chips (MPSoCs) pose significant challenges to both on-line (dynamic) and off-line (static) real-time scheduling approaches. They have large numbers of potential contention points, have limited internal buffering capabilities, and network control operates at the scale of small data packets. Therefore, efficient resource allocation requires scalable algorithms working on hardware models with a level of detail that is unprecedented in real-time scheduling. We consider in this thesis a static scheduling approach, and we target massively parallel processor arrays (MPPAs), which are MPSoCs with large numbers (hundreds) of processing cores. We first identify and compare the hardware mechanisms supporting precise timing analysis and efficient resource allocation in existing MPPA platforms. We determine that the NoC should ideally provide the means of enforcing a global communications schedule that is computed off-line (before execution) and which is synchronized with the scheduling of computations on processors. On the software side, we propose a novel allocation and scheduling method capable of synthesizing such global computation and communication schedules covering all the execution, communication, and memory resources in an MPPA. To allow an efficient use of the hardware resources, our method takes into account the specificities of MPPA hardware and implements advanced scheduling techniques such as pre-computed preemption of data transmissions. We evaluate our technique by mapping two signal processing applications, for which we obtain good latency, throughput, and resource use figures.
Read more
264

Méthodes directes hors-mémoire (out-of-core) pour la résolution de systèmes linéaires creux de grande taille

Agullo, Emmanuel 28 November 2008 (has links) (PDF)
La factorisation d'une matrice creuse est une approche robuste pour la résolution de systèmes linéaires creux de grande taille. Néanmoins, une telle factorisation est connue pour être coûteuse aussi bien en temps de calcul qu'en occupation mémoire. Quand l'espace mémoire nécessaire au traitement d'une matrice est plus grand que la quantité de mémoire disponible sur la plate-forme utilisée, des approches dites hors-mémoire (out-of-core) doivent être employées : les disques étendent la mémoire centrale pour fournir une capacité de stockage suffisante. Dans cette thèse, nous nous intéressons à la fois aux aspects théoriques et pratiques de telles factorisations hors-mémoire. Les environnements logiciel MUMPS et SuperLU sont utilisés pour illustrer nos discussions sur des matrices issues du monde industriel et académique. Tout d'abord, nous proposons et étudions dans un cadre séquentiel différents modèles hors-mémoire qui ont pour but de limiter le surcoût dû aux transferts de données entre la mémoire et les disques. Pour ce faire, nous revisitons les algorithmes qui ordonnancent les opérations de la factorisation et proposons de nouveaux schémas de gestion mémoire s'accommodant aux contraintes hors-mémoire. Ensuite, nous nous focalisons sur une méthode de factorisation particulière, la méthode multifrontale, que nous poussons aussi loin que possible dans un contexte parallèle hors-mémoire. Suivant une démarche pragmatique, nous montrons que les techniques hors-mémoire permettent de résoudre efficacement des systèmes linéaires creux de grande taille. Quand seuls les facteurs sont stockés sur disque, une attention particulière doit être portée aux données temporaires, qui restent en mémoire centrale. Pour faire décroître efficacement l'occupation mémoire associée à ces données temporaires avec le nombre de processeurs, nous repensons l'ordonnancement de la factorisation parallèle hors-mémoire dans son ensemble.
Read more
265

Etude et compréhension des mécanismes de vieillissement des alliages de plomb-calcium

Rossi, Frédéric 11 December 2006 (has links) (PDF)
Les données de la littérature concernant le vieillissement et le survieillissement des alliages plomb-calcium sont bien souvent incomplètes et contradictoires. Ceci est certainement lié aux difficultés expérimentales rencontrées pour observer les transformations et le fait que celles-ci sont nombreuses, entraînant une certaine confusion dans les travaux des auteurs. De plus, de faibles écarts dans les conditions d'élaboration et dans la composition des alliages peuvent avoir de l'importance sur leur comportement. Le présent travail, réalisé pour le CEA-DAM, nous a permis d'obtenir un ensemble de diagrammes TTT plus réalistes et plus justes que ceux donnés dans la littérature. Les moyens techniques mis en place (en particulier, la préservation de la chaîne du froid, condition indispensable pour garantir la répétabilité des résultats), nous ont permis d'étudier plus particulièrement les premières transformations et de mieux maîtriser les cinq étapes de vieillissement et de survieillissement. Nos travaux ont permis de déterminer clairement les cinétiques et les mécanismes des transformations. Ce travail constitue un approfondissement de la compréhension des phénomènes de vieillissement et de survieillissement de ces alliages.
Read more
266

Principes et méthodes pour l'intégration et l'optimisation du pilotage des systèmes de production et des chaînes logistiques

Botta-Genoulaz, Valerie 17 November 2005 (has links) (PDF)
La mondialisation, un paysage international mouvant, l'accélération des échanges, l'apparition de nouveaux marchés, un nouvel environnement sociétal, ... toutes ces tendances induisent une forte interdépendance entre les fonctions (internes et externes à l'entreprise) et conduisent à une approche globale de l'entreprise et de sa chaîne logistique en générant un besoin croissant de réactivité, de flexibilité, d'interconnexion, de communication et de partage d'information. Il s'agit d'intégration fonctionnelle intra et interentreprises, de ré-ingénierie et de pilotage des processus de gestion, de management de la performance globale, etc.<br />Ce besoin d'intégration se fait sentir au niveau de l'entreprise, d'un groupe ou d'une chaîne logistique globale, au travers de projets ERP (Enterprise Resource Planning, Progiciel de Gestion Intégrée) et de projets SCM (Supply Chain Management, Gestion de la Chaîne Logistique Globale, Intégrée ou Etendue). Il se décline en plusieurs problématiques de recherche ou « verrous » tant du point de vue de l'intégration, des systèmes intégrés, des méthodes de modélisation et d'optimisation des systèmes de production que de leurs conditions de pertinence et d'efficacité, de leur mise en œuvre et de leurs usages.<br />Dans contexte, je me suis particulièrement intéressée à rechercher et concevoir des méthodes et outils pour aider et accompagner les entreprises dans leurs démarches d'intégration et d'optimisation de leur pilotage. D'où le titre de ce mémoire : Principes et méthodes pour l'intégration et l'optimisation du pilotage des systèmes de production et des chaînes logistiques. <br />Je développe mes contributions dans les domaines de la gestion et du pilotage des chaînes logistiques et de la conduite de projets d'intégration intra ou interentreprises selon l'articulation suivante :<br />- Analyse des systèmes de production et des chaînes logistiques et optimisation de leur pilotage : approche intégrée d'aide à la décision en ordonnancement et planification, modélisation et optimisation de la traçabilité dans les chaînes logistiques, modélisation et optimisation des processus de pilotage des chaînes logistiques. <br />- Evaluation des projets d'intégration : méthodologies ou référentiels de gestion de projet d'intégration, modélisation d'entreprise pour l'implantation d'ERP, impact des typologies d'entreprise (production de biens – production de services) sur les projets d'intégration, mesure de performance de projets d'intégration, évaluation de l'intégration (mesures, indicateurs...).<br />- Impact de l'intégration et (ou) des systèmes intégrés de gestion sur (ou en interaction avec) le pilotage des chaînes logistiques : contribution des progiciels intégrés (ERP, APS...) à la planification des chaînes logistiques, contribution du partage d'information à la performance des chaînes logistiques et mesure de la collaboration dans les chaînes logistiques.<br />Ces contributions sont positionnées vis-à-vis de l'état d'avancement des travaux dans ces domaines, et des prospectives de recherche sont proposées.
Read more
267

Méthodes à divergences pour la résolution de problèmes de satisfaction de contraintes et d'optimisation combinatoire / Discrepancy-based search for constraint satisfaction and combinatorial optimisation problems

Karoui, Wafa 09 October 2010 (has links)
Le formalisme « Problème de Satisfaction de Contraintes » (ou CSP pour Constraint Satisfaction Problem) peut être considéré comme un langage de représentation formelle qui couvre l'ensemble des problèmes dont la modélisation fait intervenir des contraintes. L'intérêt de ce formalisme réside dans l'exploitation de la généricité d'algorithmes de résolution puissants mais également dans la performance d'algorithmes dédiés à des problèmes particuliers.Dans ce travail de thèse, nous étudions la résolution de CSP par des méthodes de recherche arborescente basées sur la notion de « divergence » (une divergence est relative à la contradiction d’une décision proposée par une heuristique de référence). Dans ce cadre, nous proposons de nouveaux mécanismes d'amélioration des méthodes de recherche générales qui exploitent les échecs rencontrés pendant la résolution, en adoptant des heuristiques de pondération des variables et des valeurs. Nous proposons également d'autres techniques spécifiques aux méthodes à base de divergences qui conditionnent l’exploration de l’arbre de recherche développé, notamment la restriction des divergences, les différents modes de comptage ainsi que le positionnement des divergences. Ces propositions sont validées par des expérimentations numériques menées sur des problèmes de satisfaction de contraintes réels et aléatoires. Des comparaisons sont effectuées entre variantes de méthodes à divergences intégrant différentes combinaisons des améliorations et d’autres méthodes connues pour leur performance.Dans une seconde partie, nous étendons nos propositions à un contexte d'optimisation en considérant la résolution de problèmes d'ordonnancement avec contraintes de délais (time lags). Nous traitons l'adaptation d'une méthode de « recherche par montée de divergences » (Climbing Discrepancy Search) pour la résolution de ces problèmes. Nous validons les performances de certaines variantes de cette méthode intégrant les mécanismes proposés dans ce travail sur des problèmes-test de la littérature / The CSP (Constraint Satisfaction Problem) formalism can be considered as a simple example of a formal representation language covering all problems including constraints. The advantage of this formalism consists in the fact that it allows powerful general-purpose algorithms as much as useful specific algorithms.In this PhD thesis, we study several tree search methods for solving CSPs and focus on ones based on the discrepancy concept (a discrepancy is a deviation from the first choice of the heuristic). In this context, we propose improving mechanisms for general methods. These mechanisms take benefits from conflicts and guide the search by weighting the variables and the values. We propose also special mechanisms for methods based on discrepancies as the discrepancies restriction, the discrepancies counting, and the discrepancies positions. All propositions are validated by experiments done on real and random CSPs. We compare variants of methods based on discrepancies integrating several combinations of improvements and other methods known for their efficiency.In a second part, we extend our propositions to an optimisation context considering scheduling problems with time lags. In this purpose, we adapt a discrepancy-based method, Climbing Discrepancy Search, to solve these problems. Efficiency of some improved variants of this method is tested on known benchmarks
Read more
268

Des réseaux de processus cyclo-statiques à la génération de code pour le pipeline multi-dimensionnel / From Cyclo-Static Process Networks to Code Generation for Multidimensional Software Pipelining

Fellahi, Mohammed 22 April 2011 (has links)
Les applications de flux de données sont des cibles importantes de l’optimisation de programme en raison de leur haute exigence de calcul et la diversité de leurs domaines d’application: communication, systèmes embarqués, multimédia, etc. L’un des problèmes les plus importants et difficiles dans la conception des langages de programmation destinés à ce genre d’applications est comment les ordonnancer à grain fin à fin d’exploiter les ressources disponibles de la machine.Dans cette thèse on propose un "framework" pour l’ordonnancement à grain fin des applications de flux de données et des boucles imbriquées en général. Premièrement on essaye de paralléliser le nombre maximum de boucles en appliquant le pipeline logiciel. Après on merge le prologue et l’épilogue de chaque boucle (phase) parallélisée pour éviter l’augmentation de la taille du code. Ce processus est un pipeline multidimensionnel, quelques occurrences (ou instructions) sont décalées par des iterations de la boucle interne et d’autres occurrences (instructions) par des iterationsde la boucle externe. Les expériences montrent que l’application de cette technique permet l’amélioration des performances, extraction du parallélisme sans augmenter la taille du code, à la fois dans le cas des applications de flux des donnée et des boucles imbriquées en général. / Applications based on streams, ordered sequences of data values, are important targets of program optimization because of their high computational requirements and the diversity of their application domains: communication, embedded systems, multimedia, etc. One of the most important and difficult problems in special purpose stream language design and implementation is how to schedule these applications in a fine-grain way to exploit available machine resources In this thesis we propose a framework for fine-grain scheduling of streaming applications and nested loops in general. First, we try to pipeline steady state phases (inner loops), by finding the repeated kernel pattern, and executing actor occurrences in parallel as much as possible. Then we merge the kernel prolog and epilog of pipelined phases to move them out of the outer loop. Merging the kernel prolog and epilog means that we shift acotor occurrences, or instructions, from one phase iteration to another and from one outer loop iteration to another, a multidimensional shifting. Experimental shows that our framwork can imporove perfomance, prallelism extraction without increasing the code size, in streaming applications and nested loops in general.
Read more
269

Planification des chimiothérapies ambulatoires avec la prise en compte des protocoles de soins et des incertitudes. / Planning ambulatory chemotherapy with consideration of treatment protocols and uncertainties.

Sadki, Abdellah 11 June 2012 (has links)
Les travaux de cette thèse sont les fruits de collaboration depuis 2008 entre l’ICL et le Centre Ingénierie et Santé (CIS) de l'Ecole des Mines de Saint Etienne. CIS et ICL sont tous deux membres de l'Institut Fédératif de Recherche en Science, Ingénierie et Santé (IFRESIS) et participent tous deux aux travaux du Cancéropôle Lyon Auvergne Rhône-Alpes (CLARA) dont Franck Chauvin animait l'axe IV sur Epidémiologie, SHS, Information du Patient et Organisation des Soins. Cette thèse a été initiée avec la volonté de développer une recherche originale sur l'optimisation de la production de soins en cancérologie.Nous nous intéressons à différentes problématiques de la gestion de soins des patients dans un hôpital de jour en cancérologie. Nous visons à équilibrer au mieux les besoins journaliers en lits tout en prenant en compte l'adhérence aux protocoles de soins, les contraintes des oncologues et les aléas des flux de patients. Pour un hôpital de jour en oncologie, nous avons identifié et étudié les décisions suivantes : I. Le planning médical une fois par an afin de déterminer les périodes de travail des oncologues dans une semaine. Nous avons proposé une formulation originale sous forme d'un modèle de programmation linéaire en nombres mixtes (MIP) et une approche en 3-étapes. II. L’affectation des nouveaux patients qui détermine le jour de la chimiothérapie pour chaque patient entrant. Nous avons présenté trois stratégies de planification et nous avons décrit un algorithme de simulation pour évaluer ces stratégies de planification. Les stratégies de planification proposées exploitent les informations contenues dans les protocoles de soins des patients et utilisent l’optimisation Monte Carlo III. La planification des rendez-vous. Nous avons présenté deux méthodes pour la résolution de ce problème : une approche basée sur la relaxation Lagrangienne et une heuristique basée sur une optimisation par recherche localeIV. La planification des jours fériés : permet de remédier au problème des semaines comportant des jours fériés. Nous avons développé un modèle en programmation linéaire en nombres mixtes permettant de répartir rapidement la charge du jour férié sur les jours en amont et en aval sans trop dégradé l’efficacité du traitement, ni surcharger le travail de l’HDJ. / This research is performed in close collaboration with the cancer center ICL. The « Institut de Cancérologie de la Loire » (Loire Cancer Institute), a.k.a. ICL, is a French public comprehensive cancer center providing oncology.This thesis addresses the problem of determining the work schedule, called medical planning, of oncologists for chemotherapy of oncology patients at ambulatory care units. A mixed integer programming (MIP) model is proposed for medical planning in order to best balance bed capacity requirements under capacity constraints of key resources such as beds and oncologists. The most salient feature of the MIP model is the explicit modeling of specific features of chemotherapy such as treatment protocols. The medical planning problem is proved to be NP-complete. A three-stage approach is proposed for determining good medical planning in reasonable computational time.
Read more
270

Ordonnancement cumulatif avec dépassements de capacité : Contrainte globale et décompositions / Cumulative scheduling with overloads of resource : Global constraint and decompositions

De Clercq, Alexis 29 October 2012 (has links)
La programmation par contraintes est une approche intéressante pour traiter des problèmes d’ordonnancement. En ordonnancement cumulatif, les activités sont définies par leur date de début, leur durée et la quantité de ressource nécessaire à leur exécution. La ressource totale disponible (la capacité) en chaque instant est fixe. La contrainte globale Cumulative modélise ce problème en programmation par contraintes. Dans de nombreux cas pratiques, la date limite de fin d’un projet est fixée et ne peut être retardée. Dans ce cas, il n’est pas toujours possible de trouver un ordonnancement des activités qui n’engendre aucun dépassement de la capacité en ressource. On peut alors tolérer de relâcher la contrainte de capacité, dans une limite raisonnable, pour obtenir une solution. Nous proposons une nouvelle contrainte globale : la contrainte SoftCumulative qui étend la contrainte Cumulative pour prendre en compte ces dépassements de capacité. Nous illustrons son pouvoir de modélisation sur plusieurs problèmes pratiques, et présentons différents algorithmes de filtrage. Nous adaptons notamment les algorithmes de balayage et d’Edge-Finding à la contrainte SoftCumulative. Nous montrons également que certains problèmes pratiques nécessitent d’imposer des violations de capacité pour satisfaire des règles métiers, modélisées par des contraintes additionnelles. Nous présentons une procédure de filtrage originale pour traiter ces dépassements imposés. Nous complétons notre étude par une approche par décomposition. Enfin, nous testons et validons nos différentes techniques de résolution par une série d’expériences. / Constraint programming is an interesting approach to solve scheduling problems. In cumulative scheduling, activities are defined by their starting date, their duration and the amount of resource necessary for their execution. The total available resource at each point in time (the capacity) is fixed. In constraint programming, the Cumulative global constraint models this problem. In several practical cases, the deadline of theproject is fixed and can not be delayed. In this case, it is not always possible to find a schedule that does not lead to an overload of the resource capacity. It can be tolerated to relax the capacity constraint, in a reasonable limit, to obtain a solution. We propose a new global constraint : the SoftCumulative constraint that extends the Cumulative constraint to handle these overloads. We illustrate its modeling power on several practical problems, and we present various filtering algorithms. In particular, we adapt the sweep and Edge-Finding algorithms to the SoftCumulative constraint. We also show that some practical problems require to impose overloads to satisfy business rules, modelled by additional constraints. We present an original filtering procedure to deal with these imposed overloads. We complete our study by an approach by decomposition. At last, we test and validate our different resolution techniques through a series of experiments.
Read more

Page generated in 0.0549 seconds