• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
621

Ordonnancement sur plates-formes hétérogènes de tâches partageant des données

Giersch, Arnaud 22 December 2004 (has links) (PDF)
Nous étudions des stratégies d'ordonnancement et d'équilibrage de charge pour des plates-formes hétérogènes distribuées. Notre problème est d'ordonnancer un ensemble de tâches indépendantes afin d'en réduire le temps total d'exécution. Ces tâches utilisent des données d'entrée qui peuvent être partagées : chaque tâche peut utiliser plusieurs données, et chaque donnée peut être utilisée par plusieurs tâches. Les tâches ont des durées d'exécution différentes, et les données ont des tailles différentes. Toute la difficulté est de réussir à placer sur un même processeur des tâches partageant des données, tout en conservant un bon équilibrage de la charge des différents processeurs. Notre étude comporte trois parties généralisant progressivement le problème. Nous nous limitons dans un premier temps au cas simple où il n'y a pas de partage de données, où les tailles des tâches et des données sont homogènes, et où la plate-forme est de type maître-esclave. Le partage des données est introduit dans la deuxième partie, ainsi que l'hétérogénéité pour les tailles des tâches et des données. Dans la dernière partie nous généralisons le modèle de plate-forme à un ensemble décentralisé de serveurs reliés entre eux par un réseau d'interconnexion quelconque. La complexité théorique du problème est étudiée. Pour les cas simples, des algorithmes calculant une solution optimale sont proposés, puis validés par des résultats expérimentaux avec une application scientifique réelle. Pour les cas plus complexes, nous proposons de nouvelles heuristiques pour résoudre le problème d'ordonnancement. Ces nouvelles heuristiques, ainsi que des heuristiques classiques comme min-min et sufferage, sont comparées entre elles à l'aide de nombreuses simulations. Nous montrons ainsi que nos nouvelles heuristiques réussissent à obtenir des performances aussi bonnes que les heuristiques classiques, tout en ayant une complexité algorithmique d'un ordre de grandeur plus faible.
622

Fermeture des fonctionnelles de diffusion et de l'élasticité linéaire pour la topologie de la Mosco-convergence

CAMAR-EDDINE, Mohamed 11 March 2002 (has links) (PDF)
L'objectif de cette thèse est l'identification de toutes les limites possibles, vis-à-vis de la Mosco-convergence, des suites de fonctionnelles de diffusion ou de l'élasticité linéaire isotrope. Bien que chaque élément de ces suites soit une fonctionnelle fortement locale, il est bien connu que, sans hypothèse de majoration uniforme sur les coefficients de diffusion, dans le cas scalaire, ou d'élasticité dans le cas vectoriel, la limite peut contenir un terme non-local et un terme étrange. Dans le cas vectoriel, il peut même arriver que la fonctionnelle limite dépende du second gradient du déplacement. D'un point de vue mécanique, les propriétés effectives d'un matériau composite peuvent radicalement différer de celles de ces différents constituants. Umberto Mosco a montré que toute limite d'une suite de fonctionnelles de diffusion est une forme de Dirichlet. La contribution des travaux présentés dans la première partie de cette thèse apporte une réponse positive au problème inverse. Nous montrons que toute forme de Dirichlet est limite d'une suite de fonctionnelles de diffusion. Une étape cruciale consiste en la construction explicite d'un matériau composite dont les propriétés effectives contiennent une interaction non-locale élémentaire. Puis, on obtient progressivement des interactions plus complexes, pour finalement atteindre toutes les formes de Dirichlet. La deuxième partie de nos travaux traite du cas vectoriel. On y démontre que la fermeture des fonctionnelles de l'élasticité linéaire isotrope est l'ensemble de toutes les formes quadratiques positives, objectives et semi-continues inférieurement. La preuve de ce résultat qui est loin d'être une simple généralisation du cas scalaire s'appuie, au départ, sur un résultat comparable au cas scalaire. Elle nécessite ensuite une approche complétement différente.
623

Schemas de communications globales dans les reseaux de processeurs : application a la grille torique

Michallon, Philippe 25 February 1994 (has links) (PDF)
Le but de cette these est d'etudier les schemas de communications les plus utilises, et plus particulierement la diffusion, pour en proposer des implementations efficaces sur des machines paralleles. Dans une premiere partie nous presentons les principales machines paralleles et les differents modes de communication mis en oeuvre dans ces machines. Cette partie illustre le probleme du choix du reseau d'interconnexion pour assembler les processeurs des ordinateurs massivement paralleles. La deuxieme partie est consacree a l'etude des schemas de communications globales dans les grilles toriques en mode store and forward. Dans un premier temps, on presente une nouvelle famille d'arbres de recouvrement disjoints de profondeur minimale, permettant de realiser la diffusion pipeline en temps optimal. Dans un deuxieme temps, on presente l'utilisation d'autres outils tels que les chemins hamiltoniens pour realiser l'echange total. Sur ce dernier type de communication, une etude en mode wormhole est presentee. L'algorithme est inspire du decoupage recursif de la grille torique. Il permet d'obtenir un nombre d'etapes plus faible qu'avec les algorithmes traditionnels en store and forward. Des resultats experimentaux sur machine MegaNode a 128 Transputers, permettent de valider notre etude theorique en mode store and forward. La troisieme partie est consacree a l'etude du recouvrement des communications par des calculs. L'idee consiste a anticiper les communications, en pipelinant l'envoi de petits messages. Mais la taille des messages a envoyer n'est pas facile a calculer. Nous illustrons ce probleme sur l'exemple du produit matrice-vecteur.
624

Complexite de l'evaluation parallele des circuits arithmetiques

Revol, Nathalie 31 August 1994 (has links) (PDF)
Les algorithmes d'evaluation parallele des expressions et des circuits arithmetiques peuvent etre vus comme des extracteurs du parallelisme intrinseque contenu dans les programmes sequentiels, parallelisme qui depasse celui qui peut etre lu sur le graphe de precedence et qui tient a la semantique des operateurs utilises. La connaissance des proprietes algebriques, comme l'associativite ou la distributivite, permet une reorganisation des calculs qui n'affecte pas les resultats. Plus la structure algebrique utilisee sera riche en proprietes, plus il sera possible d'en tirer parti pour ameliorer les algorithmes d'evaluation. Generalisant les algorithmes concus pour les semi-anneaux, nous proposons un algorithme qui ameliore les majorations precedemment connues pour la contraction de circuits arithmetiques dans un treillis. Des simulations de cet algorithme ont permis de mettre en evidence ses qualites de << predicteur automatique de complexite >>. Reorganiser explicitement les calculs a l'aide de ces algorithmes, c'est-a-dire realiser un compilateur complet, permet de comparer la realite des algorithmes paralleles sur machines a memoire distribuee et la puissance des algorithmes theoriques. Un prototype a ete realise, base sur une simplification/extension du langage C. Enfin, l'interet de ces techniques dans le domaine de la parallelisation des nids de boucles, pour guider la recherche de reductions cachees dans ces nids, semble prometteuse, parce qu'elle est peu couteuse a mettre en oeuvre et fournit des informations de qualite. En cela, les recherches en algorithmique parallele theorique rejoignent les preoccupations de la parallelisation effective.
625

Etude algébrique et algorithmique des singularités des équations différentielles implicites

Hubert, Evelyne 23 April 1997 (has links) (PDF)
L'ensemble des solutions d'une équation différentielle algébrique, ordinaire ou aux dérivées partielles se scinde entre la solution générale et les solutions singulières. Ces notions peuvent être définies de manière rigoureuse dans le cadre de l'algèbre différentielle, une théorie fondée par J.F.Ritt. Des travaux récents dans ce domaine ont permis de mettre au point des algorithmes effectifs pour déterminer la trivialité d'un système différentiel en effectuant une première décomposition. On peut ainsi déterminer si une équation différentielle admet des solutions singulières et quelles sont elles. Les décompositions obtenues ne sont néanmoins pas minimales. Nous proposons un algorithme, qui évite les factorisations, pour éliminer les composantes redondantes. En termes analytiques, il s'agit de distinguer les solutions singulières essentielles, qui sont enveloppes de la solution générale, des solutions singulières particulières, qui sont limites de solutions essentielles. la solution générale, des solutions singulières particulières, qui sont limites de solutions essentielles. Au c\oe ur de cette détermination se tient le Théorème des petites puissances, la réalisation effective étant soutenue par l'algorithme Rosenfeld-Gröbner. Nous présentons de plus un algorithme et quelques critères qui permettent de calculer les bases différentielles des composantes essentielles. De telles bases permettent une analyse des points singuliers ainsi que des heuristiques d'intégration.
626

Vérification des propriétés temporelles des programmes parallèles

Mateescu, Radu 10 April 1998 (has links) (PDF)
La vérification formelle est indispensable pour assurer la fiabilité des applications critiques comme les protocoles de communication et les systèmes répartis. La technique de vérification basée sur les modèles (model-checking) consiste à traduire l'application vers un système de transitions étiquetées (STE), sur lequel les propriétés attendues, exprimées en logique temporelle, sont vérifiées à l'aide d'outils appelés évaluateurs (model-checkers). Cependant, les logiques temporelles "classiques", définies sur un vocabulaire d'actions atomiques, ne sont pas adaptées aux langages de description comme LOTOS, dont les actions contiennent des valeurs typées. Cette thèse définit un formalisme appelé XTL (eXecutable Temporal Language) qui permet d'exprimer des propriétés temporelles portant sur les données du programme à vérifier. XTL est basé sur une extension du mu-calcul modal avec des variables typées. Les valeurs contenues dans le STE, extraites à l'aide d'opérateurs modaux étendus, peuvent être passées en paramètre aux opérateurs de point fixe ou manipulées à l'aide de constructions d'inspiration fonctionnelle comme "let", "if-then-else", "case", etc. Les propriétés portant sur des séquences d'actions du programme sont décrites succinctement au moyen d'expressions régulières. Des méta-opérateurs spéciaux permettent l'évaluation des formules sur un STE et l'expression de propriétés temporelles non-standard par exploration de la relation de transition. La sémantique de XTL est formellement définie et des algorithmes efficaces sont proposés pour évaluer des formules temporelles XTL sur des modèles STEs. Un évaluateur XTL est développé et utilisé avec succès pour la validation d'applications industrielles comme le protocole BRP développé par Philips et la couche liaison du bus série IEEE-1394 ("FireWire").
627

Equations aux dérivées partielles appliquées à la restauration et à l'agrandissement des images

Belahmidi, Abdelmounim 05 June 2003 (has links) (PDF)
Dans ce travail, nous avons étudié deux problèmes fondamentaux de la vision : la restauration d'image dans la première partie, puis dans la deuxième partie l'agrandissement d' image. L'introduction de la première partie est une présentation des méthodes mathématiques de restauration d'image. En suite, nous présentons les différents travaux théoriques établis sur le modèle de Malik et Perona et son lien avec la doctrine de détection de bord. Ceci nous conduit au choix du modèle que nous étudions dans la suite. Pour ce modèle nous prouvons en petits temps et en toutes dimensions, existence et unicité d'une solution classique. Ensuite, en dimensions un et deux, nous construisons un schéma numérique dont nous prouvons la convergence vers une solution faible. Nous clôturons cette partie par illustrer quelques exemples d'application du modéle. Dans la deuxième partie nous abordons le problème de l'agrandissement des images. Après avoir exposé les méthodes qui existent dans la littérature, nous proposons une approche basée sur l'analyse géométrique de l'image. Nous utilisons ensuite la théorie des solutions de viscosité pour prouver que le modèle proposé est bien posé. Enfin nous discutons de la résolution numérique du modèle et nous présentons quelques exemples d'applications.
628

Modèles simplifiés d'interaction fluide-structure

Fernandez, Miguel Angel 18 December 2001 (has links) (PDF)
Dans cette thèse nous nous sommes intéressés à la stabilité linéaire d'un système mécanique en interaction fluide-structure. Nous avons mis au point une méthode de linéarisation permettant de justifier mathématiquement les conditions d'interface de transpiration, ainsi que de définir un problème linéaire d'interaction fluide-structure avec ce type de conditions. Cette technique a été ensuite appliquée à la démarche du ``Principe de linéarisation''. L'analyse de stabilité linéaire se réduit alors à l'étude des valeurs propres d'un problème spectral couplé. Ces valeurs propres sont définies à partir des valeurs caractéristiques d'un opérateur compact spécifique. Nous proposons un schéma de discrétisation du problème spectral, conduisant à un problème généralisé aux valeurs propres. La calcul numérique des valeurs propres de plus petite partie réelle est effectué par un algorithme combinant une méthode IRAM (Implicit Restarted Arnoldi Method) et la transformation de Cayley généralisée. Des expériences numériques mettent en évidence la robustesse de l'approche proposée, linéarisation-transpiration, pour la détection d'instabilités de systèmes en interaction fluide-structure.
629

Cadre conceptuel pour l'élaboration d'indicateurs de collaboration à partir des traces d'activité

Gendron, Élise 13 December 2010 (has links) (PDF)
L'objectif général de ces travaux de recherche vise à faciliter les activités collaboratives médiées par un progiciel de gestion de connaissances. Plus précisément, nous souhaitons améliorer les activités collaboratives par la mise en place d'indicateurs. Nous entendons par là faciliter le déroulement ou des processus collaboratifs mis en œuvre et soutenir les réseaux sociaux au sein des activités. Pour cela, nous proposons d'observer l'activité des utilisateurs en proposant des indicateurs de collaboration calculés à partir des traces numériques d'activités. Le premier objectif de cette thèse est d'identifier ce que sont les indicateurs de collaboration en déterminant les informations qui les définissent. Pour pouvoir exploiter au mieux les indicateurs, nous proposons une classification composée de six grandes caractéristiques indépendantes qui correspondent aux éléments fondamentaux pour l'élaboration d'indicateurs de collaboration. Cette classification nous fournit des indications pour construire, modéliser et mettre en place un indicateur dans un environnement collaboratif tel que ceux que nous étudions dans le cadre du projet. De plus, cette thèse présente un framework de gestion d'indicateurs basé sur une approche centrée utilisateur. En effet, en observant l'utilisation actuelle des indicateurs dans des plateformes de gestion de contenus, nous nous sommes rendus-compte que le processus d'élaboration et d'acceptation était long et complexe. Par conséquent, lorsqu'un indicateur est en place dans un environnement et qu'il fonctionne correctement, il est intéressant de le réutiliser dans d'autres contextes. Cette réutilisation peut se faire intégralement ou partiellement. Nous proposons donc une modélisation qui prend en compte les problématiques de réutilisation ainsi que de personnalisation et d'adaptation des indicateurs en fonction des utilisateurs et/ou du contexte de l'activité. Dans notre approche, les indicateurs sont calculés à partir des traces d'activités laissées par les utilisateurs de la plate-forme. Pour faciliter la mise en place de ces indicateurs, nous avons développé un outil informatique qui va permettre d'assister les utilisateurs dans l'élaboration d'indicateurs : GINDIC (Générateur d'INDICateurs). Avec cet outil, les concepteurs vont pouvoir construire des indicateurs : leur définition, les calculs effectués sur les traces pour obtenir la valeur de l'indicateur et leur visualisation. Nous avons choisi de gérer les indicateurs à l'aide d'un système à base de règles, où les traces sont des faits, tandis que les processus de calcul des indicateurs sont des règles. Cette thèse s'est effectuée dans le cadre d'un projet ANR intitulé ProCoGeC (Progiciel Collaboratif de Gestion de Connaissances). Un langage à base de règles a été confronté aux besoins de ce projet. Il nous permet de décrire les processus de construction de l'ensemble des indicateurs issus d'un recueil des besoins. De plus, une expérimentation de l'outil a été réalisée auprès d'un des partenaires industriels du projet, client d'une plate-forme collaborative de gestion de contenus.
630

LaPIe : Communications Collectives adaptées aux Grilles de Calcul

Barchet-Estefanel, Luiz Angelo 02 December 2005 (has links) (PDF)
Avec la démocratisation des environnements du type grappe et grille de calcul, la performance des opérations de communication collective devient un aspect critique dans le coût total des applications parallèles. Fortement influencées par l'hétérogénéité des ressources, ces opérations dépendent à la fois des paramètres de communication des réseaux et des stratégies de communication employées. Cette thèse a pour objet d'étude l'optimisation des communications collectives selon l'approche préconisée par Karonis, où les différentes grappes de calcul sont organisées en plusieurs couches de communication de manière à minimiser le temps total de communication. Pour cela, nous proposons des modèles de communications qui permettent l'optimisation des communications collectives à travers l'ordonnancement hiérarchique des communications et la prédiction des performances. Dans un premier temps, nous démontrons que l'utilisation du modèle de coût pLogP permet la modélisation des performances de communications collectives dans des environnements homogènes. Ces modèles de performance ont été validés expérimentalement sur différentes plates-formes réseaux (Fast Ethernet, Giga Ethernet et Myrinet). Parallèlement, nous étudions la découverte automatique de la topologie du réseau. En effet, la décomposition de l'environnement de grille en îlots d'homogénéité permettrait la réduction de la complexité des optimisations, notamment dans ce qui concerne la modélisation des performances et l'obtention des caractéristiques du réseau. Notre principale contribution a été de proposer certaines heuristiques d'ordonnancement des communications qui tiennent compte de l'organisation hiérarchique de la grille. Ces heuristiques, adaptées aux différents patrons de communication collective, utilisent les techniques étudiées précédemment (dont la découverte des îlots d'homogénéité et la modélisation des performances) afin de réduire la complexité de l'optimisation des communications et de minimiser le temps total de communication.

Page generated in 0.0632 seconds