• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 193
  • 64
  • 21
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 284
  • 62
  • 61
  • 52
  • 49
  • 49
  • 47
  • 41
  • 28
  • 27
  • 26
  • 25
  • 24
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Sur une méthode de routage des messages dans les architectures parallèles à mémoire distribuée : application à la grille torique

Hadim, Mustapha Boukhalfa 30 June 1997 (has links) (PDF)
Dans les architectures parallèles à mémoire distribuée, la communication entre processus est un des facteurs de performance les plus importants pour les applications. Le système qui en a la charge, i.e, le noyau de communication, doit intégrer une fonctionnalité essentielle pour de telles architectures : le routage des messages. Cette fonctionnalité est assurée par une composante spécifique du noyau de communication: le noyau de routage, dont le rôle est l'acheminement d'un message d'un noeud émetteur vers un noeud récepteur. L'acheminement des messages nécessite une stratégie de routage qui spécifie les chemins de communication pour toute paire de processeurs (source, destination) du réseau d'interconnexion. Une telle stratégie de routage doit satisfaire d'une part, des critères de correction et d'autres part, des critères d'efficacité. Le but de cette thèse est la conception de stratégies de routage pour les réseaux de processeurs qui satisfont à la fois, les critères de correction et les critères d'efficacité. Nous proposons une méthode de conception de stratégies de routage, permettant par une démarche incrément-ale, de satisfaire les deux types de critère: la communication multi-niveaux et le schéma de communication primaire associé. Pour mesurer l'efficacité de la méthode, nous l'appliquons à un réseau particulier : la grille torique. Les différents algorithmes de routage obtenus sont corrects et très efficaces. Nous proposons également une technique d'implantation de notre méthode de routage, permettant le calcul des tables de routage directement sur le réseau de processeurs. Cette technique permet ainsi l'obtention d'un système autoconstructif.
102

A general filter for stretched-grid models

Surcel, Dorina 10 1900 (has links) (PDF)
Un modèle climatique mondial qui utilise une grille à résolution variable constitue une méthode moderne et efficace pour la modélisation régionale, principalement parce qu'elle évite le problème de pilotage aux frontières latérales caractéristique aux modèles sur aire limitée. L'approche de grille étirée s'inscrit parmi les méthodes de réduction d'échelle dynamique (dynamical downscaling) qui permettent naturellement des interactions réciproques entre les échelles régionales et globales du mouvement. Une augmentation de la résolution seulement dans une région spécifique augmente la précision du modèle, gardant en même temps les coûts de calcul inférieurs aux modèles mondiaux qui utilisent une haute résolution uniforme sur toute la grille. Cependant, l'étirement de la grille conduit à des problèmes liés à l'anisotropie de la grille dans les zones adjacentes à la zone de haute résolution uniforme. Dans le cadre de cette thèse, un filtre numérique construit à l'aide d'un produit de convolution a été développé pour répondre aux questions associées à l'étirement et à l'anisotropie de la grille de calcul. La caractéristique principale de ce filtre est d'enlever toutes les échelles inférieures à une échelle prescrite par l'utilisateur. L'efficacité et la précision du filtrage représentent un compromis acceptable entre la réponse de filtrage et les coûts de calcul impliqués. Cette approche a été testée sur des grilles étirées unidimensionnelles et bidimensionnelles cartésiennes. Les résultats ont montré que le filtre est efficace même pour une distance de troncature limitée et que la réponse de filtrage est presque isotrope. Le filtre initialement appliqué sur une grille cartésienne a été adapté dans un deuxième temps pour la grille polaire. Cette étape constitue une démarche nécessaire pour passer ensuite à une grille sphérique latitude-longitude. Les deux grilles, polaire et sphérique, rencontrent le même « problème du pôle » causé par la convergence des méridiens vers les pôles. Des détails sur l'adaptation du filtre pour la grille polaire, ainsi que son application sur une grille polaire uniforme et sur une grille polaire étirée sont présentés. Dans cette partie de la thèse, la performance du filtre près des pôles et dans les régions d'étirement a été testée. Les résultats ont montré que l'opérateur de filtrage est capable d'enlever l'excès de résolution dans les régions polaires, avec des coûts de calculs qui sont inférieurs aux filtres polaires usuels. Le filtre a bien fonctionné en dehors de la région d'intérêt où les échelles qui ne sont pas supportées par la grille ont été enlevées sans déformation ou atténuation des grandes échelles. L'opérateur de filtrage développé a été appliqué sur une grille polaire étirée pour des variables scalaires et pour des vecteurs. Cette étude a montré des résultats prometteurs, la réponse de filtrage pouvant être optimisée pour différentes fonctions-test ainsi que pour différents types de bruit qui devraient être enlevés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : filtrage numérique, produit de convolution, fonction de pondération, grille étirée, anisotropie.
103

Espaces Collaboratifs Ubiquitaires sur une infrastructure à ressources distribuées

Dugenie, Pascal 07 December 2007 (has links) (PDF)
Les réflexions menées autour de l'idée d'intelligence collective (ou collaborative) postulent que celle-ci émerge d'un système en interaction dont les dispositifs techniques, sociaux et sémiotiques sont fortement imbriqués ( PIERRE LEVY , 1994). Pour relever ce défi, cette thèse propose de conjuguer deux concepts innovants. D'abord celui d'espace collaboratif ubiquitaire pour catalyser les interactions entre groupes d'agents et services. Ensuite celui d'infrastructure à ressources distribuées pour coordonner, de façon dynamique, les ressources et la sécurité en fonction de critères de qualité de service souhaités par les groupes d'agents. Un espace collaboratif ubiquitaire intègre des processus artificiels pour réaliser du traitement intensif (simulations, fouille de données, etc.) et des interfaces multimodales, incluant la visualisation partagée en mode synchrone ou asynchrone, pour les interactions entre humains. En termes d'infrastructure, cette thèse explique pourquoi le WEB n'apporte pas une réponse adaptée à la problématique de l'intelligence collective et pourquoi nous nous sommes tournés vers GRID (GRILLE DE RESSOURCES INFORMATIQUES DISTRIBUÉES). Notamment, une propriété singulière de GRID est le service à état qui permet de coordonner des ressources distribuées de façon dynamique et sécurisée. Pour mettre ceci en évidence, nous avons développé le modèle d'architecture AGORA qui propose d'utiliser GRID pour déployer des espaces collaboratifs ubiquitaires. De cette façon, les groupes d'agents humains et artificiels s'auto-organisent dans un espace immanent où les ressources sont délivrées dynamiquement par l'infrastructure. Validé par une méthode empirique, ce modèle a été l'objet d'une élaboration itérative fondée sur des retours d'expérimentation avec des communautés d'utilisateurs. Au vu de l'avancement de nos investigations, une architecture GRID couplée avec des concepts propres aux systèmes multi-agents présente les caractéristiques nécessaires pour déployer AGORA à grande échelle avec une utilisation rationnelle des ressources, tout en offrant des garanties de sécurité et de haute disponibilité.
104

Contribution aux infrastructures de calcul global: délégation inter plates-formes, intégration de services standards et application à la physique des hautes énergies

Lodygensky, Oleg 21 September 2006 (has links) (PDF)
La généralisation et les puissances aujourd'hui disponibles des ressources informatiques, ordinateurs, espaces de stockages, réseaux, permettent d'imaginer de nouvelles méthodes de travail ou de loisir, inconcevables, il y a encore peu. Les ordinateurs monolithiques centralisés, ont peu à peu laissé place à des architectures distribuées "client/serveur" qui se trouvent elles mêmes concurencées par de nouvelles organisations de systèmes distribués, les systèmes "pair à pair". Cette migration n'est pas le fait de spécialistes; les utilisateurs les moins avertis utilisent tous les jours ces nouvelles technologies, que ce soit pour échanger des courriers électroniques, à des fins commerciales à travers le "e-commerce" sur le Web, ou encore pour échanger des fichiers, hors de toute infrastructure, "d'égal à égal".<br />Les mondes du commerce, de l'industrie et de la recherche, ont bien compris les avantages et les enjeux de cette révolution et investissent massivement dans la recherche et le développement autour de ces nouvelles technologies, que l'on appelle les "grilles", qui désignent des ressources informatiques globales et qui ouvrent une nouvelle approche. Une des disciplines autour des grilles concerne le calcul. Elle est l'objet des travaux présentés ici.<br /><br />Sur le campus de l'Université Paris-Sud, à Orsay, une synergie est née entre le Laboratoire de Recherche en Informatique (LRI) d'une part, et le Laboratoire de l'Accélérateur Linéaire (LAL), d'autre part, afin de mener à bien, ensemble, des travaux sur les infrastructures de grille qui ouvrent de nouvelles voies d'investigation pour le premier et de nouvelles méthodes de travail pour le second.<br /><br />Les travaux présentés dans ce manuscrit sont le résultat de cette collaboration pluridisciplinaire. Ils se sont basés sur XtremWeb, la plate-forme de recherche et de production de calcul global développée au LRI. Nous commençons par présenter un état de l'art des systèmes distribués à grande Èchelle, ses principes fondamentaux, son architecture basée sur les services.<br />Puis nous introduisons XtremWeb et détaillons les modifications que nous avons dû apporter, tant au niveau de son architecture que de son implémentation, afin de mieux répondre aux exigences et aux besoins de ce type de plate-forme. Nous présentons ensuite deux études autour de cette plate-forme permettant de généraliser l'utilisation de ressources inter grilles, d'une part, et d'utiliser sur une grille des services qui n'ont pas été prévus à cette fin, d'autre part. Enfin, nous présentons l'utilisation, les problèmes à résoudre et les avantages à tirer de notre plate-forme par la communauté de recherche en physique des hautes énergies, grande consommatrice de ressources informatiques.
105

Modélisation du bruit à large bande de soufflantes de turboréacteurs.

Reboul, Gabriel 12 November 2010 (has links) (PDF)
Cette thèse propose différentes méthodologies de calcul du bruit à large bande générée par l'interaction rotor-stator d'une soufflante de turboréacteur et ce de la génération des sources acoustiques jusqu'au rayonnement en champ lointain. En premier lieu, le mécanisme d'interaction rotor-stator est étudié à travers une turbulence de grille homogène et isotrope (THI) impactant un profil isolé. Le cas de l'interaction rotor-stator en milieu guidé est ensuite traité et appliqué à une maquette de compresseur axial. Enfin, la dernière partie traite de la simulation du rayonnement aval en sortie de conduit. Dans chacune de ces parties, des approches analytiques et numériques sont proposées. Les méthodes analytiques permettentune prévision rapide du problème simplifié, et les méthodes numériques permettent de leverles hypothèses au prix d'un temps de calcul plus long.Le modèle d'Amiet est mis en œuvre pour simuler le bruit d'interaction THI-profil àtravers une expérience en soufflerie anéchoïque. Ce modèle simplifiant le profil en une plaque plane non portante, une approche numérique est également mise en place. La convection de perturbations de vitesse incidentes synthétisant une THI et impactant un profil isolé est simulée à l'aide d'un code CAA (Computational AeroAcoustics) résolvant les équations d'Euler en deux dimensions. Les différences de rayonnement entre une plaque plane et un profil cambré épais observées expérimentalement sont en partie retrouvées. Une simulation plus avancée d'un calcul LES (Large Eddy Simulation) 3D est également abordée.Dans la deuxième partie du mémoire, le modèle d'Amiet est étendu au problème de l'interaction rotor-stator en conduit. Différentes formulations sont proposées et discutées. Elles sont appliquées au cas d'un banc d'essai du DLR (centre de recherche aérospatiale allemand) avec des données d'entrée provenant d'un calcul RANS (Reynolds Averaged Navier-Stockes) ou bien directement de mesures. Les prévisions acoustiques ainsi obtenues sont satisfaisantes (+/-2 dB avec des données d'entrée expérimentales) compte tenu de la relative simplicité des modèles. Un calcul LES est exploité pour fournir directement les sources de bruit (fluctuations de pression pariétale). Les spectres obtenus montrent des tendances similaires à ceux issus du modèle d'Amiet malgré certains phénomènes non-physiques encore présents au niveau du calcul LES.Pour terminer, le rayonnement en champ libre est traité. Une manière simple et rapidede résoudre ce problème consiste à utiliser une intégrale de Kirchhoff, en supposant unécoulement moyen uniforme. Une comparaison avec une solution analytique (technique deWiener-Hopf) exacte pour les mêmes conditions montre que le rayonnement du bruit largebande est bien prévu par la méthode de Kirchhoff pour des angles de rayonnement inférieursà 90°. Cependant, pour prendre en compte la géométrie d'éjection de la nacelle et l'effet d'un écoulement hétérogène (cisaillement) sur le rayonnement en champ libre, une approche numérique est mise en place. Une technique permettant de simuler le caractère aléatoire des sources turbulentes ainsi que de satisfaire l'hypothèse de modes acoustiques incohérents est développée. Cette méthodologie est appliquée au cas simple du conduit semi-infini, puis à une tuyère réaliste. Les calculs sont validés à l'aide de solutions analytiques sur les configurations simplifiées. Une analyse critique des instabilités créées dans la couche de cisaillement et de leur influence sur les formulations intégrales couplées au calcul Euler pour obtenir le bruit en champ lointain complète ce dernier chapitre.
106

Transistors mono-électroniques double-grille : modélisation, conception & évaluation d'architectures logiques / Double-gate single electron transistor : modeling, design & evaluation of logic architectures

Bounouar, Mohamed Amine January 2013 (has links)
Dans les années à venir, l'industrie de la microélectronique doit développer de nouvelles filières technologiques qui pourront devenir des successeurs ou des compléments de la technologie CMOS ultime. Parmi ces technologies émergentes relevant du domaine « Beyond CMOS », ce travail de recherche porte sur les transistors mono-électroniques (SET) dont le fonctionnement est basé sur la quantification de la charge électrique, le transport quantique et la répulsion Coulombienne. Les SETs doivent être étudiés à trois niveaux : composants, circuits et système. Ces nouveaux composants, utilisent à leur profit le phénomène dit de blocage de Coulomb permettant le transit des électrons de manière séquentielle, afin de contrôler très précisément le courant véhiculé. En effet, l'émergence du caractère granulaire de la charge électrique dans le transport des électrons par effet tunnel, permet d'envisager la réalisation de remplaçants potentiels des transistors ou de cellules mémoire à haute densité d'intégration, basse consommation. L'objectif principal de ce travail de thèse est d'explorer et d'évaluer le potentiel des transistors mono-électroniques double-grille métalliques (DG-SETs) pour les circuits logiques numériques. De ce fait, les travaux de recherches proposés sont divisés en trois parties : i) le développement des outils de simulation et tout particulièrement un modèle analytique de DG-SET ; ii) la conception de circuits numériques à base de DG-SETs dans une approche « cellules standards » ; et iii) l'exploration d'architectures logiques versatiles à base de DG-SETs en exploitant la double-grille du dispositif. Un modèle analytique pour les DG-SETs métalliques fonctionnant à température ambiante et au-delà est présenté. Ce modèle est basé sur des paramètres physiques et géométriques et implémenté en langage Verilog-A. Il est utilisable pour la conception de circuits analogiques ou numériques hybrides SET-CMOS. A l'aide de cet outil, nous avons conçu, simulé et évalué les performances de circuits logiques à base de DG-SETs afin de mettre en avant leur utilisation dans les futurs circuits ULSI. Une bibliothèque de cellules logiques, à base de DG-SETs, fonctionnant à haute température est présentée. Des résultats remarquables ont été atteints notamment en termes de consommation d'énergie. De plus, des architectures logiques telles que les blocs élémentaires pour le calcul (ALU, SRAM, etc.) ont été conçues entièrement à base de DG-SETs. La flexibilité offerte par la seconde grille du DG-SET a permis de concevoir une nouvelle famille de circuits logiques flexibles à base de portes de transmission. Une réduction du nombre de transistors par fonction et de consommation a été atteinte. Enfin, des analyses Monte-Carlo sont abordées afin de déterminer la robustesse des circuits logiques conçus à l'égard des dispersions technologiques.
107

Du cluster à la grille sous l'angle de la performance

Monteil, Thierry 07 December 2010 (has links) (PDF)
Ce mémoire aborde différents travaux sur les couches logicielles nécessaires à l'utilisation d'une plate-forme distribuée pour mettre en place de nouveaux usages. Il sagit danalyser la performance au sens large que ce soit la performance d'exécution d'applications parallèles, de programmation parallèle, de consommation énergétique ou de coût financier. Les contributions concernent les outils et les algorithmes d'ordonnancement (qualité de service, impact du réseau, coût économique), la simulation fine des ressources informatiques ainsi que la gestion du cSur de réseau sous des contraintes de qualité de service et de consommation énergétique. Les environnements de programmation parallèle, la gestion de performance dans un environnement autonomique tout comme la gridification et l'analyse de codes applicatifs ont également été abordés.
108

Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancement

Bouguerra, Mohamed slim 02 April 2012 (has links) (PDF)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs.
109

Exploitation d'infrastructures hétérogènes de calcul distribué pour la simulation Monte-Carlo dans le domaine médical

Pop, Sorina 21 October 2013 (has links) (PDF)
Les applications Monte-Carlo sont facilement parallélisables, mais une parallélisation efficace sur des grilles de calcul est difficile à réaliser. Des stratégies avancées d'ordonnancement et de parallélisation sont nécessaires pour faire face aux taux d'erreur élevés et à l'hétérogénéité des ressources sur des architectures distribuées. En outre, la fusion des résultats partiels est également une étape critique. Dans ce contexte, l'objectif principal de notre travail est de proposer de nouvelles stratégies pour une exécution plus rapide et plus fiable des applications Monte-Carlo sur des grilles de calcul. Ces stratégies concernent à la fois le phase de calcul et de fusion des applications Monte-Carlo et visent à être utilisées en production. Dans cette thèse, nous introduisons une approche de parallélisation basée sur l'emploi des tâches pilotes et sur un nouvel algorithme de partitionnement dynamique. Les résultats obtenus en production sur l'infrastructure de grille européenne (EGI) en utilisant l'application GATE montrent que l'utilisation des tâches pilotes apporte une forte amélioration par rapport au système d'ordonnancement classique et que l'algorithme de partitionnement dynamique proposé résout le problème d'équilibrage de charge des applications Monte-Carlo sur des systèmes distribués hétérogènes. Puisque toutes les tâches finissent presque simultanément, notre méthode peut être considérée comme optimale à la fois en termes d'utilisation des ressources et de temps nécessaire pour obtenir le résultat final (makespan). Nous proposons également des stratégies de fusion avancées avec plusieurs tâches de fusion. Une stratégie utilisant des sauvegardes intermédiaires de résultat (checkpointing) est utilisée pour permettre la fusion incrémentale à partir des résultats partiels et pour améliorer la fiabilité. Un modèle est proposé pour analyser le comportement de la plateforme complète et aider à régler ses paramètres. Les résultats expérimentaux montrent que le modèle correspond à la réalité avec une erreur relative de 10% maximum, que l'utilisation de plusieurs tâches de fusion parallèles réduit le temps d'exécution total de 40% en moyenne, que la stratégie utilisant des sauvegardes intermédiaires permet la réalisation de très longues simulations sans pénaliser le makespan. Pour évaluer notre équilibrage de charge et les stratégies de fusion, nous mettons en œuvre une simulation de bout-en-bout de la plateforme décrite ci-dessus. La simulation est réalisée en utilisant l'environnement de simulation SimGrid. Les makespan réels et simulés sont cohérents, et les conclusions tirées en production sur l'influence des paramètres tels que la fréquence des sauvegardes intermédiaires et le nombre de tâches de fusion sont également valables en simulation. La simulation ouvre ainsi la porte à des études paramétriques plus approfondies.
110

Etude de l'influence des contraintes appliquées sur l'évolution des propriétés diélectriques des couches minces isolantes dans les composants semi-conducteurs de puissance

Baudon, Sylvain 12 November 2013 (has links) (PDF)
La fiabilité des chaînes de conversion électrique dans les systèmes embarqués est un enjeu critique dans les applications où interviennent des contraintes liées à la sécurité des personnes ou à des aspects économiques non-négligeables. La maintenance préventive permet de surveiller le bon fonctionnement des maillons faibles de la chaîne de conversion, tels que les composants de puissance à semiconducteurs (IGBT à grille en tranchée) présents dans les convertisseurs d'électronique de puissance utilisés dans le domaine du transport. L'objectif de ce travail est d'évaluer la possibilité d'utiliser l'état de l'oxyde de grille comme indicateur de l'état opérationnel du composant, lorsque celui-ci est soumis à des contraintes thermo-électriques représentatives de son fonctionnement. Les résultats obtenus par couplage de différentes techniques non destructives (méthode capacité-tension et méthode de mesure des charges d'espace) mettent en évidence des évolutions de l'oxyde liées à des effets causés par les charges électriques dans les zones de la structure les plus contraintes.L'étude et la modélisation des phénomènes diélectriques dans les couches minces d'oxyde nécessitent de nouvelles méthodes de mesure de la charge électrique à haute résolution spatiale. Dans le présent travail, nous démontrons, à travers des simulations et des résultats expérimentaux, l'applicabilité d'une de ces techniques de caractérisation, " la méthode de l'impulsion thermique ", sur ce type de structures de la microélectronique. Sa sensibilité aux fines zones de champ électrique localisées au niveau des interfaces est en particulier mise en évidence, en ouvrant des voies vers la mise au point de nouvelles techniques à haute résolution spatiale, basées sur des stimuli thermiques.

Page generated in 0.0229 seconds