• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Modélisation du comportement cyclique alterné du béton armé. Application à divers essais statiques de poteaux

Benmansour, Mohammed Bénali 06 January 1997 (has links) (PDF)
Le comportement des structures sous certains types d'actions tels que les séismes nécessite une bonne connaissance du comportement des matériaux composants sous des charges cycliques. Dans cette étude, le modèle de comportement cyclique du béton est basé sur la théorie de l'endommagement, sur la mécanique des milieux continus et la thermodynamique des processus irréversibles. Ce modèle tient compte des déformations résiduelles et de la perte de raideur due à la fissuration. Dans son application, les effets biaxiaux et le fluage ne sont pas pris en considération. Le comportement des armatures est considéré élasto - plastique parfait. Une amélioration importante pour l'application du modèle a été de définir une méthode d'identification des paramètres à partir des données physiques obtenues dans les essais classiques de contrôle du béton et d'une expression analytique de la loi de comportement d'usage courant. Le modèle uniaxial est introduit dans un code numérique pour structures planes. La structure à analyser est découpée en plusieurs éléments de poutres. Chaque élément est représenté par un certain nombre de sections. La section est divisée en plusieurs fibres soumises à une sollicitation uniaxiale. Chaque fibre suit sa propre histoire conforme au modèle ci-dessus, mais sa déformation respecte la loi de planéité de la section considérée. Des essais de validation ont été réalisés sur des éprouvettes cylindriques sous charges cycliques de compression, sur des poteaux courts sous compression - traction cyclique et sur des poteaux sous flexion alternée et effort normal constant. La comparaison modèle - essais apporte des résultats encourageants pour l'analyse des structures en béton armé sous charges cycliques.
502

Approche du dimensionnement des structures en béton armé par le calcul à la rupture

Averbuch, Daniel 05 July 1996 (has links) (PDF)
Ce travail est destiné à mettre au point une méthode de dimensionnement à l'état limite ultime des structures en béton armé fondée sur le calcul à la rupture. La méthode propose une analyse bidimensionnelle, en contrainte plane, dans laquelle les armatures sont représentées comme des milieux continus unidimensionnels plongés dans le béton considéré comme un milieu continu bidimensionnel (modélisation mixte). Appliquant la méthode à la prise en compte de l'effort tranchant dans le dimensionnement des poutres en flexion, on propose de modéliser le renforcement transversal des poutres par la procédure d'homogénéisation en calcul à la rupture, tout en conservant une modélisation discrète des armatures longitudinales. Ayant choisi des critères de résistance simplifiés pour le béton et les armatures, on montre ensuite les limites d'une approche unidimensionnelle du dimensionnement des poutres par le calcul à la rupture. On développe donc une approche numérique fondée sur la programmation linéaire dans le cadre de la méthode des éléments finis. Cette dernière approche permet ainsi d'évaluer l'influence de l'effort tranchant sur la résistance des poutres et de déterminer le domaine de validité de l'approche unidimensionnelle proposée précédemment. La modélisation et l'approche numérique sont finalement validées par comparaison avec des résultats expérimentaux.
503

Conception et validation d'un processeur programmable de traitement du signal à faible consommation et à faible empreinte silicium : application à la vidéo HD sur téléphone mobile

Thevenin, Mathieu 16 October 2009 (has links) (PDF)
Les capteurs CMOS sont de plus en plus présents dans les produits de grande consommation comme les téléphones portables. Les images issues de ces capteurs nécessitent divers traitements numériques avant d'être affichées. Aujourd'hui, seuls des composants dédiés sont utilisés pour maintenir un niveau de consom- mation électrique faible. Toutefois leur flexibilité est fortement limitée et elle ne permet pas l'intégration de nouveaux algorithmes de traitement d'image. Ce manuscrit présente la conception et la validation de l'archi- tecture de calcul eISP entièrement programmable et originale capable de supporter la vidéo HD 1080p qui sera intégrée dans les futures générations de téléphones portables.
504

Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluation

Carpen-Amarie, Alexandra 15 December 2011 (has links) (PDF)
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour le stockage et la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité, fiabilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données pour le Cloud qui soit à la fois compatible avec les interfaces standard dans le contexte du Cloud et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage de données qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications distribuées à accès intensif aux données, telles que les applications MapReduce, et des applications fortement couplées, telles que les simulations atmosphériques.
505

Problèmes de mémoire et de performance de la factorisation multifrontale parallèle et de la résolution triangulaire à seconds membres creux

Rouet, François-Henry 17 October 2012 (has links) (PDF)
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille sur des machines parallèles. Dans ce contexte, la mémoire est un facteur qui limite voire empêche souvent l'utilisation de solveurs directs, notamment ceux basés sur la méthode multifrontale. Cette étude se concentre sur les problèmes de mémoire et de performance des deux phases des méthodes directes les plus coûteuses en mémoire et en temps : la factorisation numérique et la résolution triangulaire. Dans une première partie nous nous intéressons à la phase de résolution à seconds membres creux, puis, dans une seconde partie, nous nous intéressons à la scalabilité mémoire de la factorisation multifrontale. La première partie de cette étude se concentre sur la résolution triangulaire à seconds membres creux, qui apparaissent dans de nombreuses applications. En particulier, nous nous intéressons au calcul d'entrées de l'inverse d'une matrice creuse, où les seconds membres et les vecteurs solutions sont tous deux creux. Nous présentons d'abord plusieurs schémas de stockage qui permettent de réduire significativement l'espace mémoire utilisé lors de la résolution, dans le cadre d'exécutions séquentielles et parallèles. Nous montrons ensuite que la façon dont les seconds membres sont regroupés peut fortement influencer la performance et nous considérons deux cadres différents : le cas "hors-mémoire" (out-of-core) où le but est de réduire le nombre d'accès aux facteurs stockés sur disque, et le cas "en mémoire" (in-core) où le but est de réduire le nombre d'opérations. Finalement, nous montrons comment améliorer le parallélisme. Dans la seconde partie, nous nous intéressons à la factorisation multifrontale parallèle. Nous montrons tout d'abord que contrôler la mémoire active spécifique à la méthode multifrontale est crucial, et que les techniques de "répartition" (mapping) classiques ne peuvent fournir une bonne scalabilité mémoire : le coût mémoire de la factorisation augmente fortement avec le nombre de processeurs. Nous proposons une classe d'algorithmes de répartition et d'ordonnancement "conscients de la mémoire" (memory-aware) qui cherchent à maximiser la performance tout en respectant une contrainte mémoire fournie par l'utilisateur. Ces techniques ont révélé des problèmes de performances dans certains des noyaux parallèles denses utilisés à chaque étape de la factorisation, et nous avons proposé plusieurs améliorations algorithmiques. Les idées présentées tout au long de cette étude ont été implantées dans le solveur MUMPS (Solveur MUltifrontal Massivement Parallèle) et expérimentées sur des matrices de grande taille (plusieurs dizaines de millions d'inconnues) et sur des machines massivement parallèles (jusqu'à quelques milliers de coeurs). Elles ont permis d'améliorer les performances et la robustesse du code et seront disponibles dans une prochaine version. Certaines des idées présentées dans la première partie ont également été implantées dans le solveur PDSLin (solveur linéaire hybride basé sur une méthode de complément de Schur).
506

Dualité de Schur-Weyl, mouvement brownien sur les groupes de Lie compacts classiques et étude asymptotique de la mesure de Yang-Mills

Dahlqvist, Antoine 12 February 2014 (has links) (PDF)
On s'intéresse dans cette thèse à l'étude de variables aléatoires sur les groupes de Lie compacts classiques. On donne une déformation du calcul de Weingarten tel qu'il a été introduit par B. Collins et P. Sniady. On fait une étude asymptotique du mouvement brownien sur les groupes de Lie compacts de grande dimension en obtenant des nouveaux résultats de fluctuations. Deux nouveaux objets, que l'on appelle champ maître gaussien planaire et champ maître orienté planaire, sont introduits pour décrire le comportement asymptotique des mesures de Yang-Mills pour des groupes de structure de grande dimension.
507

PaVo Un tri parallèle adaptatif

Durand, Marie 25 October 2013 (has links) (PDF)
Les joueurs exigeants acquièrent dès que possible une carte graphique capable de satisfaire leur soif d'immersion dans des jeux dont la précision, le réalisme et l'interactivité redoublent d'intensité au fil du temps. Depuis l'avènement des cartes graphiques dédiées au calcul généraliste, ils n'en sont plus les seuls clients. Dans un premier temps, nous analysons l'apport de ces architectures parallèles spécifiques pour des simulations physiques à grande échelle. Cette étude nous permet de mettre en avant un goulot d'étranglement en particulier limitant la performance des simulations. Partons d'un cas typique : les fissures d'une structure complexe de type barrage en béton armé peuvent être modélisées par un ensemble de particules. La cohésion de la matière ainsi simulée est assurée par les interactions entre elles. Chaque particule est représentée en mémoire par un ensemble de paramètres physiques à consulter systématiquement pour tout calcul de forces entre deux particules. Ainsi, pour que les calculs soient rapides, les données de particules proches dans l'espace doivent être proches en mémoire. Dans le cas contraire, le nombre de défauts de cache augmente et la limite de bande passante de la mémoire peut être atteinte, particulièrement en parallèle, bornant les performances. L'enjeu est de maintenir l'organisation des données en mémoire tout au long de la simulation malgré les mouvements des particules. Les algorithmes de tri standard ne sont pas adaptés car ils trient systématiquement tous les éléments. De plus, ils travaillent sur des structures denses ce qui implique de nombreux déplacements de données en mémoire. Nous proposons PaVo, un algorithme de tri dit adaptatif, c'est-à-dire qu'il sait tirer parti de l'ordre pré-existant dans une séquence. De plus, PaVo maintient des trous dans la structure, répartis de manière à réduire le nombre de déplacements mémoires nécessaires. Nous présentons une généreuse étude expérimentale et comparons les résultats obtenus à plusieurs tris renommés. La diminution des accès à la mémoire a encore plus d'importance pour des simulations à grande échelles sur des architectures parallèles. Nous détaillons une version parallèle de PaVo et évaluons son intérêt. Pour tenir compte de l'irrégularité des applications, la charge de travail est équilibrée dynamiquement par vol de travail. Nous proposons de distribuer automatiquement les données en mémoire de manière à profiter des architectures hiérarchiques. Les tâches sont pré-assignées aux cœurs pour utiliser cette distribution et nous adaptons le moteur de vol pour favoriser des vols de tâches concernant des données proches en mémoire.
508

Détection de Collision pour Environnements Large Échelle : Modèle Unifié et Adaptatif pour Architectures Multi-coeur et Multi-GPU

Avril, Quentin 16 September 2011 (has links) (PDF)
Les environnements de réalité virtuelle devenant de plus en plus complexes et de très grandes dimensions, un niveau d'interaction temps-réel devient impossible à garantir. En effet, de par leur complexité, due à une géométrie détaillée et aux propriétés physiques spécifiques, ces environnements large échelle engendrent un goulet d'étranglement calculatoire critique sur les algorithmes de simulation physique. Nous avons focalisé nos travaux sur la première étape de ces algorithmes qui concerne la détection de collision, car les problématiques font partie intégrante de ce goulet d'étranglement et leur complexité peut parfois se révéler quadratique dans certaines situations. Le profond bouleversement que subissent les architectures machines depuis quelques années ouvre une nouvelle voie pour réduire le goulet d'étranglement. La multiplication du nombre de cœurs offre ainsi la possibilité d'exécuter ces algorithmes en parallèle sur un même processeur. Dans le même temps, les cartes graphiques sont passées d'un statut de simple périphérique d'affichage graphique à celui de supercalculateur. Elles jouissent désormais d'une attention toute particulière de la part de la communauté traitant de la simulation physique. Afin de passer au large échelle et d'être générique sur la machine d'exécution, nous avons proposé des modèles unifiés et adaptatifs de correspondance entre les algorithmes de détection de collision et les architectures machines de type multi-coeur et multi-GPU. Nous avons ainsi défini des solutions innovantes et performantes permettant de réduire significativement le temps de calcul au sein d'environnements large échelle tout en assurant la pérennité des résultats. Nos modèles couvrent l'intégralité du pipeline de détection de collision en se focalisant aussi bien sur des algorithmes de bas ou de haut niveau. Nos modèles multi-coeur, GPU et multi-GPU allient différentes techniques de subdivision spatiale à des algorithmes basés topologie ainsi que des techniques d'équilibrage de charge basées sur le vol de données. Notre solution hybride permet d'accroitre l'espace et le temps de calcul ainsi que le passage au large échelle. L'association de ces nouveaux algorithmes nous a permis de concevoir deux modèles d'adaptation algorithmique dynamique basés, ou non, sur des scénarios de pré-calcul hors-ligne. Enfin, il nous est apparu indispensable d'ajouter au pipeline de détection de collision une nouvelle dimension révélant la prise en compte des architectures pour une exécution optimale. Grâce à ce formalisme, nous avons proposé un nouveau pipeline de détection de collision offrant une granularité de parallélisme sur processeurs multi-coeur. Il permet une exécution simultanée des différentes étapes du pipeline ainsi qu'un parallélisme interne à chacune de ces étapes.
509

Déterminisme et Confluence dans des systèmes concurrents et synchrones

Dogguy, Mehdi 27 January 2012 (has links) (PDF)
Dans cette thèse, nous étudions les notions de déterminisme et de confluence dans des systèmes concurrents et synchrones. Ces derniers sont des variantes du pi-calcul qui ont été étendues avec une notion de temps. Le premier modèle étudié, le S-pi-calcul, est une extension du modèle SL où la réaction à l'absence d'un signal se fait à la fin de l'instant et où les signaux sont considérés comme des valeurs de première classe. Ce modèle utilise les signaux comme mécanisme de communication de base. Dans le cadre du S-pi-calcul, nous avons cherché à développer une théorie compositionnelle de l'équivalence des programmes basée sur la notion de bisimulation. Ensuite, nous avons conçu un système de types en se basant sur une notion d'usage affine pour les signaux que nous avons introduit. Dans ce système, nous avons montré que tout programme typable est déterministe. Le second modèle, TAPIS, est une autre variante du pi-calcul où les canaux sont utilisés pour la communication. Dans ce cadre, nous avons adapté la théorie des types précedemment introduite pour le S-pi-calcul au cas des canaux et montré que les programmes typables sont confluents. Le système développé dans ce contexte ainsi que la preuve du lemme de préservation du typage ont été formalisés dans Coq.
510

Modélisation Multi-échelles : de l'Electromagnétisme à la Grille

Khalil, Fadi 14 December 2009 (has links) (PDF)
Les performances des outils numériques de simulation électromagnétique de structures complexes, i.e., échelles multiples, sont souvent limitées par les ressources informatiques disponibles. De nombreux méso-centres, fermes et grilles de calcul, se créent actuellement sur les campus universitaires. Utilisant ces ressources informatiques mutualisées, ce travail de thèse s'attache à évaluer les potentialités du concept de grille de calcul (Grid Computing) pour la simulation électromagnétique de structures multi-échelles. Les outils numériques de simulation électromagnétique n'étant pas conçus pour être utilisés dans un environnement distribué, la première étape consistait donc à les modifier afin de les déployer sur une grille de calcul. Une analyse approfondie a ensuite été menée pour évaluer les performances des outils de simulation ainsi déployés sur l'infrastructure informatique. Des nouvelles approches pour le calcul électromagnétique distribué avec ces outils sont présentées et validées. En particulier, ces approches permettent la réalisation de simulation électromagnétique de structures à échelles multiples en un temps record et avec une souplesse d'utilisation.

Page generated in 0.0355 seconds