• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Sur la robustesse d'une méthode de décomposition de domaine mixte avec relocalisation non linéaire pour le traitement des instabilités géométriques dans les grandes structures raidies

Hinojosa Rehbein, Jorge Andres 10 February 2012 (has links) (PDF)
Les travaux de thèse portent sur l'évaluation et la robustesse des stratégies adaptées pour la simulation de grandes structures avec non-linéarités non équitablement réparties, tels le flambage local, et des non-linéarités globales dans les structures aéronautiques. La stratégie dite de " relocalisation non-linéaire " permet l'introduction de schémas de résolution non-linéaire par sous-structure au sein des méthodes de décomposition de domaine classiques.Dans un premier temps, les performances et la robustesse de la méthode sont présentées sur des exemples de structures représentatives des cas industriels. Dans un second temps, la stratégie est complètement parallélisée et des études de " speed-up " et de " extensibilité " sont menées. Enfin, la méthode est testée sur des structures réalistes et de grandes tailles.
392

Calcul à l'echelle méso avec interface non locale des composites stratifiés

Bordeu Weldt, Felipe Eduardo 06 January 2012 (has links) (PDF)
L'industrie utilise de plus en plus les matériaux composites stratifiés à matrice organique (CMO) pour remplacer les alliages métalliques légers. Avec un rapport résistance/masse supérieur aux alliages métalliques, ces matériaux constituent une véritable alternative pour diminuer le poids des structures. Cependant, la certification des structures en composite est une procédure lourde et complexe. Le Virtual Testing consiste à remplacer une grande partie des essais réels par des simulations numériques en vue de diminuer la quantité d'essais physiques nécessaires pour la certification. Toutefois, les modèles ainsi que les méthodes de calcul utilisés pour les simulations doivent avoir la confiance des autorités de contrôle. On ce concentre ici sur le Méso-modèle Amélioré d'Endommagement des Composites Stratifiés qui, depuis un vingtaine d'années, a démontré être un modèle capable de prendre en compte la plupart de mécanismes de dégradation d'une structure composite. Ce modèle, non linéaire, non local et d'évolution, est défini à l'échelle du pli. La taille des problèmes résultants de la simulation de ce type de modèle est considérable. Dans ces travaux, un grand intérêt a été porté au traitement numérique du modèle. Dans un premier temps, l'intégration du modèle dans un code de calcul a permis d'y apporter des améliorations. En ce qui concerne la méthode de résolution, une méthode de décomposition de domaine permet l'utilisation du modèle pour la simulation de structures de taille moyenne. L'approche proposée permet de surmonter les difficultés liées à l'utilisation d'un modèle non local et non linéaire au sein d'une méthode de décomposition de domaine.
393

Modèles de programmation et supports exécutifs pour architectures hétérogènes

Henry, Sylvain 14 November 2013 (has links) (PDF)
Le travail réalisé lors de cette thèse s'inscrit dans le cadre du calcul haute performance sur architectures hétérogènes. Pour faciliter l'écriture d'applications exploitant ces architectures et permettre la portabilité des performances, l'utilisation de supports exécutifs automatisant la gestion des certaines tâches (gestion de la mémoire distribuée, ordonnancement des noyaux de calcul) est nécessaire. Une approche bas niveau basée sur le standard OpenCL est proposée ainsi qu'une approche de plus haut niveau basée sur la programmation fonctionnelle parallèle, la seconde permettant de pallier certaines difficultés rencontrées avec la première (notamment l'adaptation de la granularité).
394

Evolution des modèles de calcul pour le logiciel de planification de la dose en protonthérapie

Vidal, Marie 07 October 2011 (has links) (PDF)
Ce travail a été mené dans un contexte de collaboration étroite entre le Centre de Protonthérapie d'Orsay de l'Institut Curie (ICPO), Dosisoft et le laboratoire Creatis afin de mettre en place un nouveau modèle de calcul de dose pour la nouvelle salle de traitement de l'ICPO. Le projet de rénovation et d'agrandissement de ce dernier a permis l'installation d'un nouvel accélérateur ainsi que d'une nouvelle salle de traitement équipée d'un bras isocentrique de la société IBA, dans le but de diversifier les localisations des cancers traités à l'ICPO. Le premier objectif de cette thèse est de développer un ensemble de méthodologies et de nouveaux algorithmes liés au calcul de dose pour les adapter aux caractéristiques spécifiques des faisceaux délivrés par la nouvelle machine IBA, avec comme finalité de les inclure dans le logiciel Isogray de DOSIsoft. Dans un premier temps, la technique de la double diffusion est abordée en tenant compte des différences avec le système passif des lignes fixes de l'ICPO. Dans un deuxième temps, une modélisation est envisagée pour les modalités de faisceaux balayés. Le deuxième objectif est d'améliorer les modèles de calcul de dose Ray-Tracing et Pencil-Beam existants. En effet, le collimateur personnalisé du patient en fin de banc de mise en forme du faisceau pour les techniques de double diffusion et de balayage uniforme provoque une contamination de la dose délivrée au patient. Une méthodologie de réduction de cet effet a été mise en place pour le système passif de délivrance du faisceau, ainsi qu'un modèle analytique décrivant la fonction de contamination, dont les paramètres ont été validés grâce à des simulations Monte Carlo sur la plateforme GATE. Il est aussi possible d'appliquer ces méthodes aux systèmes actifs.
395

Contribution à la conception à base de composants logiciels d'applications scientifiques parallèles

Pichon, Vincent 05 November 2012 (has links) (PDF)
La conception d'applications scientifiques à base de couplage de code est une tâche complexe car elle demande de concilier une facilité de programmation et une obtention de haute performance. En outre, les ressources matérielles (supercalculateurs, grappes de calcul, grilles) permettant leur exécution forment un ensemble hétérogène en constante évolution. Les modèles à base de composants logiciels forment une piste prometteuse pour gérer ces deux sources de complexité car ils permettent d'exprimer les interactions entre les différents constituants d'une application tout en offrant des possibilités d'abstraction des ressources. Néanmoins, les modèles existants ne permettent pas d'exprimer de manière satisfaisante les applications constituées de motifs répliqués dynamiques et hiérarchiques. Ainsi, cette thèse vise à améliorer l'existant - et en particulier la plate-forme générique de simulation numérique SALOME - pour une classe d'applications très répandue : les applications à base de décomposition de domaine et la variante utilisant le raffinement de maillage adaptatif. Tout d'abord, nous avons proposé d'étendre le modèle de composition spatial et temporel de SALOME en ajoutant la possibilité de définir dynamiquement la cardinalité des composants. Cela demande en particulier de gérer les communications de groupes ainsi induites. La proposition a été implémentée dans SALOME et validée via une application de décomposition de domaine à base de couplage de plusieurs instances de Code_Aster. Ensuite, nous avons étudié la pertinence d'utiliser un modèle de composant supportant des connecteurs natifs (MPI, mémoire partagée, appel de méthode) pour permettre une composition plus fine des interactions entre composants. Les résultats d'expériences montrent que des performances équivalentes aux versions natives sont obtenues tout en permettant de manipuler facilement l'architecture de l'application. Enfin, nous avons étudié les extensions nécessaires aux modèles à composants (abstraction,hiérarchie, dynamicité) pour la conception d'applications de raffinement de maillage adaptatif. Les modèles de composants spatio-temporels les plus avancés permettent ainsi d'exprimer ce type d'application mais les performances sont limitées par leur mise en œuvre centralisée ainsi que par le manque de moyens efficaces pour modifier à la volée des assemblages de composants.
396

Calcul en n-dimensions sur GPU

Bergeron, Arnaud 04 1900 (has links)
Le calcul scientifique sur processeurs graphiques (GPU) est en plein essor depuis un certain temps, en particulier dans le domaine de l'apprentissage machine. Cette thèse présente les efforts pour établir une structure de données de table au multidimensionnel de manière efficace sur GPU. Nous commençons par faire une revue de ce qui est actuellement similaire dans le domaine et des désavantages d'avoir une multitude d'approches. Nous nous intéresserons particulièrement aux calculs fait à partir du langage Python. Nous décrirons des techniques intéressantes telles que la réduction d'ordre et le calcul asynchrone automatique. Pour terminer nous présenterons l'utilisation du module développé dans le cadre de cette thèse. / Scientific computing on GPU (graphical processing units) is on the rise, specifically in machine learning. This thesis presents the implementation of an efficient multidimensional array on the GPU. We will begin by a review of what currently implements similar functionality and the disadvantage of a fragmented approach. We will focus on packages that have a Python interface. We will explain techniques to optimize execution such as order reduction and automatic asynchronous computations. Finally, we will present the functionality of the module developed for this thesis. / Le code source de la libraire développée accompagne ce dépôt dans l'état où il était à ce moment. Il est possible de trouver une version plus à jour sur github (http://github.com/abergeron).
397

Résilience dans les Systèmes de Workflow Distribués pour les Applications d'Optimisation Numérique

Trifan, Laurentiu 21 October 2013 (has links) (PDF)
Cette thèse vise à la conception d'un environnement pour le calcul haute performance dans un cadre d'optimisation numérique. Les outils de conception et d'optimisation sont répartis dans plusieurs équipes distantes, académiques et industrielles, qui collaborent au sein des memes projets. Les outils doivent etre fédérésau sein d'un environnement commun afin d'en faciliter l'accès aux chercheurs et ingénieurs. L'environnement que nous proposons, pour répondre aux conditions précédentes, se compose d'un système de workflow et d'un système de calcul distribué. Le premier a pour objctif de faciliter la tache de conception tandis que le second se charge de l'exécution sur des ressources de calcul distribuées. Bien sur, des suystèmes de communication entre les deux systèmes doivent etre développés. Les calculs doivent etre réalisés de manière efficace, en prenant en compte le parallélisme interne de certains codes, l'exécution synchrone ou asynchrone des taches, le transfert des données et les ressources matérielles et logicielles disponibles. De plus, l'environnement doit assurer un bon niveau de tolérance aux pannes et aux défaillances logicielles, afin de minimiser leur influence sur le résultat final ou sur le temps de calcul. Une condition importante est de pouvoir implanter un dispositif de reprise sur erreur, de telle sorte que le temps supplémentaire de traitement des erreurs soit très inférieur au temps de ré-exécution total.Dans le cadre de ce travail, notyre choix s'est porté sur le moteur de workflow Yawl, qui présente de bonnes caractéristiques en termes i) d'indépendancze vis à vis du matériel et du logiciel et ii) de mécanisme de reprise sdur erreur. Pour la partie calcul distribué, nos expériences ont été réalisées sur la plateforme Grid5000, en utilisant 64 machines différentes réparties sur cinq sites géographiques. Ce document d&taille les choix de conception de cet environnement ainsi que les ajouts et modifications que nous avons apportées à Yawl pour lui permettre de fonctionner sur une plateforme distribuée.
398

Compiling for a multithreaded dataflow architecture : algorithms, tools, and experience

Li, Feng 20 May 2014 (has links) (PDF)
Across the wide range of multiprocessor architectures, all seem to share one common problem: they are hard to program. It is a general belief that parallelism is a software problem, and that perhaps we need more sophisticated compilation techniques to partition the application into concurrent threads. Many experts also make the point that the underlining architecture plays an equally important architecture before one may expect significant progress in the programmability of multiprocessors. Our approach favors a convergence of these viewpoints. The convergence of dataflow and von Neumann architecture promises latency tolerance, the exploitation of a high degree of parallelism, and light thread switching cost. Multithreaded dataflow architectures require a high degree of parallelism to tolerate latency. On the other hand, it is error-prone for programmers to partition the program into large number of fine grain threads. To reconcile these facts, we aim to advance the state of the art in automatic thread partitioning, in combination with programming language support for coarse-grain, functionally deterministic concurrency. This thesis presents a general thread partitioning algorithm for transforming sequential code into a parallel data-flow program targeting a multithreaded dataflow architecture. Our algorithm operates on the program dependence graph and on the static single assignment form, extracting task, pipeline, and data parallelism from arbitrary control flow, and coarsening its granularity using a generalized form of typed fusion. We design a new intermediate representation to ease code generation for an explicit token match dataflow execution model. We also implement a GCC-based prototype. We also evaluate coarse-grain dataflow extensions of OpenMP in the context of a large-scale 1024-core, simulated multithreaded dataflow architecture. These extension and simulated architecture allow the exploration of innovative memory models for dataflow computing. We evaluate these tools and models on realistic applications.
399

The ABC of Creative Telescoping --- Algorithms, Bounds, Complexity

Chyzak, Frédéric 14 April 2014 (has links) (PDF)
Le télescopage créatif est un principe algorithmique développé depuis les années 1990 en combinatoire et en calcul formel, notamment depuis les travaux de Doron Zeilberger, pour calculer avec des sommes et intégrales paramétrées, que ce soit pour trouver des formes explicites ou pour justifier des identités intégrales ou sommatoires. Le procédé est particulièrement adapté à une grande famille de fonctions et suites données par des équations linéaires différentielles et de récurrences, que ce soient des fonctions spéciales de l'analyse, des suites de la combinatoire, ou des familles de polynômes orthogonaux. Dans ce mémoire, je retrace l'évolution des algorithmes et de mes contributions pour adapter le procédé à des classes de fonctions de plus en plus générales, du cadre initial des suites hypergéométriques, données par des récurrences d'ordre 1, aux cas de fonctions données par des équations d'ordre supérieur, ceci jusqu'aux fonctions données par des idéaux non zéro-dimensionnels. La difficulté d'obtenir des implantations rapides dans tous ces cas repose sur le calcul d'un certificat justifiant l'application du télescopage créatif, ce certificat étant par nature de grande taille. Ceci m'a motivé dans l'étude de la complexité du procédé. Plusieurs pistes d'amélioration ont été explorées, d'abord en essayant de maintenir compact ce certificat, puis en obtenant des algorithmes validés sans passer par son calcul. Comme souvent, l'estimation des tailles arithmétiques des objets intervenant dans le telescopage créatif a à la fois guidé le développement de nouveaux algorithmes plus efficaces et permis leur estimation théorique de complexité. Pour finir, j'indique brièvement la direction qu'a prise mes travaux récents sur le sujet, vers la preuve formelle, et qui font ressortir des pistes pour une meilleure justification de l'application du télescopage créatif.
400

Analyse théorique et numérique au voisinage du point triple en électromouillage

Scheid, Claire 25 October 2007 (has links) (PDF)
Nous étudions la déformation d'une goutte d'eau par électromouillage. La géométrie de la goutte près de la ligne de contact, au coeur de la compréhension complète du phénomène, soulève encore des interrogations. Ce travail y apporte des réponses théoriques et numériques. Un modèle utilisant l'optimisation de forme nous permet de montrer que l'angle de contact est indépendant du potentiel appliqué. Pour permettre une visualisation, nous simulons numériquement les formes macroscopiques de gouttes grâce à un code existant. Ceci étant insuffisant pour visualiser ce qui se passe à la ligne de contact, nous proposons deux voies. Nous améliorons l'approximation de la singularité du potentiel à la ligne de contact. Puis vu le caractère local de l'information recherchée, nous modifions le modèle global et extrayons un modèle différentiel local pour préciser les formes de gouttes à potentiel donné, effectuer un calcul précis de courbure, et enfin visualiser l'invariance de l'angle de contact.

Page generated in 0.0725 seconds