• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Théorie des Types et Procédures de Décision

Strub, Pierre-Yves 02 July 2008 (has links) (PDF)
Le but de cette thèse est l'étude d'un système logique formel dans lequel les preuves formelles de propriétés mathématiques sont menées dans un style plus proches des pratiques des mathématiciens.<br /><br /> Notre principal apport est la définition et l'étude du Calcul des Constructions Inductives Congruentes, une extension du Calcul des Constructions Inductives (CIC), intégrant au sein de son mécanisme de calcul des procédures de décisions pour des théories equationnelles au premier ordre.<br /><br /> Nous montrons que ce calcul possède toutes les propriétés attendues: confluence, normalisation forte, cohérence logique et décidabilité de la vérification de types sont préservées. En tant que tel, notre calcul peut être vu comme une restriction décidable du Calcul des Constructions Extentionnelles et peut servir comme base pour l'extension de l'assistant à la preuve Coq.
352

Logique et Interaction : une Étude Sémantique de la Totalité

Clairambault, Pierre 19 February 2010 (has links) (PDF)
Cette thèse s'articule autour de l'utilisation de stratégies totales pour la représentation des preuves. La première partie porte sur le cadre finitaire. L'analyse commence dans un univers syntaxique : on définit un lambda-calcul unaire fortement normalisant, pour lequel on rappelle la machine à pointeurs (PAM). On réduit le problème de préservation de la totalité par composition à un problème de finitude sur des objets appelés structures de pointeurs. On donne trois preuves différentes de ce résultat de finitude. La première se ramène via la PAM à la normalisation du lambda-calcul unaire, la seconde passe par l'extraction d'une réduction simple sur les arbres d'entiers et la troisième s'inspire d'un argument combinatoire de Coquand. La seconde partie traite d'un calcul de séquents mu-LJ équipé de définitions inductives et coinductives, dans lequel on donne une simulation du système T. On définit les catégories mu-fermées, formant une classe de modèles de mu-LJ. Dans le cadre des jeux on définit les arènes ouvertes, munies de variables de type libres. À chacune de ces arènes ouvertes est associé un foncteur ouvert sur la catégorie des stratégies innocentes. On décrit ensuite sur les arènes ouvertes une construction de boucle dont on montre qu'elle rejoint le modèle de McCusker des types récursifs. Les boucles sont alors enrichies par des conditions de gain inspirées des jeux de parité, ce qui équipe les foncteurs ouverts d'algèbres initiales et coalgèbres terminales et construit une catégorie mu-fermée. On propose finalement une extension de mu-LJ à une syntaxe infinie, pour laquelle le modèle est pleinement complet.
353

CONTRIBUTION A UNE METHODOLOGIE DE DIMENSIONNEMENT DES CONVERTISSEURS STATIQUES

Bergeon, Stéphane 06 January 1998 (has links) (PDF)
Ce travail de thèse propose une méthodologie de dimensionnement s'adaptant à un grand nombre de structures de convertisseurs statiques. Elle intègre différents outils préexistants, et s'appuie sur la formulation automatique, avec des techniques de calcul symbolique, d'un modèle de dimensionnement. Celui-ci prend en charge, à un même niveau, l'aspect physique du fonctionnement et l'aspect conception qui s'exprime en termes de respect d'un cahier des charges. La connaissance fondamentale pour mettre en œuvre cette démarche se veut minimale, et comprend les équations des nœuds du circuit et les spécifications du cahier des charges. L'intervention de l'utilisateur dans la méthodologie est réduite au maximum et simplifiée. Sur ces principes, cette approche de CAO cherche à fournir au concepteur, via l'ordinateur, en plus de logiciels d'analyse, un véritable outil d'aide au dimensionnement intégrable dans une méthodologie globale de conception des convertisseurs statiques.
354

Développement d'un modèle 3D Automate Cellulaire-Éléments Finis (CAFE) parallèle pour la prédiction de structures de grains lors de la solidification d'alliages métalliques

Carozzani, Tommy 04 December 2012 (has links) (PDF)
La formation de la structure de grains dans les métaux pendant la solidification est déterminante pour les propriétés mécaniques et électroniques des pièces coulées. En plus de la texture donnée au matériau, la germination et la croissance des grains sont liées en particulier avec la formation des phases thermodynamiques et les inhomogénéités en composition d'éléments d'alliage. La structure de grains est rarement modélisée à l'échelle macroscopique, d'autant plus que l'approximation 2D est très souvent injustifiée. Dans ces travaux, la germination et la croissance de chaque grain individuel sont suivies avec un modèle macroscopique 3D CAFE. La microstructure interne des grains n'est pas explicitement résolue. Pour valider les approximations faites sur cette microstructure, une comparaison directe avec un modèle microscopique "champ de phase" a été réalisée. Celle-ci a permis de valider les hypothèses de construction du modèle CAFE, de mettre en avant le lien entre données calculées par les modèles microscopiques et paramètres d'entrée des modèles à plus grande échelle, et les domaines de validité de chaque modèle. Dans un deuxième temps, un couplage avec la ségrégation chimique et les bases de données thermodynamiques a été mise en place et appliquée sur un alliage binaire étain-plomb. Une expérience de macroségrégation par convection naturelle a été simulée. L'accord entre les courbes de température expérimentales et simulées atteint une précision de l'ordre de 1K, et la recalescence est correctement prédite. Les cartes de compositions sont comparables qualitativement, ainsi que la structure de grains. Les avantages du suivi de la structure ont été mis en évidence par rapport à une simulation par éléments finis classique. De plus, il a été montré que le calcul 3D était ici indispensable. Enfin, une implémentation parallèle optimisée du code a permis d'appliquer le modèle CAFE à un lingot de silicium polycristallin industriel de dimensions 0,192 x 0,192 x 2,08m, avec une taille de cellules de 250µm. Au total, 4,9 milliards de cellules sont représentées sur le domaine, et la germination et la croissance de 1,6 million de grains sont suivies.
355

Optimisation des performances et du coût de flots applicatifs s'exécutant sur des infrastructures de cloud

Truong Huu, Tram 13 December 2010 (has links) (PDF)
Les infrastructures virtuelles de cloud sont de plus en plus exploitées pour relever les défis de calcul intensif en sciences comme dans l'industrie. Elles fournissent des ressources de calcul, de communication et de stockage à la demande pour satisfaire les besoins des applications à grande échelle. Pour s'adapter à la diversité de ces infrastructures, de nouveaux outils et modèles sont nécessaires. L'estimation de la quantité de ressources consommées par chaque application est un problème particulièrement difficile, tant pour les utilisateurs qui visent à minimiser leurs coûts que pour les fournisseurs d'infrastructure qui visent à contrôler l'allocation des ressources. Même si une quantité quasi illimitée de ressources peut être allouée, un compromis doit être trouvé entre (i) le coût de l'infrastructure allouée, (ii) la performance attendue et (iii) la performance optimale atteignable qui dépend du niveau de parallélisme inhérent à l'application. Partant du cas d'utilisation de l'analyse d'images médicales, un domaine scientifique représentatif d'un grand nombre d'applications à grande échelle, cette thèse propose un modèle de coût à grain fin qui s'appuie sur l'expertise extraite de l'application formalisée comme un flot. Quatre stratégies d'allocation des ressources basées sur ce modèle de coût sont introduites. En tenant compte à la fois des ressources de calcul et de communication, ces stratégies permettent aux utilisateurs de déterminer la quantité de ressources de calcul et de bande passante à réserver afin de composer leur environnement d'exécution. De plus, l'optimisation du transfert de données et la faible fiabilité des systèmes à grande échelle, qui sont des problèmes bien connus ayant un impact sur la performance de l'application et donc sur le coût d'utilisation des infrastructures, sont également prises en considération. Les expériences exposées dans cette thèse ont été effectuées sur la plateforme Aladdin/Grid'5000, en utilisant l'intergiciel HIPerNet. Ce gestionnaire de plateforme virtuelle permet la virtualisation de ressources de calcul et de communication. Une application réelle d'analyse d'images médicales a été utilisée pour toutes les validations expérimentales. Les résultats expérimentaux montrent la validité de l'approche en termes de contrôle du coût de l'infrastructure et de la performance des applications. Nos contributions facilitent à la fois l'exploitation des infrastructures de cloud, offrant une meilleure qualité de services aux utilisateurs, et la planification de la mise à disposition des ressources virtualisées.
356

Intégration de systèmes dans un réseau local d'ordinateurs : application au centre de calcul réparti

Angelides, Jean 28 January 1980 (has links) (PDF)
Après une présentation de l'ensemble du Centre de Calcul Réparti, nous définirons les différentes entités en présence, leurs fonctions principales et la façon dont elles dialoguent. Nous verrons donc comment à partir d'un service local on définit un service réseau et les accès dont un utilisateur dispose pour accéder à des services réseaux. Ensuite, nous examinerons l'ensemble des objectifs définis pour la réalisation d'un Centre de Calcul Réparti (CCR), les contraintes qui nous ont été imposées à cause justement de l'environnement réseau, et les problèmes d'intégration d'un nouvel ordinateur au sein du Centre de Calcul Réparti.
357

Sur la décomposition réelle et algébrique des systèmes dépendant de paramètres

Moroz, Guillaume 28 November 2008 (has links) (PDF)
Cette thèse traite des systèmes paramétrés. Ils modélisent des applications dans divers domaines, comme la robotique ou la calibration. Soit S un système paramétré. Nous cherchons à décrire les ouverts connexes U de l'espace des paramètres tels que S restreint à U admet un nombre constant de solutions réelles. En robotique, nous détectons les positions cuspidales des robots plan 3-RPR. En calibration photographique, nous décrivons le nombre de solutions réalisables du problème Perspective-3- Points. D'un point de vue théorique, nous montrons que sous certaines hypothèses, le calcul de la variété discriminante d'un système paramétré peut se réduire à un calcul de projection. Dans le cas des systèmes quelconques, nous introduisons la décomposition équidimensionnelle régulière. Notre algorithme possède de bonnes performances en pratique et nous permet par ailleurs de déduire un nouvel algorithme pour le calcul du radical d'un idéal.
358

LA DECOMPOSITION PROPRE GENERALISEE POUR LA RESOLUTTON DE PROBLEMES MULTIPHYSIQUES TRANSITOlRES COUPLES DEDIES A LA MECANIQUE DES MATERIAUX - MAILLAGE ADAPTATIF ET COUPLAGE AVEC LA MAN

Nguyen, Tuan Linh 20 November 2012 (has links) (PDF)
Ce travail de recherche est une contribution au développement de la méthode Décomposition Propre Généralisée (PGD) à la résolution de problèmes multiphysiques transitoires couplés à différents temps caractéristiques dédiés à la mécanique des matériaux. Cette méthode se résume à la recherche de solutions d'Equations aux Dérivées Partielles sous forme séparée. L'équation de la chaleur transitoire 2D est tout d'abord traitée. Une technique de maillage adaptatif automatique est proposée afin d'adapter la discrétisation aux différentes zones transitoires de la solution. L'imbrication entre la technique de maillage adaptatif et la PGD est discutée à travers deux types de couplage. Le premier consiste à recalculer la solution PGD sur chaque nouveau maillage à partir de la solution nulle et le second à calculer la solution sur chaque nouveau maillage en conservant les fonctions de base de la solution générées sur le maillage précédent. Le premier couplage apparaît plus performant dans la mesure où peu de modes sont nécessaires pour décrire précisément la solution sur le maillage final. Néanmoins, le second couplage permet de réduire fortement le nombre d'enrichissements cumulé au cours de l'ensemble du procédé de maillage adaptatif. Quel que soit le couplage utilisé, la technique de maillage adaptatif est capable de décrire automatiquement des transitoires localisés. La résolution de l'équation de la chaleur ID transitoire avec une non linéarité dans le terme source est envisagée. Une nouvelle approche couplant la méthode PGD et la Méthode Asymptotique Numérique (MAN) est proposée et testée. Elle permet de résoudre efficacement certaines familles de problèmes transitoires non linéaires. Enfm, deux problèmes multiphysiques multitemps sont traités. Il s'agit d'un partiellement couplé diffusothermique et d'un fortement couplé thermoviscoélastique. La PGD permet de prédire précisément la réponse de ces problèmes multiphysiques pour lesquels les termes de couplage font apparaître des transitoires spécifiques que l'on obtient avec un maillage suffisamment fin. La stratégie de maillage adaptatif associée à la PGD trouve alors tout son sens dans ces situations multitemps fortement couplées. L'association de la technique de maillage adaptatif avec la PGD mène aux mêmes conclusions que dans le cas avec une seule physique. La discussion porte sur deux stratégies de construction des maillages : concaténer les deux maillages temporelles de chaque physique ou adapter indépendamment le maillage de chaque physique. La concaténation des deux maillages permet de converger avec moins d'étapes de maillage adaptatif mais avec des densités de maillage beaucoup plus importantes.
359

De l'exécution structurée d'applications scientifiques OpenMP sur les architectures hiérarchiques.

Broquedis, François 09 December 2010 (has links) (PDF)
Le domaine applicatif de la simulation numérique requiert toujours plus de puissance de calcul. La technologie multicœur aide à satisfaire ces besoins mais impose toutefois de nouvelles contraintes aux programmeurs d'applications scientifiques qu'ils devront respecter s'ils souhaitent en tirer la quintessence. En particulier, il devient plus que jamais nécessaire de structurer le parallélisme des applications pour s'adapter au relief imposé par la hiérarchie mémoire des architectures multicœurs. Les approches existantes pour les programmer ne tiennent pas compte de cette caractéristique, et le respect de la structure du parallélisme reste à la charge du programmeur. Il reste de ce fait très difficile de développer une application qui soit à la fois performante et portable.La contribution de cette thèse s'articule en trois axes. Il s'agit dans un premier temps de s'appuyer sur le langage OpenMP pour générer du parallélisme structuré, et de permettre au programmeur de transmettre cette structure au support exécutif ForestGOMP. L'exécution structurée de ces flots de calcul est ensuite laissée aux ordonnanceurs Cacheet Memory développés au cours de cette thèse, permettant respectivement de maximiser la réutilisation des caches partagés et de maximiser la bande passante mémoire accessible par les programmes OpenMP. Enfin, nous avons étudié la composition de ces ordonnanceurs, et plus généralement de bibliothèques parallèles, en considérant cette voie comme une piste sérieuse pour exploiter efficacement les multiples unités de calcul des architectures multicœurs.Les gains obtenus sur des applications scientifiques montrent l'intérêt d'une communication forte entre l'application et le support exécutif, permettant l'ordonnancement dynamique et portable de parallélisme structuré sur les architectures hiérarchiques.
360

Calcul hautes performances pour les formulations intégrales en électromagnétisme basses fréquences

Rubeck, Christophe 18 December 2012 (has links) (PDF)
Les méthodes intégrales sont des méthodes particulièrement bien adaptées à la modélisation des systèmes électromagnétiques car contrairement aux méthodes par éléments finis elles ne nécessitent pas le maillage des matériaux inactifs tel que l'air. Ces modèles sont donc légers en termes de nombre de degrés de liberté. Cependant ceux sont des méthodes à interactions totales qui génèrent des matrices de systèmes d'équations pleines. Ces matrices sont longues à calculer en temps processeur et coûteuses à stocker dans la mémoire vive de l'ordinateur. Nous réduisons dans ces travaux les temps de calcul grâce au parallélisme, c'est-à-dire l'utilisation de plusieurs processeurs, notamment sur cartes graphiques (GPGPU). Nous réduisons également le coût du stockage mémoire via de la compression matricielle par ondelettes (il s'agit d'un algorithme proche de la compression d'images). C'est une compression par pertes, nous avons ainsi développé un critère pour contrôler l'erreur introduite par la compression. Les méthodes développées sont appliquées sur une formulation électrostatique de calcul de capacités, mais elles sont à priori également applicables à d'autres formulations.

Page generated in 0.0388 seconds