• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Approche multi-échelles morphologique et directe pour une classe de composites particulaires fortement chargés hyperélastiques et visco-hyperélastiques.

Touboul, Marion 13 November 2007 (has links) (PDF)
Cette thèse est consacrée à la modélisation par transition d'échelles d'une large classe de composites particulaires fortement chargés tels que les propergols solides. L'approche (AM) repose en amont sur une schématisation géométrique et cinématique inspirée des travaux de Christoffersen (1983). L'objectif des présents travaux est double : prouver l'applicabilité de l'AM à la viscohyperélasticité (comportement de la matrice des élastomères chargés) et évaluer quantitativement ses performances. Pour traiter le 1er point, l'AM est appliquée à un composite aléatoire à matrice viscohyperélastique, généré numériquement. On montre le caractère direct de la résolution du problème de localisation-homogénéisation grâce à un algorithme opérant dans l'espace-temps réel. Les résultats obtenus sont qualitativement corrects. Concernant le 2ème point, les effets des hypothèses cinématiques propres à l'AM sont testés au travers de comparaisons entre résultats (locaux et globaux) AM et éléments finis (EF) sur des microstructures périodiques (simple et complexe) satisfaisant la schématisation géométrique et pour des comportements de phase hyperélastiques et viscohyperélastiques. Un certain nombre d'atouts et de points d'amélioration de l'AM sont ainsi dégagés. Enfin, un programme transversal de confrontation des estimations à des résultats expérimentaux et à des calculs EF sur un propergol réel est élaboré et mis en œuvre sur un composite énergétique : la butalite 400. Chaque étape –essais sur composite et constituants, caractérisation morphologique par tomographie, maillage EF automatique de la microstructure réelle, détermination des VER (plusieurs centaines de grains) relatifs aux deux méthodes (AM et EF)– est détaillée. De multiples confrontations entre les résultats expérimentaux et les premiers résultats numériques (AM et EF) permettent de préciser les perspectives à entreprendre pour terminer la validation.
262

Reconstruction et identification des électrons dans l'expérience Atlas. Participation à la mise en place d'un Tier 2 de la grille de calcul

Derue, Frédéric 11 March 2008 (has links) (PDF)
L'origine de la masse des particules élémentaires est liée au mécanisme de brisure de la symétrie électrofaible. Son étude sera l'un des enjeux majeurs de l'expérience Atlas auprès du Large Hadron Collider, au Cern à partir de 2008. Dans la plupart des cas, les recherches seront limitées par notre connaissance des performances du détecteur, telles que la précision avec laquelle l'énergie des particules est reconstruite ou l'efficacité avec laquelle elles sont identifiées. Ce mémoire d'habilitation présente un travail portant sur la reconstruction des électrons dans Atlas avec des données simulées et des données prises durant le test en faisceau combiné qui s'est déroulé en 2004. L'analyse des données d'Atlas nécessite l'utilisation de ressources de calcul et de stockage importantes qui a impliqué le développement d'une grille de calcul mondiale dont un des noeuds est développé au laboratoire. Le manuscrit présente aussi l'effort effectué au LPNHE Paris pour la mise en place d'un Tier 2 en r\égion Ile de France.
263

Effet de blocage dans un écoulement turbulent non cisaillé

Bodart, Julien 21 December 2009 (has links) (PDF)
Un code de résolution des équations de Navier-Stokes pour un fluide incompressible a été développé en utilisant une approche mixte spectral/différences finies, compatible avec une mise en \oe uvre dans un environnement massivement parallèle. On procède, grâce à ce nouvel outil, à des simulations directes de la turbulence dans une configuration où l'agitation est synthétisée à l'aide d'un forçage aléatoire. La production de turbulence est confinée dans une couche centrale du domaine et s'auto-diffuse en direction d'une surface libre ou d'une paroi adhérente. Dans cette configuration on obtient un état statistiquement stationnaire où le cisaillement moyen, généralement à l'origine de la production de la turbulence, est nul. Ces conditions permettent de mieux comprendre l'origine du transfert intercomposantes, caractéristique de la partie lente du terme de corrélation pression-déformation dans les équations-bilan des tensions de Reynolds. L'accent est mis sur l'analyse de ce transfert lorsqu'il s'effectue sous l'influence de l'effet de blocage au voisinage d'une surface. Les résultats obtenus permettront de mieux appréhender la modélisation des termes de corrélation pression-déformation au voisinage d'une paroi dans les modèles de fermeture au second ordre.
264

Bisimulations dans les calculs avec passivation

Lenglet, Sergueï 15 January 2010 (has links) (PDF)
Les calculs de processus représentent les systèmes concurrents par des processus qui s'exécutent en parallèle et s'échangent des messages. Les calculs avec passivation dispose d'un opérateur spécial qui permet de stopper un processus en cours d'exécution. Le processus suspendu peut ensuite être modifié ou transmis avant d'être réactivé. La passivation rend possible la modélisation de défaillances et d'opérations de reconfiguration dynamique. Nous nous intéressons aux équivalences comportementales dans ces calculs. Le comportement d'un processus est donné par un système de transitions étiquetées, qui exhibe les interactions d'un processus avec son environnement. Des relations, appelées bisimilarités, permettent ensuite d'identifier les processus qui ont le même comportement en comparant leurs interactions. Les bisimilarités définies jusqu'ici dans les calculs avec passivation restent trop complexes pour être utilisée en pratique. En outre il n'existe pas de bisimilarité correcte et complète dans le cas faible, c'est-à-dire lorsque les actions internes aux processus ne sont pas observables. Nous étudions ces deux problèmes dans cette thèse. Nous montrons d'abord qu'il est possible de définir une bisimilarité simple à manipuler pour un calcul avec passivation mais sans restriction. En revanche, nous donnons des contre-exemples qui laissent penser qu'il n'est pas possible de faire de même dans les calculs avec passivation et restriction. Nous définissons également un nouveau type de système de transitions étiquetées, qui permet de caractériser la congruence barbue dans le cas faible. Nous appliquons notre technique à différents calculs dont le Kell.
265

Dérivation Automatique pour le calcul des sensibilités appliqué au dimensionnement en génie électrique

Enciu, Petre 12 October 2009 (has links) (PDF)
Le dimensionnement par optimisation est aujourd'hui d'un intérêt majeur, car il fournit un moyen fiable et rapide en vue de déterminer les performances souhaitées de dispositifs, tout en minimisant une fonction de coût. Nous sommes particulièrement intéressés par l'optimisation sous contraintes basée sur le calcul de gradients. Ces algorithmes nécessitent des valeurs précises des dérivées de la fonction objectif et des performances à contraindre. Evaluer ces dérivées exactes se révèle comme une tâche complexe et très laborieuse, vu que les fonctions de performances et de coûts sont souvent évaluées à partir d'algorithmes numériques complexes. La Dérivation Automatique est une technique efficace pour calculer les dérivées des fonctions décrites au moyen de programmes informatiques dans des langages de programmation de haut niveau tel que Fortran, C ou C + +. Cette technique s'utilise parfaitement pour l'optimisation avec des algorithmes basés sur le calcul de gradients, étant donné que les dérivées sont évaluées sans aucune erreur de troncature ou d'annulation. Ce travail emploie la Dérivation Automatique pour calculer les gradients de programmes de calcul des modèles de dispositifs électromagnétiques.
266

Détection numérique de petites imperfections de conductivité en 2D et 3D par une méthode dynamique basée sur l'équation des ondes et le contrôle géométrique

Duval, Jean-Baptiste 19 October 2009 (has links) (PDF)
Dans cette thèse, nous considérons la solution numérique, dans des domaines bornés bidimensionnels et tridimensionnels, d'un problème inverse pour la localisation d'imperfections de petits volumes contenues dans un domaine sain de conductivité différente que celle des inhomogénéités. L'identification de ces inhomogénéités repose sur une approche dynamique basée sur l'équation des ondes. Notre algorithme numérique s'appuie sur le couplage d'une solution élément fini de l'équation des ondes, d'une méthode de contrôlabilité exacte et d'une inversion de Fourier pour localiser les centres des imperfections. Une application pratique de cette technique pourrait être la localisation de mines anti-personnel ou de tumeurs. Des résultats numériques, en deux et trois dimensions, montrent la robustesse et la précision de l'approche pour retrouver des imperfections, placées aléatoirement, à partir de mesures sur la frontière complète ou sur une partie de la frontière.
267

Stratégie de décomposition de domaine à trois échelles pour la simulation du délaminage dans les stratifiés

Kerfriden, Pierre 24 November 2008 (has links) (PDF)
Les composites stratifiés sont aujourd'hui fortement utilisés dans l'industrie. Ils permettent en effet une conception optimisée des structures et offrent ainsi une réponse aux contraintes énergétiques auxquelles font face les industriels. Cependant, la prévision par le calcul de leur comportement sous charge et de leur dégradation progressive soulève une difficulté : la modélisation du matériau doit être réalisée à une échelle très inférieure à celle de la structure. On se concentre ici sur les modèles de zone cohésive qui, depuis les vingt dernières années, ont démontré leur aptitude à la prédiction du délaminage. La taille des problèmes résultant de la simulation de l'évolution de structures industrielles par ce type de modèle est considérable. Leur résolution requiert alors l'utilisation de stratégies de calcul intensif. Dans ces travaux, le problème non linéaire posé à chaque piquet de temps du schéma d'intégration temporel est résolu par une méthode de décomposition de domaine à trois échelles. L'introduction des différents niveaux de résolution permet de traiter les informations de l'échelle fine, de l'échelle du pli et de l'échelle de la structure de manière adaptée au cours des itérations, et ainsi d'assurer l'efficacité de la méthode proposée, en termes de taux de convergence et d'aptitude à la parallélisation. Cette stratégie est ensuite aménagée pour résoudre les difficultés liées aux non-linéarités fortement localisées et aux éventuelles instabilités engendrées par le comportement adoucissant du matériau simulé.
268

Prédiction par essais virtuels de l'amortissement dans les structures spatiales

Caignot, Alain 16 June 2009 (has links) (PDF)
Dans un contexte de réduction importante des coûts dans le domaine des lanceurs spatiaux, il devient primordial de contrôler l'ensemble des facteurs dimensionnants dès la conception. La diminution de la masse est compensée par une augmentation de la raideur et il en résulte une diminution de l'amortissement, qui est le paramètre qui conditionne les niveaux de la réponse dynamique. A l'heure actuelle, l'amortissement est pris en compte de manière globale et le plus souvent identifié sur la structure finale. L'objectif de ce travail est de proposer une démarche de prédiction de l'amortissement dans les lanceurs spatiaux afin de prendre celui-ci en compte dès la phase de conception. Cette démarche passe par la mise en place d'une base de données des coefficients d'amortissement en fonction du type de sollicitation, du niveau de chargement, de la géométrie... L'amortissement étant bien connu pour les matériaux qui composent le lanceur, l'enjeu est la détermination de l'amortissement dans les liaisons, où les dissipations peuvent être très importantes. Les démarches expérimentales étant coûteuses et complexes à mettre en place, le travail s'est tourné vers une approche numérique, basée sur un calcul éléments finis des liaisons. Ce type de simulations est actuellement hors de portée des codes de calculs industriels standards et a nécessité le développement d'un code de calcul parallèle spécifique, basé sur la méthode LATIN. La robustesse de l'outil numérique a été étudiée et les résultats ont été validés à partir de valeurs obtenues expérimentalement lors d'une étude précédente. Enfin, le calcul de différentes liaisons constitutives du lanceur a été abordé ainsi que la méthodologie pour intégrer ces résultats dans le processus de dimensionnement d'Ariane.
269

La propriété de normalisation pour des calculs logiques symétriques

Battyanyi, Peter 12 December 2007 (has links) (PDF)
Dans les années quatre-vingts-dix, on a remarqué ce que l'isomorphisme de Curry-Howard peut être étendu à la logique classique. De nombreux calculs ont été développés pour constituer la base de cette extension. On étudie dans cette thèse quelques uns de ces calculs.<br />On étudie tout d'abord le $\lambda \mu$-calcul simplement typé de Parigot. Parigot a prouvé par des méthodes sémantiques que son calcul est fortement normalisable. Ensuite, David et Nour ont donné une preuve arithmétique de la normalisation forte de ce calcul avec la règle $\mu'$ (règle duale de $\mu$). Cependant, si l'on ajoute au $\lambda \mu \mu'$-calcul la règle de simplification $\rho$, la normalisation forte est perdu. On montre que le $\mu \mu' \rho$-calcul non-typé est faiblement normalisable, et que le $\lambda \mu \mu' \rho$-calcul typé est aussi faiblement normalisable. De plus, on examine les effets d'ajouter quelques autre règles de simplification.<br />On établi ensuite une borne de la longueur des séquences de réduction en $\lambda \mu \rho \theta$-calcul simplement typé.<br />Ce résultat est une extension de celui de Xi pour le $\lambda$-calcul simplement typé.<br />Dans le chapitre suivant on présente une preuve arithmétique de la normalisation forte du $\lambda$-calcul symétrique de Berardi et Barbanera.<br />Enfin, on établi des traductions entre le $\lambda$-calcul symétrique de Berardi et Barbanera et le $\lmts$-calcul, qui est le $\lmt$-calcul de Curien et Herbelin étendu avec une négation. (... qui est obtenu du $\lmt$-calcul de Curien et Herbelin par l'étendre avec une négation).
270

Preuves, types et sous-types

Ruyer, Frédéric 30 November 2006 (has links) (PDF)
Cette thèse porte sur l'étude théorique et pratique d'un système de typage appliqué à la preuve de programmes de style fonctionnels. Le système de base est le système ST créé par C.Raffalli; il comporte, outre le polymorphisme, du sous-typage et de l'omission de contenu non-algorithmique. Nous étudions tout d'abord les modèles de la théorie définie par le système de types, en construisant une axiomatique basée sur les treillis permettant de modéliser le calcul et la logique. Nous étudions sur cette base le système de types, montrons la réduction du sujet, et la possibilité de définir en interne la normalisabilité et la réductibilité des programmes. Dans la suite de la thèse, plus appliquée, nous étudions des codages de types de données riches inspirés des langages fonctionnels - y incluant notamment un système de modules du premier ordre- dans le Lambda-Calcul, et montrons qu'ils s'intègrent harmonieusement dans le système; la méthodologie développée dans cette partie permet d'étendre le langage de types et le langage de programmation en conservant un critère de consistance assurant la sûreté du code typé.

Page generated in 0.0407 seconds