• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
661

Une méthode de correction élastoplastique pour le calcul en fatigue des zones de concentration de contraintes sous chargement cyclique multiaxial non proportionnel

Herbland, Thibault 14 December 2009 (has links) (PDF)
La première étape d'un calcul de durée de vie en fatigue oligocyclique consiste à obtenir l'historique des contraintes et des déformations sur des points jugés critiques. Pour éviter des calculs complets par éléments finis (force brute) particulièrement longs, les corrections élasto-plastiques locales évaluent ces historiques en un temps très court. Les approches existantes manquant de précision, une nouvelle méthode de calcul qui s'inspire des modèles d'homogénéisation a été proposée. Elle a été implémentée dans le code de calcul ZéBuLoN et validée sur des cas de charge quelconques en multiaxial non proportionnel aléatoire, ce qui n'est le cas d'aucune autre méthode de la littérature. Ces historiques servent d'entrée aux méthodes de prévision de durée de vie. Un nouvel algorithme de comptage de cycles a été utilisé pour extraire une série de cycles d'un chargement multiaxial aléatoire. Il s'agit d'une technique de rainow qui permet de conserver toutes les composantes du chargement, et de définir un "cycle" dans l'espace des contraintes déviatoriques. Des calculs de durée de vie ont été réalisés pour évaluer la pertinence de l'ensemble de la chaîne de calcul ainsi constituée. On montre pour finir des applications à une pièce industrielle (bras de châssis de grue).
662

Représentations hiérarchiques de la visibilité pour le contrôle de l'erreur en simulation de l'éclairage

Soler, Cyril 18 December 1998 (has links) (PDF)
Le contrôle de l'erreur est une nécessité dans un grand nombre d'applications de la simulation de l'éclairage. Il offre la possibilité d'assurer un degré de précision particulier dans la solution calculée, et permet également un compromis entre le temps de calcul et la qualité du résultat. Lors du calcul de l'éclairage par les méthodes hiérarchiques de radiosité, l'évaluation des relations de visibilité représente la majeure partie de l'effort de calcul, et constitue donc la cible désignée de diverses approximations, qui influent ensuite sur la qualité du résultat. Dans ce travail nous étudions tout d'abord l'impact des approximations de la visibilité lors du calcul des facteurs de forme sur la précision d'une simulation de l'éclairage. Associée à un algorithme de contrôle de l'erreur pour le calcul de chaque facteur de forme, cette approche permet de contrôler la précision de la simulation. Nous proposons ensuite un tel algorithme, basé sur le pré-calcul et le stockage d'informations multi-échelles de visibilité. Suivant les applications, la notion de qualité n'est cependant pas la même : alors qu'une borne mathématique sur l'erreur d'approximation d'une solution convient aux applications à caractère quantitatif, la simulation de l'éclairage en synthèse d'images nécessite une mesure de l'erreur adaptée au mode de perception humain. Une telle mesure doit notamment attacher une importance particulière aux artefacts visuels qui conditionnent la qualité des images produites. Dans ce cadre, nous proposons des algorithmes de synthèse des ombres, et décrivons une méthode basée sur l'opération de convolution entre des images d'une source et d'un obstacle, permettant le contrôle de l'erreur dans les ombres produites. Finalement, nous présentons un algorithme hiérarchique de simulation de l'éclairage contrôlant, par des méthodes spécifiques, la précision de l'équilibre global de l'énergie lumineuse et la qualité des détails d'ombre très fins.
663

Modélisation du couplage chimico-mécanique d'un béton atteint d'une réaction sulfatique interne

Baghdadi, Nizar 17 November 2008 (has links) (PDF)
La réaction sulfatique interne est une pathologie qui affecte certains bétons hydrauliques ayant subi une élévation de température excessive au jeune âge. La formation tardive d'ettringite provoque un gonflement du béton, incompatible avec la rigidité du matériau et sa faible capacité en extension, ce qui engendre des fissurations dans la structure et des déformations différentielles incompatibles avec le fonctionnement en service de l'ouvrage. Le mécanisme de la réaction est assez complexe et il ne fait pas encore l'objet d'un accord complet dans la littérature. La description phénoménologique des gonflements nécessite la prise en compte de nombreux paramètres (composition du béton, conditions environnementales, histoire thermique et hydrique du béton...). Les modélisations proposées sont peu nombreuses, elles cherchent surtout à estimer l'amplitude finale maximale des gonflements et ne permettent pas de calculer l'état actuel d'un ouvrage où la réaction progresse plus ou moins en fonction du couplage avec les différents paramètres influents. S'appuyant sur ces constats et la nécessité de gérer les ouvrages atteints en prévoyant leur évolution, la présente recherche vise à développer une modélisation des effets mécaniques de la formation différée d'ettringite qui permette d'estimer l'état mécanique d'une structure atteinte. On présente donc une modélisation chimico-mécanique, formulée à l'échelle macroscopique. Le modèle est basé sur une approche thermodynamique décrivant la formation d'un cristal à l'intérieur d'un milieu poreux. Le comportement mécanique se trouve couplé à l'évolution d'une variable chimique décrivant l'avancement de la réaction, ce qui se traduit à chaque pas de temps par une déformation chimique imposée. L'amplitude et l'évolution de cette déformation sont décrites par une loi sigmoïdale modifiée dont les paramètres sont liés à la composition du béton et peuvent être identifiés expérimentalement dans des conditions standardisées. La valeur de calcul de la déformation chimique imposée tient également compte de l'histoire thermique au jeune âge du béton (qui a un effet sur le gonflement potentiel) et des conditions environnementales (température et humidité) qui ont un effet sur l'amplification des gonflements à chaque pas de temps. Un programme expérimental spécifique a permis de confirmer quantitativement le couplage proposé entre le potentiel d'expansion et l'histoire thermique au jeune âge. Le modèle est également écrit pour tenir compte de l'effet de la contrainte sur l'anisotropie du gonflement, qui constitue un phénomène important à l'échelle des ouvrages atteints, du retrait de séchage et de l'endommagement du module de Young en fonction de la déformation chimique induite par la réaction. Ce modèle a été implémenté dans le code de calcul CESAR-LCPC sous le nom RGIB, en intégrant et élargissant les fonctionnalités du module ALKA destiné aux structures atteintes d'alcali-réaction et constituant ainsi un nouveau module destiné au recalcul des structures atteintes de réaction de gonflement d'origine interne. On a appliqué ce module au recalcul de deux ouvrages ou parties d'ouvrages réels, afin de prédire leur comportement. On a adopté dans notre présentation des résultats une démarche progressive qui permet d'illustrer les différentes fonctionnalités du module. Les résultats trouvés sont satisfaisants et leur comparaison aux résultats in-situ montre une bonne coïncidence. Si le modèle proposé dans ce module RGIB rend compte des connaissances actuelles sur la RSI et ses effets, il met aussi en évidence les manques de connaissance quantitative sur cette réaction et les couplages qui l'influencent et l'importance de calibrages appropriés pour un recalcul précis des ouvrages atteints.
664

Complexité de la résolution des systèmes algébriques paramétriques.

Ayad, Ali 13 October 2006 (has links) (PDF)
On présente trois algorithmes dans cette thèse: Le premier algorithme résout de systèmes polynomiaux homogènes et paramétrés zéro-dimensionnels avec un temps simplement exponentiel en le nombre n des inconnus, cet algorithme décompose l'espace des paramètres en un nombre fini d'ensembles constructibles et calcule le nombre fini de solutions par de représentations rationnelles paramétriques uniformes sur chaque ensemble constructible. Le deuxième algorithme factorise absolument de polynômes multivariés paramétrés avec un temps simplement exponentiel en n et en la borne supérieure d de degrés de polynômes à factoriser. Le troisième algorithme décompose les variétés algébriques définies par de systèmes algébriques paramétrés de dimensions positives en composantes absolument irréductibles d'une manière uniforme sur les valeurs des paramètres. La complexité de cet algorithme est doublement exponentielle en n. D'autre part, la borne inférieure du problème de résolution de systèmes algébriques paramétrés est doublement exponentielle en n.
665

Design and Implementation of a Distributed Lattice Boltzmann-based Fluid Flow Simulation Tool/Conception et implémentation distribuée d'un outil de simulation d'écoulement de fluide basé sur les méthodes de Lattice Boltzmann

Dethier, Gérard 20 January 2011 (has links)
<p>Lattice Boltzmann-based (LB) simulations are well suited to the simulation of fluid flows in complex structures encountered in chemical engineering like porous media or structured packing used in distillation and reactive distillation columns. These simulations require large amounts of memory (around 10 gigabytes) and would require very long execution times (around 2 years) if executed on a single powerful desktop computer.</p> <p>The execution of LB simulations in a distributed way (for example, using cluster computing) can decrease the execution time and reduces the memory requirements for each computer. Dynamic Heterogeneous Clusters (DHC) is a class of clusters involving computers inter-connected by a local area network; these computers are potentially unreliable and do not share the same architecture, operating system, computational power, etc. However, DHCs are easy to setup and extend, and are made of affordable computers.</p> <p>The design and development of a software system which organizes large scale DHCs in an efficient, scalable and robust way for implementing very large scale LB simulations is challenging. In order to avoid that some computers are overloaded and slow down the overall execution, the heterogeneity of computational power should be taken into account. In addition, the failure of one or several computers during the execution of a simulation should not prevent its completion.</p> <p>In the context of this thesis, a simulation tool called LaBoGrid was designed. It uses existing static load balancing tools and implements an original dynamic load balancing method in order to distribute the simulation in a way that minimizes its execution time. In addition, a distributed and scalable fault-tolerance mechanism based on the regular saving of simulation's state is proposed. Finally, LaBoGrid is based on a distributed master-slave model that is robust and potentially scalable.</p> <br/> <p>Les simulations basées sur les méthodes de Lattice Boltzmann sont bien adaptées aux simulations d'écoulements de fluides à l'intérieur de structures complexes rencontrées en génie chimique, telles que les milieux poreux ou les empilements structurés utilisés dans des colonnes de distillation et de distillation réactive. Elles requièrent toutefois de grandes quantités de mémoire (environ 10 gigaoctets). Par ailleurs, leur exécution sur un seul ordinateur de bureau puissant nécessiterait un temps très long (environ deux ans).</p> <p>Il est possible de réduire à la fois le temps d'exécution et la quantité de mémoire requise par ordinateur en exécutant les simulations LB de manière distribuée, par exemple en utilisant un cluster. Un Cluster Hétérogène Dynamique (CHD) est une classe de clusters impliquant des ordinateurs qui sont interconnectés au moyen d'un réseau local, qui ne sont pas nécessairement fiables et qui ne partagent pas la même architecture, le même système d'exploitation, la même puissance de calcul, etc. En revanche, les CHD sont faciles à installer, à étendre et peu coûteux.</p> <p>Concevoir et développer un logiciel capable de gérer des CHD à grande échelle de façon efficace, extensible et robuste et capable d'effectuer des simulations LB à très grande échelle constitue un défi. L'hétérogénéité de la puissance de calcul doit être prise en compte afin d'éviter que certains ordinateurs soient débordés et ralentissent le temps global d'exécution. En outre, une panne d'un ou de plusieurs ordinateurs pendant l'exécution d'une simulation ne devrait pas empêcher son achèvement.</p> <p>Dans le contexte de cette thèse, un outil de simulation appelé LaBoGrid a été conçu. LaBoGrid utilise des outils existants de répartition statique de la charge et implémente une méthode originale de répartition dynamique de la charge, ce qui lui permet de distribuer une simulation LB de manière à minimiser son temps d'exécution. De plus, un mécanisme distribué et extensible de tolérance aux pannes, fondé sur une sauvegarde régulière de l'état de simulation, est proposé. Enfin, LaBoGrid se base sur un modèle distribué de type « maître-esclaves » qui est robuste et potentiellement extensible.</p>
666

MODELISATION DES COMPOSANTS ELECTROMAGNETIQUES HAUTE FREQUENCE PAR LA METHODEDESELEMENTSFUHS

Garcia, Fabiano Luiz Santos 16 September 1999 (has links) (PDF)
En vue de répondre à l'absence de données complètes et réalistes de la part des fournisseurs, la connaissance du comportement des ferrites MnZn qui équipent les noyaux des composants haute fréquence a progressé nettement grâce à l'apport d'une nouvelle méthode de caractérisation des matériaux magnétiques. Contrairement aux méthodes normalisées, cette méthode, basée sur la mesure de deux impédances électriques complémentaires, permet d'accéder, à toute fréquence, aux données perméabilité et permittivité complexes. En ce qui concerne les formulations par éléments finis, les formulations générales en 3D ont été réécrites avec des propriétés physiques complexes, à l'aide de deux types de potentiel: le potentiel électrique et magnétique. Les hypothèses bidimensionnelles cartésienne et axisymétrique sont aussi utilisées. Le couplage avec les équations du circuit électrique d'alimentation est réalisé par la méthode des potentiels électriques intégrés dans le temps. Cette méthode généralement utilisée en 3D est adaptée pour les problèmes 2D. Les problèmes des capacités parasites liés aux effets des interactions électriques en haute fréquence sont aussi présentés. Pour la modélisation à des fréquences élevées, l'influence du champ magnétique sur le fonctionnement du composant n'est plus négligeable. Un modèle magnétique devient nécessaire afm de tenir compte de l'inductance d'un composant. Plusieurs études récentes sur les effets des interactions magnétiques électriques en haute fréquence sont montrées. Chaque méthode a comme particularité la nécessité des approximations, dans la plupart des cas géométriques, par rapport au problème qui est essentiellement tridimensionnel. Une modélisation par la méthode des éléments fmis utilisant la formulation axisymétrique couplée avec les équations de circuit électrique est proposée et bien adaptée pour une caractérisation électromagnétique des composants bobinés.
667

Modélisation de la Sémantique Lexicale dans le cadre de la théorie des types

Mery, Bruno 05 July 2011 (has links) (PDF)
Le présent manuscrit constitue la partie écrite du travail de thèse réalisé par Bruno Mery sous la direction de Christian Bassac et Christian Retoré entre 2006 et 2011, portant sur le sujet "Modélisation de la sémantique lexicale dans la théorie des types". Il s'agit d'une thèse d'informatique s'inscrivant dans le domaine du traitement automatique des langues, et visant à apporter un cadre formel pour la prise en compte, lors de l'analyse sémantique de la phrase, d'informations apportées par chacun des mots. Après avoir situé le sujet, cette thèse examine les nombreux travaux l'ayant précédée et s'inscrit dans la tradition du lexique génératif. Elle présente des exemples de phénomènes à traiter, et donne une proposition de système de calcul fondée sur la logique du second ordre. Elle examine ensuite la validité de cette proposition par rapport aux exemples et aux autres approches déjà formalisées, et relate une implémentation de ce système. Enfin, elle propose une brève discussion des sujets restant en suspens.
668

L'acquisition de l'expression de la spatialité en mandarin langue étrangère par des apprenants francophones

Hung, Pi Hsia 24 November 2012 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des travaux sur l'acquisition des langues étrangères. L'objectif principal est de déterminer les structurations linguistiques transitoires employées par les apprenants francophones pour exprimer l'espace en mandarin langue étrangère. La procédure utilisée est l'analyse d'un corpus de productions orales issues d'une étude expérimentale de vingt mois menée auprès d'apprenants adultes francophones du mandarin de niveau débutant, intermédiaire et avancé. Pour atteindre l'objectif fixé, nous nous penchons d'abord sur l'acquisition des verbes directionnels en mandarin, puis sur les calculs des coordonnées spatiales qui impliquent l'" habitual thought " du mandarin concernant les verbes lái (venir) et qù (aller). L'analyse des expressions spatiales par les apprenants nous permettra ensuite de détailler le processus d'acquisition des ensembles spécifiques de la relation forme/fonction du mandarin et, plus précisément, la façon dont les options linguistiques façonnent la production des apprenants à chaque niveau de l'apprentissage. L'étude de l'acquisition des verbes de repérage ainsi que du calcul des coordonnées spatiales, quant à elles, nous dévoileront le processus cognitif de la conceptualisation du domaine spatial.
669

Du support générique d'opérateurs de composition dans les modèles de composants logiciels, application au calcul à haute performance.

Bigot, Julien 06 December 2010 (has links) (PDF)
Les applications scientifiques posent un véritable défi de par leur complexité et la quantité de données qu'elles traitent. Leur exécution nécessite l'utilisation de ressources matérielles complexes et variées comme les super-calculateurs, les grappes et les grilles de calcul. Les modèles de composants logiciels et en particulier ceux qui proposent des schémas de composition adaptés au calcul à haute performance offrent une piste intéressante pour leur développement. Ces derniers permettent aux applications de s'abstraire des ressources d'exécution et de favoriser ainsi les performances à l'exécution sur une grande gammes d'architectures. Ces modèles restent toutefois limités à un ensemble restreint de schémas de composition. Il en résulte une multiplication des modèles dès que de nouvelles formes de composition apparaissent nécessaires, ce qui est dommageable à l'objectif de réutilisation. La complexité de modifier un modèle existant pour y intégrer de nouveaux opérateurs de composition défavorise aussi ces efforts. Cette thèse propose un modèle de composants logiciels appelé HLCM dans lequel de nouveaux opérateurs de composition peuvent être introduits sans modification du modèle. Ceci est rendu possible par l'introduction en son sein de quatre concepts : la hiérarchie, les connecteurs, la généricité et le choix de mise en œuvre. Afin de favoriser la réutilisation de l'existant, ce modèle est abstrait et il est rendu concret dans des spécialisations qui s'appuient sur les éléments primitifs de modèles existants. Au cours de ces travaux, nous avons étudié comment le concept de généricité pouvait s'appliquer aux modèles de composants et nous avons proposé une approche pour l'y intégrer. Nous avons étudié les interactions problématiques entre les concepts de connecteur et de hiérarchie et avons offert une solution s'appuyant sur une nouvelle approche pour la description des connexions entre composants. Finalement, nous avons proposé une approche pour la mise en œuvre de HLCM qui s'appuie sur des principes issus de l'ingénierie basée sur les modèles. Ces travaux ont été validés en développant un prototype de mise en œuvre de HLCM/CCM, une spécialisation de HLCM qui s'appuie sur le modèle de composant de Corba (CCM). Il a été utilisé pour décrire des interactions complexes entre composants (mémoire partagée et appels de méthode parallèles) et assurer une exécution efficace sur des ressources matérielles variées, notamment sur Grid'5000.
670

Interpolation et comparaison de certains processus stochastiques

Laquerrière, Benjamin 10 May 2012 (has links) (PDF)
Dans la première partie de cette thèse, on présente des inégalités de concentration convexe pour des intégrales stochastiques. Ces résultats sont obtenus par calcul stochastique e tpar calcul de Malliavin forward/backward. On présente également des inégalités de déviation pour les exponentielles martingales à saut.Dans une deuxième partie on présente des théorèmes limites pour le conditionnement du mouvement brownien.

Page generated in 0.0227 seconds