• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 473
  • 207
  • 60
  • 1
  • Tagged with
  • 725
  • 320
  • 168
  • 114
  • 106
  • 105
  • 102
  • 98
  • 94
  • 88
  • 82
  • 66
  • 66
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Une Approche Multi-échelles pour des Calculs de Structures sur Ordinateurs à Architecture Parallèle

Dureisseix, David 07 January 1997 (has links) (PDF)
Le thème sous-jacent au travail de thèse est de réaliser des calculs implicites de structures, pour des chargements quasi-statiques et sous les hypothèses des petites perturbations, sur des ordinateurs à architecture parallèle. La méthode employée se classe dans la catégorie des méthodes de décomposition de domaine pour résoudre des problèmes de grande taille.<br />La méthode employée se propose de tirer parti du parallélisme intégré dans la Méthode A Grand Incrément de Temps (LATIN), proposée par Pierre Ladevèze et développée depuis plusieurs années au Laboratoire de Mécanique et Technologie de Cachan, couplée avec une méthode de décomposition de la structure en sous-structures et interfaces. Une première étude, restreinte au cas de l'élasticité plane, a permis de mettre en évidence que l'utilisation directe de cette approche, sans stratégie particulière, perd rapidement de son efficacité lorsque le nombre de sous-structures croît.<br />Le but du travail de thèse a été de montrer la faisabilité de l'intégration d'une stratégie multiéchelle (à 2 degrés de raffinement suivant une vision hiérarchique), pour pallier la difficulté précédente. L'adjonction d'un problème à grande échelle, global sur toute la structure, permet ainsi de prendre en compte les effets à grande longueur d'onde et de propager rapidement l'information parmi les sous-structures. Cette stratégie a été implantée dans le code de calcul de type industriel CASTEM2000 (maintenant Cast3M) de façon à pouvoir être portée sur différents calculateurs multiprocesseurs à mémoire distribuée. Un autre point clé est l'étude du choix des discrétisations des champs intervenant dans la méthode, pour ne pas complètement privilégier une approche en déplacement au détriment des quantités « statiques », en particulier pour les interactions entre les sous-structures et leur environnement, à savoir les interfaces qui leur sont connectées.
102

Développement de méthodes rapides pour le calcul de structures électroniques

Barrault, Maxime 12 1900 (has links) (PDF)
Cette thèse présente quelques idées pour l'accélération des calculs ab initio de systèmes physico-chimiques. Après une introduction générale aux modèles et aux méthodes faite au chapitre 1, le chapitre 2 est consacré à une présentation mathématique de la construction des pseudo-potentiels qui mènent à une réduction considérable de la taille du problème électronique. On s'intéresse ensuite au problème aux valeurs propres généralisé qui constitue l'étape limitante de la résolution du problème électronique. On propose dans le chapitre 3 une méthode de décomposition de domaine de complexité linéaire avec le nombre d'électrons du système en terme de temps CPU et d'encombrement mémoire. Cette méthode, adaptée au traitement des systèmes isolants, remédie à certaines insuffisances des méthodes existantes. Dans le même esprit, le chapitre 4 est dédié à une tentative d'adaptation des méthodes dites de projection pour le traitement des gros systèmes métalliques. Un autre problème est abordé au chapitre 5. Il s'agit de l'application de la méthode des bases réduites au problème électronique. Dans un premier temps, des résultats montrant la faisabilité de l'approche ont été obtenus sur les systèmes H2+ et H2 où la base de discrétisation pour la résolution du problème électronique dépend de la position des noyaux, paramètres du système. Dans un second temps, une adaptation de la méthode des bases réduites pour traiter un problème non linéaire est présentée. Le chapitre 6 présente enfin des conclusions générales sur l'ensemble des approches abordées dans la thèse, ainsi que quelques pistes pour des développements futurs.
103

Modélisation et méthodes de décomposition de domaines pour des problèmes de contact

Sabil, Jalila 30 September 2004 (has links) (PDF)
Dans ce travail, on s'intéresse à la modélisation d'un problème de revêtement ``mince'' et à l'étude de méthodes de décomposition de domaine en mécanique du contact.\\<br />La première partie porte sur un problème de contact quasistatique avec loi de Coulomb pour un solide élastique revêtu d'une couche ``mince''. Après avoir établi un théorème d'existence, nous définissons un rapport critique entre les paramètres géométriques et élastiques du système. Pour ce rapport, nous établissons rigoureusement une loi de contact limite en faisant tendre l'épaisseur relative du revêtement vers zéro.\\<br />La deuxième partie est dédiée aux méthodes de décomposition ``naturelle'' de domaine pour des problèmes de contact. Celle-ci consiste à considérer la zone de contact comme interface de décomposition mathématique. Nous étudions d'abord un problème de contact sans frottement entre deux corps élastiques (Signorini) pour lequel on propose et on démontre la convergence d'un algorithme de type ``Neumann-Dirichlet''. Ce résultat est ensuite généralisé à un problème de contact avec frottement de Coulomb. Enfin, nous proposons et nous montrons la convergence d'un algorithme plus parallélisable ``Neumann-Neumann'' pour un problème de Signorini.<br /> Des résultats numériques montrent la validité de la méthode. \\
104

Systèmes à composants synchronisés : contributions à la vérification compositionnelle du raffinement et des propriétés

Lanoix, Arnaud 31 August 2005 (has links) (PDF)
L'augmentation en taille et en complexité des systèmes réactifs font que leur vérification est de plus en plus difficile à comprendre et à appréhender. Dans cette thèse, une approche est proposée pour spécifier et vérifier compositionnellement certains de ces systèmes.<br /><br />Cette approche est basée sur un principe de décomposition supportant un raffinement compositionnel au niveau des composants et au niveau de leur produit synchronisé~: une méthode est présentée pour vérifier le raffinement d'un système à composants à partir du raffinement de ses composants.<br /><br />Les propriétés LTL sont préservées par le raffinement compositionnel présenté ici. De plus, certaines propriétés -- comme les invariants et les propriétés LTL de sûreté -- peuvent être vérifiées compositionnellement durant la phase de vérification du raffinement.<br /><br />Un outil, nommé SynCo, implante cette approche de vérification compositionnelle. Les différents aspects de ce travail sont illustrés par plusieurs exemples~: un robot industriel, un système d'essuyage et un porte-monnaie électronique.
105

Résolution des équations intégrales pour la diffraction d'ondes acoustiques et électromagnétiques - Stabilisation d'algorithmes itératifs et aspects de l'analyse numérique

Christiansen, Snorre H. 11 January 2002 (has links) (PDF)
Cette thèse porte sur la résolution numérique, par la méthode des équations intégrales de frontière de problèmes de diffraction d'ondes acoustiques et électromagnétiques, en régime fréquentiel.<br />La méthode de Galerkin avec des éléments finis (scalaires ou vectoriels) de surface conduit à des systèmes matriciels mal conditionnés. Dans une première partie, pour accélérer la convergence d'algorithmes itératifs, on propose et étudie théoriquement et numériquement des préconditionneurs basés sur<br />les relations de Calderon qui lient les opérateurs intégraux apparaissant dans les équations. En électromagnétisme on utilise de plus des analogues discrets de la décomposition de Helmholtz des champs tangents. Dans une deuxième partie on utilise des estimations sur ces décompositions pour effectuer une nouvelle analyse numérique de l'équation intégrale de champ électrique. Cette analyse est étendue au cas de la diffraction par les<br />surfaces ouvertes (écrans), modélisant les conducteurs parfaits minces.
106

RS2.7 : un Canevas Adaptable de Services de Duplication

Drapeau, Stéphane 24 June 2003 (has links) (PDF)
Notre objectif dans cette thèse est de donner la propriété d'adaptabilité à l'aspect duplication. La séparation des préoccupations et l'approche par services permettent au développeur d'applications de s'abstraire de l'aspect duplication lors de ses développements. Cependant, ces approches souffrent d'une limitation majeure : il semble très difficile, voir impossible, de fournir un service/aspect générique de duplication pouvant être paramétré afin d'être utilisé dans différents contextes d'exécution et couvrant l'ensemble des protocoles existants. Ces constatations nous ont conduit à la définition d'un canevas de services de duplication, nommé RS2.7. RS2.7 est le squelette d'un service de duplication définissant sa structure. Il permet d'obtenir des services de duplication indépendants de tout code propre à l'application, pouvant être utilisés dans différents contextes non fonctionnels (transactionnel, mémoires partagées, etc.) et prenant en compte les contraintes et les protocoles spécifiques à chaque domaine. Nos contributions portent sur trois axes : (1) la modélisation des services de duplication pouvant être obtenus à partir de RS2.7, (2) l'adaptabilité du canevas par rapport au contexte non fonctionnel et (3) l'adaptabilité dans tout ou partie des protocoles de duplication. RS2.7 a été mis en \oe uvre et notre validation porte sur la démonstration des caractéristiques d'adaptabilité offertes. Nous cherchons à montrer que notre canevas permet d'obtenir des services très variés et convenant pour divers contextes non fonctionnels.
107

Modélisation et assimilation de données en océanographie

Blayo, Eric 01 July 2002 (has links) (PDF)
Améliorer la connaissance des circulations dans les océans est d'une importance majeure pour la prévision à court et moyen terme de l'évolution du système climatique, ainsi que pour le développement de l'océanographie cotière et de l'océanographie opérationnelle. Les sources d'information disponibles pour accéder à cette connaissance sont, comme en météorologie, les modèles physiques et numériques et les observations. Dans ce contexte, ce mémoire résume l'essentiel de mes travaux de recherche de ces dernieres années, consacrés à la modélisation numérique et l'assimilation de données pour l'océanographie. J'y présente tout d'abord quelques aspects concernant les schémas utilisés dans les modèles numériques. On s'intéresse ensuite au raffinement, éventuellement adaptatif de maillage dans ces modèles, et à son extension naturelle vers le couplage de modèles. Enfin, la dernière partie est consacrée aux méthodes d'assimilation de données, qui visent à fournir un compromis optimal entre observations et prévisions du modèle, et plus particulièrement au développement de méthodes de rang réduit.
108

Méthodes exploratoires d'analyse de données temporelles

Saporta, Gilbert 10 June 1981 (has links) (PDF)
L'analyse en composantes principales et l'analyse des correspondances sont généralisées pour étudier des ensembles de trajectoires de processus numériques ou qualitatifs. On étudie également certains problèmes de régression avec une infinité non dénombrable de variables: régression sur un processus, régression d'un processus sur un autre.
109

Analyse et interprétations expérimentales en polarimétrie de Mueller. Applications biomédicales.

Loïc, Martin 20 April 2011 (has links) (PDF)
Dans le cadre d'une thèse financée par la région Bretagne, nous nous sommes attachés à mettre en évidence la possibilité d'utiliser la polarimétrie de Mueller comme outil d'investigations biomédicales. Cette technique, utilisant les propriétés de la polarisation de la lumière, permet une exploration non invasive des tissus biologiques en s'appuyant sur des agents de contraste naturels. La première partie de notre étude a été le développement du polarimètre, montage expérimental complet permettant la mesure de la matrice de Mueller du milieu d'étude. Après avoir choisi les éléments optiques adéquats (polariseurs en verre dichroïque, lames de phase entrainées en rotation par des moteurs pas à pas) ainsi que la source (diode laser à 808 nm) et le détecteur (caméra CCD 795x596 pixels avec objectif de 28 mm), nous nous sommes concentrés à optimiser le système d'acquisition de la matrice de Mueller. En effet, lors de la mesure, des perturbations qui constituent le " bruit expérimental " viennent limiter la précision du système. Nous distinguons deux sources d'incertitude distinctes : les erreurs aléatoires, inhérentes à l'expérience, et les erreurs systématiques, liées à la qualité intrinsèque des composants optiques et à leurs défauts de positionnement. En interférant avec le signal étudié, ces erreurs de mesure justifient l'importance d'un étalonnage rigoureux du polarimètre. Nous avons alors appliqué différentes méthodologies permettant de réduire grandement les effets néfastes de ces erreurs de mesure. D'un côté, une méthode de surdétermination du système (64 mesures d'intensités en réalisant 64 combinaisons angulaires des orientations des lames quart d'onde) permet de minimiser les erreurs aléatoires. Ces 64 combinaisons angulaires ont été judicieusement choisies grâce à la minimisation du nombre de conditionnement associé à la matrice de passage du système. Pour atténuer l'influence des erreurs systématiques, nous avons réalisé un repérage des axes neutres des lames quart d'onde précis au millième de degré près. Puis, nous avons utilisé une méthode de recherche des paramètres réels des lames de phase (retard et ellipticité). Pour pouvoir estimer les incertitudes de mesure liées à une matrice de Mueller expérimentale, nous pouvons mettre sous la forme d'une matrice de Mueller les écarts type statistiques mesurés pour chacune des 64 intensités. Nous pouvons alors évaluer les matrices de Mueller des erreurs aléatoires et systématiques. En réduisant au maximum ces matrices d'erreurs lors d'une mesure de la matrice de Mueller du système à vide, nous pouvons considérer notre polarimètre comme étant correctement étalonné. La dernière étape de ce travail a consisté à implanter un système imageur sur notre polarimètre. Grâce à des systèmes de mise en forme du faisceau (système de diaphragme et d'un couple de lentilles convergentes) et de réduction du bruit de speckle (film diffuseur homogène sur disque tournant), nous pouvons alors utiliser notre polarimètre en imagerie afin de pouvoir caractériser des milieux biologiques. La deuxième partie de notre étude s'est portée sur l'analyse et l'interprétation de la matrice de Mueller. Une fois celle-ci mesurée, il faut introduire des techniques d'extraction de l'information polarimétrique. Pour cela, nous utilisons la technique de décomposition de la matrice de Mueller en éléments simples de polarisation. L'information de polarisation contenue dans la matrice est alors modélisée en termes de dichroïsme (modifications d'amplitude du champ électrique), de biréfringence (modifications de phase du champ électrique) et de dépolarisation (action non déterministe). Pour l'étude de milieux complexes que sont les tissus biologiques, il est impératif d'utiliser une décomposition qui modélise au mieux les propriétés du milieu (configuration expérimentale, nombre et ordre des effets optiques simples) et qui minimise l'influence des erreurs de mesure. Nous avons pour cela introduit une procédure de génération de bruit pseudo expérimental afin de pouvoir inspecter, sur des matrices théoriques et expérimentales, la propagation des erreurs sur les paramètres polarimétriques calculés grâce aux quatre algorithmes existants (classique, inverse, normal et symétrique). Notre étude a alors montré qu'aucune de ces décompositions n'étaient adapté à l'étude de milieux diffusants en rétrodiffusion (configuration expérimentale choisie pour l'étude des tissus biologiques). Nous avons alors opté pour l'utilisation d'une nouvelle décomposition dite " hybride " qui permet à la fois de modéliser parfaitement la géométrie des milieux biologiques et de propager les erreurs expérimentales de manière satisfaisante. Cet algorithme hybride nous a également permis de mettre au point une procédure de détermination de la décomposition adéquate. En effet, si cet algorithme permet de traiter tous les systèmes physiques, il peut également servir à identifier le nombre et l'ordre des effets optiques élémentaires et ainsi minimiser l'influence des incertitudes expérimentales en utilisant des décompositions plus simples (classique et inverse). La troisième et dernière partie de notre étude s'est donc attachée à l'étude polarimétrique de tissus biologiques. Dans un premier temps, nous nous sommes intéressés à l'étude du syndrome cutané d'irradiation aiguë. Les différentes études ont montré que le phénomène d'irradiation engendrait une baisse de la dépolarisation ainsi qu'une perte de son caractère anisotrope, phénomènes constatés lors d'altérations des fibres de collagène. Nous avons également mis en évidence la dépendance de la réponse polarimétrique à la longueur d'étude. En effet, la discrimination entre échantillon sain et échantillon irradié (même faiblement) se fait plus efficacement en utilisant des hautes longueurs d'onde (λ > 800 nm). En revanche, pour discriminer les échantillons irradiés suivant la dose reçue, une investigation plus en surface (λ < 600 nm) semble donner des résultats plus satisfaisants. Enfin, nous avons utilisé l'imagerie polarimétrique pour l'étude de la fibrose hépatique. L'interprétation statistique des images acquises a permis de montrer que la polarimétrie de Mueller semble permettre la discrimination des différents stades de fibrose. Les paramètres de dépolarisation semblent permettre la discrimination entre le foie sain et les premiers stades de fibrose (F1-F2). L'information de dispersion sur les paramètres de retard (retardance et azimut associé) permet la discrimination entre échantillons cirrhosés (F4) et non cirrhosés (F0 à F3).
110

Optimisation multidisciplinaire de lanceurs

Balesdent, Mathieu 03 November 2011 (has links) (PDF)
La conception de lanceurs est un problème d'optimisation multidisciplinaire (MDO) complexe qui a la particularité d'intégrer une optimisation de trajectoire très contrainte, difficile à résoudre et fortement couplée à toutes les autres disciplines entrant en jeu dans le processus de conception (e.g. propulsion, aérodynamique, structure, etc.). Cette thèse s'intéresse aux méthodes permettant d'intégrer judicieusement l'optimisation de la trajectoire au sein du processus d'optimisation des variables de conception. Une nouvelle méthode, appelée "Stage-Wise decomposition for Optimal Rocket Design" (SWORD), a été proposée. Celle-ci décompose le processus de conception suivant les différentes phases de vol et transforme le problème d'optimisation de lanceur multiétage en un problème de coordination des optimisations de chacun des étages, plus facile à résoudre. La méthode SWORD a été comparée à la méthode MDO classique (Multi Discipline Feasible) dans le cas d'une optimisation globale d'un lanceur tri-étage. Les résultats montrent que la méthode SWORD permet d'améliorer l'efficacité du processus d'optimisation, tant au niveau de la vitesse de recherche de l'espace de solutions faisables que de la qualité de l'optimum trouvé en temps de calcul limité. Afin d'améliorer la vitesse de convergence de la méthode tout en ne requérant pas de connaissance a priori de l'utilisateur au niveau de l'initialisation et l'espace de recherche, une stratégie d'optimisation dédiée à la méthode SWORD a été développée.

Page generated in 0.1332 seconds