• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 251
  • 113
  • 32
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 398
  • 131
  • 107
  • 78
  • 78
  • 60
  • 55
  • 52
  • 49
  • 42
  • 41
  • 40
  • 40
  • 38
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

États métastables dans les systèmes désordonnés : des verres de spins aux

Lefevre, Alexandre 04 July 2003 (has links) (PDF)
Les matériaux vitreux sont caractérisés par l'existence d'un grand nombre d'états métastables. Parmi ceux-ci, les verres de spins sont les systèmes les plus étudiés et les mieux connus. À l'opposé, l'appartenance des empilements granulaires à la classe des systèmes vitreux est récente, et le rôle des états métastables n'y est pas encore bien compris. Dans cette thèse, les connaissances acquises sur les verres de spins sont mises à profit pour étudier la dynamique stationnaire des milieux granulaires vibrés. <br> Dans une première partie, les propriétés dynamiques essentielles des modèles de verres de spins en champ-moyen sont passées en revues. La notion d'état métastable est ensuite discutée, ainsi que le lien avec la perte d'ergodicité dans la phase vitreuse. Enfin, plusieurs méthodes numériques et analytiques permettant de calculer l'entropie configurationnelle sont exposées en détail. <br> La seconde partie traite des états métastables dans les milieux granulaires. Un algorithme de "tapping" y est introduit, permettant d'obtenir un modèle paradigmatique pour l'étude des systèmes granulaires vibrés, partiellement accessible analytiquement. Le scénario proposé par Edwards selon lequel dans l'état stationnaire tous les états métastables sont visités avec la même probabilité est testée sur plusieurs modèles. L'étude de modèles unidimensionnels permet de comprendre la validité de cette approche aux grandes densités, alors que l'étude de modèles sur des graphes aléatoires montre que la mesure d'Edwards permet de décrire de façon précise des phénomènes non triviaux comme des transitions de phase. Enfin, des tests permettant de vérifier expérimentalement cette approche sont proposés.
182

Comportements collectifs d'animaux et physique hors-équilibre

Grégoire, Guillaume 20 February 2003 (has links) (PDF)
Cette thèse présente des modèles bi-dimensionnels stochastiques de physique hors d'équilibre décrivant les mouvements collectifs d'animaux. Le but n'est pas la simulation réaliste mais la compréhension d'un petit nombre d'ingrédients. Dans la première partie, nous étudions la mise en mouvement d'une population uniformément répartie dans l'espace. Deux transitions, ou du second ordre , ou discontinue, sont observées et entièrement caractérisées. Au point de transition, la diffusion est anormale, ce qui nous permet de modéliser une expérience de traceurs passifs dans un bain de bactéries. La seconde partie est dédiée à l'étude des troupeaux, fixes ou mobiles, avec un ordre interne ou sans. Nous définissons chacune des phases par leurs propriétés microscopiques et macroscopiques de cohésion et de diffusion. Ainsi nous montrons que ces modèles autorisent l'existence de troupeaux cohésifs arbitrairement grands sur un espace ouvert et nous dessinons le diagramme des phases associé. Enfin, nous montrons que l'ébranlement des troupeaux déstabilise leur structure interne et produit des formes surprenantes et complexes de petits troupeaux reliés par des filaments.
183

Hydrodynamique et fluctuations aux interfaces

Bickel, Thomas 28 March 2012 (has links) (PDF)
Mes travaux ont pour fil conducteur l'étude des fluctuations aux interfaces. Dans ce manuscrit je présente mes résultats sur les propriétés d' équilibre des colloi des aux interfaces. Je considère ensuite la diffusion de particules colloi dales, d'abord dans un gradient de température pour des particules chargées puis en situation de con finement au voisinage d'une interface fluctuante. Enfin, je d ecris notre étude sur les fluctuations hors d' équilibre d'une interface soumise a un écoulement de Couette. Pour terminer, je présente quelques pistes quant aux projets que je compte développer dans le futur.
184

Oscillateurs couplés, désordre et synchronisation

Luçon, Eric 19 June 2012 (has links) (PDF)
Dans cette thèse, nous étudions le modèle de synchronisation de Kuramoto et plus généralement des systèmes de diffusions interagissant en champ moyen, en présence d'un aléa supplémentaire appelé désordre. La motivation principale en est l'étude du comportement du système en grande population, pour une réalisation fixée du désordre (modèle quenched). Ce document, outre l'introduction, comporte quatre chapitres. Le premier s'intéresse à la convergence de la mesure empirique du système d'oscillateurs vers une mesure déterministe, solution d'un système d'équations aux dérivées partielles non linéaires couplées (équation de McKean-Vlasov). Cette convergence est prouvée indirectement via un principe de grandes déviations dans le cas averaged et directement dans le cas quenched, sous des hypothèses plus faibles sur le désordre. Le deuxième chapitre est issu d'un travail en commun avec Giambattista Giacomin et Christophe Poquet et concerne la régularité des solutions de l'EDP limite ainsi que la stabilité de ses solutions stationnaires synchronisées dans le cas d'un désordre faible. Les deux derniers chapitres étudient l'influence du désordre sur une population d'oscillateurs de taille finie et illustrent des problématiques observées dans la littérature physique. Nous prouvons dans le troisième chapitre un théorème central limite quenched associé à la loi des grands nombres précédente: on montre que le processus de fluctuations quenched converge, en un sens faible, vers la solution d'une EDPS linéaire. Le dernier chapitre étudie le comportement en temps long de cette EDPS, illustrant le fait que les fluctuations dans le modèle de Kuramoto ne sont pas auto-moyennantes.
185

Développement d'une méthode d'éco-conception basée sur la modélisation et l'évaluation des filières de valorisation : application au secteur automobile.

Chemineau, Léonard 04 May 2011 (has links) (PDF)
La conception des véhicules automobiles est soumise à des contraintes fortes, liées à la gestion de la fin de vie des produits (réglementations, responsabilités sur l'augmentation des déchets, conséquences économiques de la raréfaction des ressources, image). Dans ce contexte, nous cherchons à déterminer quel système de mesure de la valorisabilité et du changement de valeur en fin de vie peut permettre une éco-conception efficace et une réduction des risques réglementaires. Un modèle est proposé, basé sur les trois objets fondamentaux 'Flux', 'Filière' et 'Arborescence'. Le Flux, brique élémentaire, décrit les performances et limites techniques (faisabilité, gisements disponibles, débouchés potentiels, stabilité, stade de développement, etc.) et économiques (valeur du produit d'entrée, coût de traitement, valeur du produit de sortie) des procédés de traitement d'un produit en fin de vie. L'agencement des Flux permet de construire des Filières, puis des Arborescences, représentatives de l'ensemble des possibilités de valorisation pour une pièce. Le modèle permet d'obtenir des "Règles génériques d'éco-conception" (applicables avant le début de la conception) et un "Outil d'évaluation de la valorisabilité" (utilisable en cours de conception), et s'appuie sur la mesure de la valorisabilité massique et de la rentabilité potentielle de valorisation. Plusieurs études de cas sont réalisées, sur des pièces automobiles en cours de conception : Pare-choc, Garniture de jupe, Panneau de porte, Pare-soleil. Nous proposons des pistes d'amélioration pour chacune des pièces étudiées, et dégageons des approches possibles de l'éco-conception. Ces approches permettent de positionner et d'améliorer la "performance éco-conception" d'une pièce. La méthode proposée peut être utilisée en dehors du secteur automobile.
186

Diagnostic et adaptation des trajectoires robotiques en projection thermique

Fang, Dandan 08 December 2010 (has links) (PDF)
Robots manipulateurs sont couramment utilisés pour la projection thermique, qui peuvent être programmés de deux façons : par apprentissage et par la programmation hors-ligne. La programmation par apprentissage ne peut pas garantir la qualité de revêtements, en particulier pour les pièces de forme complexe. La technologie de la programmation hors-ligne est une bonne solution, en utilisant le fichier CAO de la pièce à revêtir. Le but de cette étude est de développer une trousse à outil - Thermal Spray Toolkit (TST) sous RobotStudio™ 5 (ABB), un logiciel de programmation hors-ligne, pour générer la trajectoire adaptée à l'application de projection thermique en fonction de la forme de la pièce et des paramètres cinématiques tels que la distance de projection, l'orientation normal à la surface, le débordement, le pas de balayage etc. Cela résout les difficultés de génération de la trajectoire adaptée à la projection thermique sur la pièce complexe sous RobotStudio™. En outre, deux méthodes d'amélioration de la trajectoire sont proposées pour maintenir la vitesse du CDO après les analyses. Les simulations et les essais ont prouvé que ces deux méthodes peuvent améliorer efficacement la stabilité de la vitesse du CDO ainsi que la qualité du revêtement. A la fin, l'axe externe rotatif a été appliqué en projection thermique et la programmation d'axe externe automatique a été intégrée également dans le TST. Les trajectoires verticale et horizontale ont été générées et analysées sur une pièce qui nécessite de l'utilisation d'un axe externe. Les simulations et les essais ont été réalisés pour ces différents programmes, ils ont montré que la trajectoire verticale a donné de meilleurs résultats que la trajectoire horizontale.
187

Investigation expérimentale des interactions dans les circuits mésoscopiques : décohérence quantique, transferts d'énergie, blocage de Coulomb, effet de proximité

Pierre, Frédéric 06 May 2011 (has links) (PDF)
Les travaux de recherche décrits dans ce mémoire couvrent plusieurs phénomènes spécifiques à la physique mésoscopique des nanocircuits. Une large part de ces travaux porte sur la compréhension des mécanismes d'interactions à l'œuvre et de leur impact sur le temps de cohérence quantique, les transferts d'énergie, la nature des états électroniques ainsi que sur l'électrodynamique des nanocircuits électriques et l'effet de proximité supraconducteur. Dans ce mémoire j'ai cherché pour chacun de mes thèmes de recherche à décrire le cadre dans lequel se situe le travail et à expliquer les principaux résultats. Le lecteur est invité à se référer aux articles pour plus de détails.
188

Forces et Fluctuations : Forces induites par l'agitation et reponse d'adhesifs moleculaires

Bartolo, Denis 17 October 2003 (has links) (PDF)
Ce manuscrit est divisé en trois parties : (I) Sont présentées deux études concernant les forces effectives entre objets plongés dans un milieu fluctuant. A l'équilibre thermodynamique, nous caractérisons complètement la distribution, non universelle, des forces ressenties par deux objets pour quelques cas simples. Nous étendons aussi le concept de forces induites par les fluctuations à des milieux maintenus hors équilibre. (II) Nous y étudions la réponse dynamique d'adhésifs moléculaires. Une première étude concerne l'interprétation d'expériences récentes sur molécule unique. Nous identifions et discutons, en particulier, l'ambiguïté des interprétations usuelles de ces expériences. Nous montrons ensuite comment la topologie des chemins vers la rupture se traduit dans la complexité de la réponse dynamique des adhesifs. (III) On y fournit quelques commentaires sur les interactions élastiques qui existent entre des inclusions rigides déformant localement une interface molle.
189

Dynamique hors d'équilibre classique et quantique. Formalisme et applications.

Aron, Camille 20 September 2010 (has links) (PDF)
Cette thèse traite de la dynamique de systèmes couplés à un environnement. Nous recensons les symétries du formalisme Martin-Siggia-Rose-Janssen-deDominicis associé aux équations de Langevin. À l'équilibre, nous étendons le formalisme super-symétrique aux cas d'un bruit coloré et multiplicatif et exhibons une symétrie qui génère tous les théorèmes d'équilibre. Brisée, elle donne lieu aux différents théorèmes de fluctuations. Une autre symétrie, valable aussi hors d'équilibre, fournit des équations dynamiques couplant corrélations et réponses. Par ailleurs nous étendons le formalisme super-symétrique au cas du bruit coloré et multiplicatif. Nous suivons, par des simulations de Monte Carlo, la croissance de domaines dans le modèle d'Ising 3d soumis à un champ magnétique aléatoire après une trempe en température. En étudiant les lois d'échelle dynamiques, nous confirmons la conjecture de super-universalité. En revanche, nous montrons qu'elle est absente dans la dynamique vitreuse du modèle d'Edwards-Anderson 3d malgré l'existence d'une échelle de longueur permettant d'écheler des observables globales et locales. Nous étudions analytiquement la dynamique de roteurs quantiques désordonnés couplés brutalement à un environnement qui impose un courant électrique à travers le système. Nous prouvons l'existence d'une transition de phase dynamique entre une phase stationnaire de non-équilibre et une phase ordonnée à basse température, faibles fluctuations quantiques et faible courant. Nous montrons que celui-ci joue le rôle d'un bain d'équilibre sur la dynamique vieillissante qui est décrite par des lois d'échelle super-universelles.
190

Statistical methods for analysing serum protein electrophoretic data in External Quality Assessment (EQA) programmes

Zhang, Lixin 03 December 2010 (has links)
Les examens de laboratoire jouent un rôle essentiel dans la pratique médicale. Ils sont utilisés à des fins diagnostique, pronostique, thérapeutique ou encore pour dépister des maladies spécifiques dans des populations présumées en bonne santé (Tietz, 1986). Quotidiennement, les laboratoires de biologie clinique réalisent des millions de tests fournissant autant de données à interpréter. Les responsables des soins de santé ont toujours été préoccupés par la qualité globale du travail réalisé dans les laboratoires. En dépit de procédures de contrôle de qualité interne rigoureuses, les résultats obtenus pour un même échantillon dans deux laboratoires peuvent occasionnellement différer de façon notoire. Il serait inacceptable cependant quun résultat dun test biologique soit considéré comme « normal » dans un laboratoire et « anormal » dans lautre. Les programmes dEvaluation Externe de la Qualité (EEQ) ont précisément comme objectif de contrôler la performance analytique des laboratoires de biologie clinique à une grande échelle et généralement par le biais dun organisme externe. Le but de lEEQ est de sassurer que les résultats des tests soient compatibles quel que soit le laboratoire qui réalise les analyses, en dautres termes de garantir la comparabilité des laboratoires et par là-même dadministrer les meilleurs soins aux patients (Libeer, 1993). Les protocoles EEQ consistent à organiser des enquêtes dans lesquelles les laboratoires participants doivent réaliser des analyses sur un même échantillon contrôle comme sil sagissait danalyses de routine. Il faut ensuite renvoyer les résultats de ces analyses au centre EEQ avec des informations détaillées sur les techniques de dosage utilisées. Les résultats sont alors soumis à une analyse statistique. En réalité, lanalyse statistique poursuit trois objectifs : (1) obtenir une estimation robuste de la concentration du constituant (moyenne) dans léchantillon contrôle et de la variabilité entre les laboratoires (écart-type), une estimation robuste étant nécessaire car les résultats EEQ contiennent souvent des valeurs aberrantes qui peuvent sérieusement affecter la moyenne et de lécart-type ; (2) évaluer la qualité des laboratoires en mettant en évidence les résultats « hors-limites » et les laboratoires « peu performants » et ce, à court et à long termes ; (3) évaluer et comparer la précision analytique des techniques/équipements utilisés par les participants (Albert, 1997). Depuis plusieurs dizaines dannées, des programmes EEQ ont été mis en place dans de nombreux pays et ils contrôlent la plupart des analyses de biologie clinique classiques comme le glucose, le cholestérol ou le calcium, ou encore les enzymes et les hormones. Ce travail a débuté lorsque lélectrophorèse de protéines fut introduite dans le panel des analyses de laboratoire soumises à lEEQ. Contrairement aux autres tests contrôlés jusqualors, lélectrophorèse de protéines fournit non pas une valeur mais cinq fractions, respectivement, lalbumine, les globulines α1, α2, β et , dont la somme fait 100% et dont linterprétation doit se faire globalement. En dautres termes, les données électrophorétiques obtenues dans lEEQ doivent être analysées par des méthodes de la statistique multivariée (Zhang et al, 2008). Ceci nécessite ladaptation à lenvironnement EEQ de méthodes multivariées existantes (telles quon les trouve dans les ouvrages de référence) ou le développement dapproches nouvelles. Dans cette thèse, nous nous sommes fixé comme but dapporter une solution théorique et pratique au problème de lanalyse et de linterprétation des résultats délectrophorèses dans le domaine de lEvaluation Externe de la Qualité. Dans lintroduction de ce travail, un bref rappel est fait des protocoles EEQ et de leur mise en pratique notamment en ayant recours à lInternet. Les méthodes univariées de statistique robuste permettant destimer la moyenne et lécart-type des résultats EEQ sont décrites et la notion de valeur « hors-limites » est définie. Ceci permet dapprécier la qualité dun laboratoire par rapport à ses pairs sur base du résultat quil a fourni. Le concept de coefficient de variation (CV) est aussi présenté comme un moyen de mesurer et de comparer la reproductibilité analytique des techniques de laboratoire. Finalement, on rappelle quelques notions relatives aux électrophorèses de protéines, leur utilité clinique et les méthodes de dosage utilisées. Les bases de données EEQ qui servent à illustrer la méthodologie statistique développée dans ce travail sont décrites en détail. Elles proviennent principalement des enquêtes de lEvaluation Externe de la Qualité réalisées entre 2004 et 2008 en France et en Belgique. La première partie de cette thèse concerne le problème de lévaluation de la performance des laboratoires pour le dosage de lélectrophorèse de protéines. La façon la plus simple consiste à appliquer les méthodes univariées classiques à chaque fraction de lélectrophorèse. Cette façon de procéder cependant ignore que les fractions doivent être interprétées globalement car elles sont corrélées. De plus, elles sont linéairement dépendantes (car leur somme est égale à 100%), ce qui conduit à une matrice de variances-covariances singulière et donc non inversible. La première approche multivariée que nous proposons vise à retirer une des cinq fractions et ainsi éviter le problème de singularité, ensuite à obtenir une estimation robuste du vecteur moyen et de la matrice de variances-covariances par la technique du déterminant de covariance minimum (MCD) publiée par Rousseuw et Van Driessen (1999). On utilise alors la distance de Mahalanobis pour identifier les profils électrophorétiques « hors-limites » et détecter les laboratoires dont la qualité est insatisfaisante (Zhang et al. 2008). Appliquée aux bases de données EEQ, cette méthode simple savère ne pas être optimale car elle donne des corrélations peu fiables et décèle trop de laboratoires « hors-limites ». Cest la raison pour laquelle, une approche nouvelle est proposée dans laquelle une transformation log-ratio (Egozcue et al. 2003) est appliquée aux profils électrophorétiques avant de les analyser statistiquement. Cette méthode transforme les cinq fractions électrophorétiques en quatre variables indépendantes et sans dimension. La technique MCD est alors appliquée pour obtenir des estimations robustes du vecteur moyen et de la matrice de dispersion. Les estimations sont utilisées pour calculer la distance de Mahalanobis et mettre en lumière les laboratoires « hors-limites ». Appliquée aux bases de données EEQ, cette seconde approche est meilleure que la première, non seulement dun point de vue théorique mais aussi pratique, en détectant un nombre plus raisonnable de laboratoires peu performants. Des méthodes de représentations graphiques des profils électrophorétiques sont aussi proposées au moyen du "MCD z-score plot" ou du "star plot" obtenu à partir de lanalyse en composantes principales (ACP) robuste. La seconde partie de la thèse sattache à lévaluation et à la comparaison de la précision analytique des techniques de dosage délectrophorèses utilisées par les laboratoires participants à lEEQ. Ceci nous a conduit à rechercher des méthodes dextension du coefficient de variation (CV) classique au cas multivariée. Les coefficients de variation multivariés publiés dans la littérature sont passés en revue, en ce compris ceux de Reyment (1960) et de Van Valen (1974, 2005). Reyment fut le premier à proposer une définition du CV multivarié et à donner une formule permettant de calculer l'erreur type de l'estimation. Van Valen suggéra une définition plus générale car applicable en toute circonstances mais qui malheureusement ne tient pas compte explicitement des corrélations entre les variables. Par ailleurs, nous avons exploité une idée de Voinov et Nikulin (1996) pour développer un CV multivarié basée sur la distance de Mahalanobis et qui est invariant par rapport à léchelle utilisée. Nous lavons appliqué aux données de lEEQ franco-belge de 2004 et avons ainsi pu classer les techniques électrophorétiques par ordre décroissant de précision analytique (Zhang et al. 2010). Malheureusement, cette approche comme celle du CV de Reyment requiert une matrice de covariance non singulière et nest donc pas applicable pour des groupes deffectif faible (n < 5) de laboratoires utilisant la même technique. Nous avons dès lors proposé une définition originale et tout à fait générale du CV multivarié, notée CVm (Albert et Zhang, 2010). Cette nouvelle formulation jouit de propriétés intéressantes; elle est simple et facile à calculer, ne requiert aucune inversion de matrice (contrairement aux autres techniques) mais uniquement le calcul de formes quadratiques. On nimpose aucune restriction sur le nombre dobservations ni sur le nombre de variables du problème. Nous avons appliqué cette méthode CVm aux bases de données EEQ délectrophorèses et nous avons pu démontrer en pratique sa grande flexibilité. Elle nous a permis de classer toutes les techniques électrophorétiques même pour des groupes de participants de petite taille (n = 2) et de mettre en évidence les plus précises, comme celle de lélectrophorèse capillaire de zone (CZE) complètement automatisée. Nous avons aussi appliqué la nouvelle méthode à des données de cytométrie de flux récoltées dans le cadre dune enquête EEQ réalisée en Belgique en 2010 ainsi quà un échantillon de données de « microarray » publié dans la littérature (Golub et al. 1999), confirmant ainsi son applicabilité à des domaines variés. Enfin, nous présentons quelques développements théoriques personnels sur le CV de Reyment afin de corriger la définition initiale, entachée à notre sens dune erreur de dimension, son estimation ainsi que la formule de lerreur type. En résumé, la méthodologie statistique développée dans ce travail propose une solution complète à lanalyse des données électrophorétiques ou de tout autre profil de tests de laboratoire récoltés dans le cadre denquêtes de lEvaluation Externe de la Qualité.

Page generated in 0.0465 seconds