• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 54
  • 14
  • 1
  • Tagged with
  • 200
  • 65
  • 45
  • 39
  • 33
  • 31
  • 29
  • 28
  • 25
  • 24
  • 24
  • 21
  • 20
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Propriétés thermiques et superfluides du gaz de Bose à deux dimensions

Desbuquois, Rémi 03 June 2013 (has links) (PDF)
Les propriétés physiques d'un système homogène à l'équilibre thermodynamique sont fortement contraintes par sa dimensionnalité. Le gaz de Bose à deux dimensions est un système particulier de ce point de vue : bien que l'établissement d'un ordre à longue portée soit impossible à température non-nulle, il existe néanmoins une transition de phase vers un état superfluide à basse température. De plus, la dimensionalité réduite du système rend son équation d'état invariante par changement d'échalle pour de faibles interactions atomiques répulsives. Dans ce manuscrit de thèse, nous présentons une étude expérimentale du gaz de Bose à deux dimensions. Nous mesurons son équation d'état de deux methodes différentes, et trouvons un résultat en bon accord avec les prédictions analytiques et numériques. Ces résultats ont également permis de confirmer l'invariance d'échelle du système. De plus, l'une des méthodes ne nécessite qu'un seul paramètre ajustable pour la mesure de l'équation d'état. Nous présentons ensuite une mesure locale du caractère superfluide du gaz. À cet effet, nous avons mis en évidence l'absence de dissipation lors de la perturbation du système par un obstacle en mouvement. Enfin, nous effectuons une analyse des fluctuations du gaz de Bose 2D, qui a permis de confirmer la suppression des fluctuations de densité dans la phase superfluide, ainsi que le rôle dominant joué par les phonons dans les fluctuations de phase.
132

Quelques modèles mathématiques homogénéisés appliqués à la modélisation du parenchyme pulmonaire

Cazeaux, Paul 12 December 2012 (has links) (PDF)
Nous présentons des modèles macroscopiques du comportement mécanique du parenchyme pulmonaire humain obtenus par homogénéisation double--échelle. Dans une première partie consacrée au couplage entre parenchyme et arbre bronchique, nous commençons par proposer un modèle de la déformation du parenchyme. Nous modélisons (i) le parenchyme par un matériau élastique linéaire, (ii) les alvéoles comme des cavités de taille epsilon réparties périodiquement dans le domaine macroscopique et (iii) l'arbre bronchique par un arbre dyadique résistif en supposant la loi de Poiseuille valide pour chaque voie aérienne. Nous obtenons en faisant tendre epsilon vers zéro, par homogénéisation, une description macroscopique du parenchyme comme un matériau viscoélastique, sous certaines conditions sur l'irrigation du domaine par l'arbre que nous étudions ensuite. L'arbre induit une dissipation non--locale en espace. Nous illustrons ces résultats par des résultats numériques. Dans une deuxième partie, nous étudions la propagation d'ondes sonores dans le parenchyme, sans prendre en compte l'arbre bronchique. Nous homogénéisons dans le domaine fréquentiel un premier modèle couplant l'élasticité linéarisée dans le parenchyme avec l'équation acoustique dans l'air. Nous déduisons une loi de comportement macroscopique élastique linéaire en dehors d'un ensemble de résonances. Ensuite, nous homogénéisons un deuxième modèle qui prend en compte le caractère viscoélastique et inhomogène du parenchyme au niveau microscopique. Le matériau macroscopique présente des effets de mémoire nouveaux par rapport aux composants microscopiques que nous étudions numériquement.
133

Conditionnement de grands arbres aléatoires et configurations planes non-croisées

Kortchemski, Igor 17 December 2012 (has links) (PDF)
Les limites d'échelle de grands arbres aléatoires jouent un rôle central dans cette thèse.Nous nous intéressons plus spécifiquement au comportement asymptotique de plusieurs fonctions codant des arbres de Galton-Watson conditionnés. Nous envisageons plusieurs types de conditionnements faisant intervenir différentes quantités telles que le nombre total de sommets ou le nombre total de feuilles, avec des lois de reproductions différentes.Lorsque la loi de reproduction est critique et appartient au domaine d'attraction d'uneloi stable, un phénomène d'universalité se produit : ces arbres ressemblent à un même arbre aléatoire continu, l'arbre de Lévy stable. En revanche, lorsque la criticalité est brisée, la communauté de physique théorique a remarqué que des phénomènes de condensation peuvent survenir, ce qui signifie qu'avec grande probabilité, un sommet de l'arbre a un degré macroscopique comparable à la taille totale de l'arbre. Une partie de cette thèse consiste à mieux comprendre ce phénomène de condensation. Finalement, nous étudions des configurations non croisées aléatoires, obtenues à partir d'un polygône régulier en traçant des diagonales qui ne s'intersectent pas intérieurement, et remarquons qu'elles sont étroitement reliées à des arbres de Galton-Watson conditionnés à avoir un nombre de feuilles fixé. En particulier, ce lien jette un nouveau pont entre les dissections uniformes et les arbres de Galton-Watson, ce qui permet d'obtenir d'intéressantes conséquences de nature combinatoire.
134

Chaos multiplicatif Gaussien, matrices aléatoires et applications

Allez, Romain 23 November 2012 (has links) (PDF)
Dans ce travail, nous nous sommes intéressés d'une part à la théorie du chaos multiplicatif Gaussien introduite par Kahane en 1985 et d'autre part à la théorie des matrices aléatoires dont les pionniers sont Wigner, Wishart et Dyson. La première partie de ce manuscrit contient une brève introduction à ces deux théories ainsi que les contributions personnelles de ce manuscrit expliquées rapidement. Les parties suivantes contiennent les textes des articles publiés [1], [2], [3], [4], [5] et pré-publiés [6], [7], [8] sur ces résultats dans lesquels le lecteur pourra trouver des développements plus détaillés
135

Limite d'échelle de cartes aléatoires en genre quelconque

Bettinelli, Jérémie 26 October 2011 (has links) (PDF)
Au cours de ce travail, nous nous intéressons aux limites d'échelle de deux classes de cartes. Dans un premier temps, nous regardons les quadrangulations biparties de genre strictement positif g fixé et, dans un second temps, les quadrangulations planaires à bord dont la longueur du bord est de l'ordre de la racine carrée du nombre de faces. Nous voyons ces objets comme des espaces métriques, en munissant leurs ensembles de sommets de la distance de graphe, convenablement renormalisée. Nous montrons qu'une carte prise uniformément parmi les cartes ayant n faces dans l'une de ces deux classes tend en loi, au moins à extraction près, vers un espace métrique limite aléatoire lorsque n tend vers l'infini. Cette convergence s'entend au sens de la topologie de Gromov--Hausdorff. On dispose de plus des informations suivantes sur l'espace limite que l'on obtient. Dans le premier cas, c'est presque sûrement un espace de dimension de Hausdorff 4 homéomorphe à la surface de genre g. Dans le second cas, c'est presque sûrement un espace de dimension 4 avec une frontière de dimension 2, homéomorphe au disque unité de R^2. Nous montrons en outre que, dans le second cas, si la longueur du bord est un petit~o de la racine carrée du nombre de faces, on obtient la même limite que pour les quadrangulations sans bord, c'est-à-dire la carte brownienne, et l'extraction n'est plus requise.
136

Electromagnetic modeling of large and non-uniform planar array structures using Scale Changing Technique (SCT)

Rashid, Aamir 21 July 2010 (has links) (PDF)
Les structures planaires de grandes tailles sont de plus en plus utilisées dans les applications des satellites et des radars. Deux grands types de ces structures à savoir les FSS et les Reflectarrays sont particulièrement les plus intéressants dans les domaines de la conception RF. Mais en raison de leur grande taille et de la complexité des cellules élémentaires, l'analyse complète de ces structures nécessite énormément de mémoire et des temps de calcul excessif. Par conséquent, les techniques classiques basées sur maillage linéaire soit ne parviennent pas à simuler de telles structures soit, exiger des ressources non disponibles à un concepteur d'antenne. Une technique appelée " technique par changement d'échelle " tente de résoudre ce problème par partitionnement de la géométrie du réseau par de nombreux domaines imbriqués définis à différents niveaux d'échelle du réseau. Le multi-pôle par changement d'échelle, appelé " Scale changing Network (SCN) ", modélise le couplage électromagnétique entre deux échelles successives, en résolvant une formulation intégral des équations de Maxwell par une technique basée sur la méthode des moments. La cascade de ces multi-pôles par changement d'échelle, permet le calcul de la matrice d'impédance de surface de la structure complète qui peut à son tour être utilisées pour calculer la diffraction en champ lointain. Comme le calcul des multi-pôles par changement d'échelle est mutuellement indépendant, les temps d'exécution peuvent être réduits de manière significative en parallélisant le calcul. Par ailleurs, la modification de la géométrie de la structure à une échelle donnée nécessite seulement le calcul de deux multi-pôles par changement d'échelle et ne requiert pas la simulation de toute la structure. Cette caractéristique fait de la SCT un outil de conception et d'optimisation très puissant. Des structures planaires uniformes et non uniformes excité par un cornet ont étés modélisés avec succès, avec des temps de calcul dé lais intéressants, employant les ressources normales de l'ordinateur.
137

Electromagnetic modeling of microstrip reflectarrays using scale changing technique

Tahir, Farooq Ahmad 14 September 2011 (has links) (PDF)
Antenne de l'avenir surtout pour les applications spatiales sont de plus en plus complexe en raison de la nécessité de reconfigurabilité en termes de fréquence, la puissance rayonnée et reçues, la consommation d'énergie et de la fiabilité. Dans ce contexte, réflecteurs et des surfaces sélectives en fréquence (FSS) sont particulièrement les plus intéressantes dans les domaines de la conception RF. Mais en raison de leur grande taille et de la complexité des cellules élémentaires, l'analyse complète de ces structures nécessite énormément de mémoire et des temps de calcul excessif spécialement lorsque des éléments de réglage tels que RF-MEMS sont également intégrés au sein des cellules. Par conséquent, les techniques classiques basées sur maillage linéaire soit ne parviennent pas à simuler de telles structures soit, exiger des ressources non disponibles à un concepteur d'antenne. Une technique appelée "technique par changement d'échelle" tente de résoudre ce problème par partitionnement de la géométrie du réseau par de nombreux domaines imbriqués définis à différents niveaux d'échelle du réseau. Le multi-pôle par changement d'échelle, appelé "Scale Changing Network (SCN)", modélise le couplage électromagnétique entre deux échelles successives, en résolvant une formulation intégral des équations de Maxwell par une technique basée sur la méthode des moments. La cascade de ces multi-pôles par changement d'échelle, permet le calcul de la matrice d'impédance de surface de la structure complète qui peut à son tour être utilisées pour calculer la diffraction en champ lointain. Comme le calcul des multi-pôles par changement d'échelle est mutuellement indépendant, les temps d'exécution peuvent être réduits de manière significative en parallélisant le calcul. Par ailleurs, la modification de la géométrie de la structure à une échelle donnée nécessite seulement le calcul de deux multi-pôles par changement d'échelle et ne requiert pas la simulation de toute la structure. Cette car actéristique fait de la SCT un outil de conception et d'optimisation très puissant. Des structures planaires uniformes et non uniformes excité par un cornet ont étés modélisés avec succès, avec des temps de calcul délais intéressants, employant les ressources normales de l'ordinateur. Avec l'intérêt croissant pour des réflecteurs hautement reconfigurables pour les applications spatiales, différentes technologies pour réaliser la reconfigurabilité du diagramme de rayonnement ont été explorées ces dernières années. L'une d'elles consiste à imprimer un déphasage approprié en différent point du front d'onde incident à l'aide de cellule déphaseuse à MEMS-RF. En raison de la grande diversité des échelles dans de telles structures reconfigurables, les outils classiques de simulation électromagnétique se révèlent souvent inefficaces en termes des ressources informatiques et de temps de calcul. Les approches basées sur un circuit électrique équivalent se sont avérées plus utiles pour les concepteurs.
138

Mécanismes de collage et de transfert de films monocristallins dans des structures à couches de polymères

Argoud, Maxime 07 December 2012 (has links) (PDF)
Les matériaux polymères sont à l'heure actuelle peu considérés dans le vaste domaine des micro et nano technologies. Ils présentent toutefois certaines propriétés remarquables en comparaison des matériaux traditionnels de la microélectronique. Par exemple leur déformabilité et leur légèreté permettent d'envisager des fonctions de supports flexibles pour des composants électroniques. Par ailleurs, ils offrent des solutions d'assemblage de matériaux de diverses natures. Cette étude porte précisément sur ces deux thématiques. En premier lieu, nous avons étudié les mécanismes de collage impliqués dans l'assemblage de substrats de type silicium par une couche de polymère. D'autre part, nous avons proposé des modèles de mécanisme de transfert de films monocristallins sur polymère. Les propriétés mécaniques des matériaux considérés, principalement du silicium monocristallin et des polymères de type vitreux et caoutchoutique, ainsi que leurs épaisseurs, peuvent varier sur plusieurs ordres de grandeur selon la configuration considérée. L'originalité de l'étude est de déterminer et d'aborder des configurations expérimentalement favorables, par des modèles mécaniques simples, élaborés à partir de lois d'échelle. Nous avons proposé, dans un premier temps, ces modèles pour expliquer des résultats liés à des configurations particulières et ainsi démontrer la pertinence de cette approche. Le cœur de notre étude porte sur le transfert de films monocristallins, aussi fins qu'une centaine de nanomètres d'épaisseur, sur polymère par adaptation du procédé Smart-CutTM (transfert par implantation ionique et fracture). En comparaison d'une configuration standard de cette technologie, nous avons notamment étudié l'impact des propriétés mécaniques propres aux polymères (de types vitreux ou caoutchoutique). Les méthodes en loi d'échelle nous ont ainsi permis de proposer des mécanismes de transfert, de l'échelle du nanomètre jusqu'à la fracture macroscopique. Nous avons également exposé un exemple d'application concret par la réalisation d'objets microélectroniques modèles sur et dans un film monocristallin de silicium. La structure, composée d'un film de quelques micromètres d'épaisseur supporté par un polymère, constitue ainsi une structure flexible d'un point de vue mécanique.
139

Modélisation multi-échelle des matériaux viscoélastiques hétérogènes : application à l'identification et à l'estimation du fluage propre de bétons d'enceintes de centrales nucléaires

Le, Quoc Viet 15 January 2008 (has links) (PDF)
Le béton se présente comme un matériau constitué de granulats, jouant le rôle d'inclusions, enchâssés dans une matrice correspondant à la pâte de ciment hydraté. A l'échelle de la pâte, l'hydratation du ciment génère un milieu multiphasique, constitué d'un squelette solide et de pores remplis ou partiellement remplis d'eau selon leur taille. Le composant principal du squelette solide est le gel de C-S-H, les autres composants étant de nature cristalline. La qualification de gel du composant C-S-H est liée à sa nanostructure dont la schématisation la plus admise consiste en une phase aqueuse adsorbée, en sandwich avec des feuillets solides de nature cristalline. Il est bien admis que la structure du C-S-H est à l'origine de son comportement viscoélastique et donc de celui du béton. Ce comportement viscoélastique peut s'expliquer par un réarrangement de sa nanostructure sous l'effet des contraintes mécaniques appliquées à l'échelle macroscopique. La modélisation macroscopique du fluage du béton ne permet pas d'expliquer la variabilité du fluage d'une formulation de béton à une autre. En effet, les paramètres des modèles macroscopiques ne peuvent être identifiés que par l'analyse de résultats expérimentaux obtenus par des essais réalisés sur des éprouvettes de béton. Ces paramètres ne sont valables que pour une formulation donnée. L'identification de ces paramètres conduit donc à des programmes expérimentaux très coûteux et ne fournit pas suffisamment d'informations sur la sensibilité des paramètres macroscopiques à la variabilité des caractéristiques mécaniques et morphologies des constituants. Dans ce travail, on suppose qu'il existe une échelle microscopique à laquelle les mécanismes moteurs du fluage ne sont pas impactés par la formulation du béton. A cette échelle, celle du C-S-H, les propriétés viscoélastiques peuvent être considérées avoir un caractère intrinsèque. L'influence de la formulation ne concerne alors que les concentrations des différents hydrates. Trois approches, analytiques, semi-analytiques et numériques sont alors proposées pour estimer, par une homogénéisation multi-échelle, les propriétés viscoélastiques macroscopiques du béton à partir des propriétés de ses constituants ainsi qu'à partir de sa microstructure. Ces approches sont basées sur l'extension des schémas d'homogénéisation élastique au cas viscoélastique au moyen du principe de correspondance qui utilise la transformée de Laplace-Carson. Les propriétés effectives sont alors déterminées directement dans l'espace de Carson. Par la suite, celles dans l'espace temporel sont obtenues par la transformée inverse. Les approches proposées apportent des solutions aussi bien dans un cadre général que sous certaines hypothèses restrictives : coefficient de Poisson viscoélastique microscopique ou macroscopique constant, module de compressibilité constant. Sur le plan théorique, deux schémas d'homogénéisation ont été étudiés : le schéma de Mori-Tanaka, basé sur le problème de l'inclusion d'Eshelby, et le schéma auto-cohérente généralisé basé sur la neutralité énergique de l'inclusion. Les résultats obtenus montrent que sous ces hypothèses restrictives, le spectre macroscopique se présente comme une famille de sous ensembles de temps caractéristiques bornés par les temps caractéristiques microscopiques. Par ailleurs, les propriétés thermodynamiques, de croissance monotone et de concavité, des fonctions de retard macroscopiques ne sont préservées par l'homogénéisation que sous certaines conditions de compatibilité des spectres microscopiques. Sur le plan pratique, les méthodes développées ont été appliquées pour construire la complaisance de fluage propre macroscopique du béton en connaissant les données communes de toutes sortes de bétons et celles correspondant à une formulation donnée. Les résultats expérimentaux disponibles sont alors exploités pour analyser le caractère intrinsèque des propriétés viscoélastiques à l'origine du fluage du béton
140

Reconstruction hydrométéorologique des étiages historiques en France entre 1871 et 2012 / Hydrometeorological reconstruction of historical low flows in France between 1871 and 2012

Caillouet, Laurie 12 December 2016 (has links)
Les étiages extrêmes entraînent souvent des conséquences importantes sur de multiples secteurs socio-économiques. Les récentes études liées au changement climatique semblent indiquer que ces événements risquent de devenir plus sévères et plus fréquents au cours des prochaines décennies. Malheureusement, le peu de données hydrométéorologiques disponibles avant les années 1970 ne permet pas de remettre dans un contexte historique les derniers événements observés ni ceux projetés par les études d'impact. Ces travaux de thèse s'attachent ainsi à améliorer l'état des connaissances sur les étiages extrêmes historiques ayant touché le territoire français depuis la fin du XIXe siècle grâce à une reconstruction hydrométéorologique. Ils proposent aussi un nouveau cadre méthodologique pour l'étude de ces extrêmes.Des informations sur la situation synoptique atmosphérique depuis la fin du XIXe siècle ont récemment été mises à disposition de la communauté via des réanalyses globales étendues comme la Twentieth Century Reanalysis (20CR). Ces travaux introduisent la méthode SCOPE qui permet de reconstruire la météorologie locale sur l'ensemble de la France à partir de la réanalyse 20CR. Elle produit un ensemble de 25 chroniques météorologiques spatialement homogènes de précipitations, température et évapotranspiration sur la période 1871-2012 et sur une grille de 64 km² recouvrant la France. Ces séries constituent le jeu de données SCOPE Climate, qui est ensuite utilisé comme forçage d'un modèle hydrologique sur un large échantillon de plus de 600 bassins versants français faiblement anthropisés. Un ensemble de 25 reconstructions de débits journaliers, appelé SCOPE Hydro, est ainsi produit entre 1871 et 2012. SCOPE Climate et SCOPE Hydro ont tous deux montré de bonnes performances en comparaison de données indépendantes de leur construction.Des événements spatio-temporels d'étiage extrême sont finalement identifiés et caractérisés à partir des chroniques de débit de SCOPE Hydro. Ces événements sont tout d'abord définis localement comme une période où le débit se trouve en-dessous d'un seuil mixte, combinaison d'un seuil fixe et d'un seuil variable avec la saison. Un regroupement spatial des événements locaux au sein du même événement spatio-temporel d'étiage extrême est effectué à l'échelle de la France, suivant une méthode spécialement mise au point dans le cadre de ces travaux. A l'issue de ces étapes, un événement peut être étudié localement ou à l'échelle nationale, grâce à des caractéristiques d'étendue, de durée ou de sévérité. Cette méthodologie permet d'identifier des événements exceptionnels d'étiage extrême anciens et peu connus (1878, 1893, 1942-1949), ou relativement récents mais peu documentés (1972, 1978, 1985), en plus de ceux connus (1921, 1976, 1989-1990, 2011). L'étude de l'évolution de ces événements sur 140 ans montre une plus grande proportion du territoire français touchée par des étiages extrêmes après les années 1940. Une comparaison des événements reconstruits à des sources documentaires faisant mention des sécheresses passées montre une bonne cohérence entre reconstructions et réalité.Ce travail de thèse contribue aux questions scientifiques d'actualité, notamment dans le cadre de la variabilité climatique et du changement climatique d'origine anthropique et de leurs conséquences hydrologiques. Ces travaux proposent deux méthodes innovantes sur la descente d'échelle statistique multivariée et l'identification spatio-temporelle des événements d'étiage extrême. Ils ont par ailleurs produit deux jeux de données hydroclimatiques ensemblistes de référence utilisables pour tout type d'étude climatique et hydrologique requérant une profondeur historique importante. / Extreme low-flow events have significant consequences on numerous socio-economic fields. Hydroclimate projections for the 21st century suggest an increase in low-flow severity and frequency. Nevertheless, projected events as well as recent observed events can hardly be put into a sufficiently long historical perspective due to the lack of hydrometeorological data before the 1970s. This work proposes to improve the knowledge on past extreme low-flow events having affected France since the end of the 19th century thanks to a hydrometeorological reconstruction. It also provides a new methodological framework to study these extreme events.Information on the atmospheric synoptic situation since the end of the 19th century have recently been released to the scientific community through extended global reanalyses like the Twentieth Century Reanalysis (20CR). This work introduces the SCOPE method that provides local meteorological reconstructions on the entire France derived from the 20CR reanalysis. SCOPE produces a 25-member ensemble of spatially coherent meteorological series of daily precipitation, temperature and evapotranspiration over the 1871-2012 period and on a 64 km² grid covering France. This dataset, called SCOPE Climate, is then used as forcings to run continuous hydrological simulations over more than 600 near-natural French catchments leading to a 25-member ensemble of daily streamflow time series -- called SCOPE Hydro -- between 1871 and 2012. SCOPE Climate and SCOPE Hydro show a relatively high skill during validation experiments against independent data.Spatio-temporal extreme low-flow events are finally identified and characterised from SCOPE Hydro reconstructed series. The events are first locally identified based on deficit characteristics under a novel combination of a fixed threshold and a daily variable threshold. A spatial matching procedure at the scale of France is developed in order to spatially assemble local extreme events into the same spatio-temporal event. After these steps, an event can either be studied at the local or national scale through its spatial extent, duration or severity characteristics. This work identified past and little known exceptional extreme events (1878, 1893, 1942-1949) or recent but poorly documented events (1972, 1978, 1985) besides well-known events (1921, 1976, 1989-1990, 2011). The evolution of these events since 1871 shows that a greater proportion of the French territory is affected by extreme low-flow events since the 1940s. A good coherence is found between reconstructed events and documentary sources on historical droughts.This work contributes to timely scientific issues, especially within the context of climate change and its hydrological impacts. This work proposes two innovative methods on multivariate statistical downscaling and spatio-temporal identification of extreme low-flow events. It also produced two reference hydroclimatic datasets that may be used in any study requiring long hydrometeorological series.

Page generated in 0.0679 seconds