• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1250
  • 436
  • 125
  • 10
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1823
  • 854
  • 456
  • 310
  • 282
  • 216
  • 203
  • 193
  • 182
  • 166
  • 164
  • 144
  • 142
  • 141
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
591

Édition et analyse de l'enquête du péage de Mézel (1407) : enjeux, procédure et stratégie

Prost, Patricia January 2009 (has links) (PDF)
Ce mémoire propose une édition du manuscrit FF107 des archives communales de Digne, en Provence. Rédigé à la suite d'une enquête qui fut menée en 1407, le manuscrit regroupe les dépositions des 35 témoins qui furent entendus pour le compte de la ville de Digne dans un conflit qui l'opposa au vicomte de Valernes, seigneur voisin, parce que ce dernier prétendait avoir droit de faire prélever aux castra du Chaffaut et de Mallemoisson, situés hors de sa seigneurie, le péage qu'il détenait au castrum de Mézel, situé à l'intérieur de ses terres. L'édition proposée s'accompagne d'une analyse centrée non pas sur le conflit lui-même, mais bien sur la production du document issu de l'enquête à laquelle il donna lieu. Par la procédure de l'enquête, la parole du témoin acquiert la valeur probatoire qui la transforme en déposition judiciaire. L'objectif de l'analyse est de démontrer comment la ville de Digne, partie prenante dans l'affaire, intervient de façon active dans le cours de cette procédure, de manière, d'une part, à défendre les intérêts qui lui sont propres et, d'autre part, à assurer l'efficacité de la preuve qui doit en résulter. Le premier chapitre pose les bases du travail d'édition et d'analyse. La première partie se consacre à la présentation du manuscrit. Suivent les conventions qui ont guidé le travail d'édition. Un survol de l'historiographie se penche ensuite sur les thèmes de l'écriture et de la justice, lesquels correspondent aux deux aspects fondamentaux de la nature de la source. Le deuxième chapitre présente les enjeux de l'affaire, tels que perçus par l'universitas de Digne et organisés en vue de sa défense. Pour la ville, ces enjeux sont beaucoup plus larges que l'altercation survenue quelques années plus tôt entre un homme du vicomte et un citoyen de Digne qui refusait d'acquitter le péage. Un premier pan de la défense de la ville vise à faire établir, du fait de sa nouveauté, l'illégalité du péage que fait prélever le vicomte depuis trente ans au Chaffaut et à Mallemoisson. L'autre volet vise à faire affirmer le droit pour les citoyens de Digne d'y circuler librement depuis des temps immémoriaux. Ce chapitre nous permet de constater que c'est principalement dans le cadre de ce deuxième pan de l'enquête que la ville obtient le plus de succès. Le troisième chapitre se penche finalement sur la façon dont s'intègre la parole des témoins dans ce processus. L'analyse des témoins interrogés nous révèle un groupe composé en fonction des intérêts principaux de la ville et, à la fois, de manière à répondre aux exigences de la procédure. À travers les traces de la procédure que le scribe a pris soin de consigner par écrit, le manuscrit nous révèle les étapes de ce processus qui transforme la parole des témoins en preuve. Même si, après le choix des témoins, la ville n'a plus l'occasion d'intervenir, ce processus n'en sert pas moins ses intérêts par la valeur probatoire qu'il fait acquérir à la parole des témoins qu'elle a elle-même contribué à conditionner. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Moyen Âge, XVe siècle, Provence, Digne, Justice, Enquête.
592

Caractérisation du comportement à rupture des alliages de zirconium de la gaine du crayon combustible des centrales nucléaires dans la phase post-trempe d'un APRP (Accident de Perte de Réfrigérant Primaire)

He, Mi 19 November 2012 (has links) (PDF)
Dans le cadre des études visant à garantir l'intégrité de la gaine du crayon combustible, EDF est amené à caractériser la ductilité de la gaine après un Accident de Perte de Réfrigérant Primaire (APRP). La thèse porte sur la caractérisation du comportement à rupture des gaines en Zircaloy-4 détendu pour lesquels les conditions d'APRP ont été simulées en laboratoire par une oxydation à haute température suivie d'un refroidissement. L'oxydation est effectuée à 1100°C et à 1200°C pour différentes durées ce qui conduit à des niveaux d'oxydation de 3% à 30% d'ECR (Equivalent Cladding Reacted). Deux types de refroidissement sont mis en oeuvre : la trempe à l'eau et le refroidissement à l'air. Les gaines oxydées comportent deux couches fragiles, la couche de zircone externe ZrO2 et la couche α(O), et une couche présentant une ductilité résiduelle, la couche ex-β.Les gaines oxydées ont fait l'objet de caractérisations en microscope optique, par analyse à la microsonde et par nano-indentation. Une corrélation entre la teneur en oxygène et la nano-dureté et le module d'Young a été proposée.L'essai Expansion due à la Compression (EDC) a été développé avec une instrumentation par stéréo-corrélation d'images puis a été utilisé pour caractériser le comportement mécanique des gaines oxydées. Le comportement des gaines oxydées a été étudié à partir de l'analyse des courbes macroscopiques de l'essai EDC et à partir des observations des échantillons rompus ou pré-déformés.Un scénario de rupture des gaines oxydées a été proposé. Ce scénario a été validé d'une part par la réalisation d'essais sur gaines sablées ne comportant que la couche ex-β et d'autre part par la modélisation de l'essai par la méthode des éléments finis. Un critère de rupture des gaines oxydées a par ailleurs été établi. La modélisation du comportement et le critère de rupture proposés ont été validés par la modélisation des essais de compression d'anneau.
593

Etude du couplage océan-atmosphère associé aux épisodes de pluie intense en région méditerranéenne

Lebeaupin Brossier, Cindy 19 December 2007 (has links) (PDF)
Les régions côtières du bassin méditerranéen sont soumises en automne à des évènements de pluie intense. La mer Méditerranée constitue la principale source d'humidité et de chaleur pour ces évènements météorologiques extrêmes. Généralement, la masse d'air instable est transportée par un fort vent de basses couches de la mer vers les reliefs où la convection se déclenche pouvant stationner plusieurs heures au dessus de la même région, produisant de très forts cumuls de pluie localement et conduisant parfois à des crues destructrices. <br /><br />La sensibilité des ces épisodes extrêmes à la SST a tout d'abord été évaluée à l'aide de simulations atmosphériques à haute résolution avec le modèle MESO-NH, sur trois cas d'évènements fortement précipitants dans le Sud-Est de la France: les cas de l'Aude (12-13 novembre 1999), du Gard (8-9 septembre 2002) et de l'Hérault (3 décembre 2003). Différents champs de SST ont été utilisés (analyses obtenues par interpolation optimale des observations in-situ, SST satellite, augmentation ou diminution empirique de la SST). L'importance significative de la valeur moyenne de SST intégrée sous le jet de basses couches sur la convection en terme d'intensité et de localisation a ainsi été mise en évidence. <br /><br />Le rôle de la paramétrisation des flux de surface a été examiné dans une deuxième partie en introduisant dans le schéma de surface SURFEX deux nouvelles paramétrisations ``bulk'' itératives : la paramétrisation ECUME basée sur une calibration multi-campagne des coefficients d'échanges et la paramétrisation COARE 3.0. Sur les trois mêmes épisodes, les simulations utilisant ces deux nouvelles paramétrisations ``bulk'' itératives simulent des valeurs de stress et d'évaporation plus faibles que celles obtenues en utilisant la paramétrisation originale de MESO-NH (Louis, 1979). <br /><br />Dans une troisième partie, une modélisation couplée océan-atmosphère a été mise en place entre le modèle MESO-NH et un modèle océanique 1D en équation d'énergie cinétique turbulente, afin d'évaluer sur les trois mêmes cas d'étude, l'impact des fortes précipitations et du fort stress associé sur la couche de mélange océanique et les rétroactions sur la convection atmosphérique. Les résultats montrent la robustesse du modèle océanique sous le forçage atmosphérique extrême imposé même en région côtière. La réponse océanique à courte échéance montre un fort approfondissement de la couche de mélange océanique sous le jet de basses couches et la formation locale de couches de mélange internes associées aux précipitations intenses. Ce type de réponse est particulièrement important pour la dynamique de l'océan superficiel ainsi que pour la couche limite atmosphérique.
594

Technologie et Physique de Transistors Bipolaires à Hétérojonction Si/SiGeC Auto-alignés très Hautes Fréquences

Barbalat, Benoit 22 December 2006 (has links) (PDF)
Cette thèse a pour objet l'étude et la réalisation de transistors bipolaires à hétérojonction Si/SiGeC à très hautes performances pour les applications de télécommunications et de détection radar (> 50 GHz). Le premier chapitre rappelle la théorie du fonctionnement du transistor bipolaire, aussi bien en régime statique que dynamique. Nous présentons ensuite dans un second chapitre un historique des technologies de fabrication des TBH SiGe, spécifiquement dans un cadre de compatibilité BiCMOS, en expliquant les choix pris en faveur d'un auto-alignement complet et d'une épitaxie sélective de la base. Les résultats obtenus dans cette thèse sont comparés aux performances de l'état de l'art. Nous étudions ensuite l'optimisation classique du TBH, et nous démontrons comment, par différentes optimisations du profil vertical et des dimensions latérales du composant, nous avons pu augmenter les fréquences fT et fMAX de 200 GHz au début de la thèse jusqu'à environ 300 GHz. La possibilité d'optimiser la tenue en tension collecteur est démontrée par des procédés technologiques en rupture avec l'optimisation classique du transistor, tels que l'émetteur métallique, l'insertion de Ge dans l'émetteur et la recombinaison en base neutre. Des améliorations significatives de BVCEO ont pu être démontrées grâce à ces procédés, ce qui permet d'obtenir des produits fT × BVCEO à l'état de l'art (> 400 GHz.V). La dernière partie de la thèse vise à étudier le comportement du TBH en fonction de la température : Nous décrivons tout d'abord l'auto-échauffement du transistor, et son impact sur les performances dynamiques. Des variantes technologiques permettant de réduire l'auto-échauffement sont étudiées (profondeur des DTI et fragmentation de l'émetteur), et un modèle simple de calcul de RTh est développé. Nous terminons par l'étude du TBH aux températures cryogéniques. fT et fMAX étant fortement améliorées à basse température (plus de 400 GHz), nous en tirons, grâce à l'extraction des différents temps de transit, des perspectives intéressantes pour l'amélioration ultérieure du composant, avec pour objectif d'atteindre des fréquences de transition de l'ordre du THz.
595

Modélisation des effets optiques de la turbulence atmosphérique pour les grands télescopes et les observations à Haute Résolution Angulaire

Maire, Jérôme 22 May 2007 (has links) (PDF)
Les futurs très grands télescopes donneront la possibilité d'effectuer des observations à très Haute Résolution Angulaire, mais leur conception nécessite une connaissance précise des effets optiques de la turbulence atmosphérique sur de grandes échelles spatiales. Cette étude porte sur la validation expérimentale de la modélisation de la turbulence optique lors de l'observation astronomique à partir du sol.<br />La caractérisation des propriétés spatiales du front d'onde est effectuée à partir des grandes bases de mesure utilisées par l'interféromètres stellaire optique GI2T / REGAIN dans la perspective d'observations avec l'interféromètre VLTI / AMBER. A ces échelles, les déformations du front d'onde ne suivent pas les mêmes lois statistiques et cette étude confirme que l'amplitude des déformations spatiales du front d'onde n'augmente pas indéfiniment avec l'allongement de la base de mesure. Cette étude met en évidence la saturation des grandeurs liées aux déformations spatiales lorsque les distances considérées dépassent la valeur de l'échelle externe de cohérence spatiale du front d'onde.<br />Le GSM ("Generalized Seeing Monitor"), unique instrument dédié à la mesure de l'échelle externe, est utilisé dans une configuration étendue pour tester expérimentalement les différents modèles existants de turbulence optique lors d'observations sur le site de Calern. Une modélisation multi-couche de l'échelle externe est aussi proposée afin de rendre compte des effets optiques de la turbulence atmosphérique selon sa distribution an altitude. Les résultats de cette étude permettent de mieux dimensionner les systèmes d'optique adaptative de nouvelle génération associés aux futurs grands télescopes et interféromètres à très grandes bases.<br />Enfin, cette étude a consisté à développer l'instrument MOSP ("Monitor of Outer Scale Profile") mesurant la distribution verticale de l'échelle externe à partir de l'observation du limbe de la Lune. Plusieurs campagnes d'observation ont été effectuées aux Observatoires de Haute Provence et de Mauna Kea et les premières mesures de profils d'échelle externe sont présentées.
596

Etude de la stabilité thermoélectronique des conducteurs supraconducteurs à basse température critique et contribution à l'étude de la stabilité thermoélectrique des supraconducteurs à haute température critique.

Trillaud, Frédéric 28 September 2005 (has links) (PDF)
L'ensemble du travail présenté dans cette thèse est très expérimental. Différentes expériences ont été réalisées et de nombreux systèmes de chaufferette testés.Dans le cas des supraconducteurs à basse température critique, nous avons recherché une technologie de chaufferette qui soit facile à mettre en oeuvre, qui puisse être étalonnée et puisse fournir des énergies minimales de transition reproductibles. Nous avons suggéré une manière de mener le calibrage de l'énergie absorbée par le brin àtravers une étude de faisabilité. Nous avons égalementmené des études de répétabilité de l'expérience.Toutefois, nous n'avons pas pu tester dans le temps qui nous était imparti d'autres échantillons.
597

De la subduction continentale à l'exhumation dans les Alpes Penniques. Modélisations thermo-mécanique et paléogéographique.

Carry, Nicolas 19 January 2007 (has links) (PDF)
Les Alpes sont classiquement décrites comme étant une chaîne de collision type. Cependant les données métamorphiques et géochronologiques montrent que l'essentiel de l'histoire des Alpes s'est déroulée en contexte de subduction. La subduction continentale est responsable de la formation de unités cristallines internes en raison du réchauffement au sommet de la lithosphère subduite, comme le montre les modèles thermique 1D et thermomécanique 2D élaborés dans cette étude. Ces modèles permettent de quantifier l'angle et la vitesse d'une subduction à partir des données Pression - Température des unités écaillées durant celle-ci. Ces estimations permettent de reconstruire la géométrie 3D et l'évolution de la subduction Alpine, permettant de valider un nouveau modèle d'exhumation~: l'extension associée au retrait de la subduction. Des modèles paléogéographiques permettent d'imager ce modèle d'exhumation, mettant en évidence le synchronisme de l'exhumation, du retrait de la subduction.
598

La synthèse solvothermale de fines particules de dioxyde de cérium

Verdon, Eric 05 April 1991 (has links) (PDF)
Des cristallites de dioxyde de cérium de taille submicronique ont été préparées par une nouvelle méthode: la synthèse solvothermale. Les précurseurs du matériau, solubles dans le solvant ou en suspension dans celui-ci, sont portes à haute pression (15 a 50 MPa) et haute température (200°C à 500°C) dans un domaine proche des conditions hypercritiques du système. Le comportement thermique des microcristallites de dioxyde de cérium obtenues a été comparé a celui des particules préparées par des méthodes conventionnelles.
599

Aspects probabilistes et microstructuraux de l'amorçage des fissures de fatigue dans l'alliage Inco 718

Alexandre, Franck 12 March 2004 (has links) (PDF)
Ces dernières années les développements des traitements thermomécaniques ont conduit à l'utilisation de l'alliage 718 à l'état DA (Direct Aged). Cette optimisation de l'alliage conduit de façon générale à une augmentation de la durée de vie en fatigue mais aussi de sa dispersion. L'objectif de cette étude est d'une part la compréhension des mécanismes d'amorçage en fatigue et d'autre part la modélisation de la durée de vie et de sa dispersion. Dans un premier temps une étude expérimentale des sites d'amorçage de fissures de fatigue a permis d'identifier les particules comme principale source d'amorçage pour l'alliage à grains fins. Des essais de traction interrompus ont par ailleurs montré que leur fissuration se produit lors du premier quart de cycle en fatigue. Des essais de comportement en fatigue ont ensuite été réalisés pour différentes tailles de grain. Enfin, des mesures directes de propagation de petites fissures en fatigue oligocyclique amorcées sur des micro-défauts d'électroérosion ont été réalisées à l'aide d'un microscope à grande distance focale. Cette technique a permis d'observer l'interaction de microfissures. Un modèle de durée de vie en fatigue est proposé. Il est basé sur la compétition entre trois mécanismes d'amorçage: l'amorçage sur particules surfaciques, internes et en stade I. L'amorçage sur particules est considéré instantané au passage d'une contrainte seuil. Le nombre de cycles à l'amorçage en stade I est déterminé à l'aide du modèle de Tanaka et Mura. Le modèle de propagation utilisé est celui de Tomkins, identifié à partir des mesures expérimentales de propagation de petites fissures. Le modèle proposé comporte trois niveaux: déterministe, probabiliste et probabiliste avec prise en compte des phénomènes de coalescence de petites fissures.
600

Conception, montage et caractérisation d'un interféromètre achromatique pour l'étude de la lithographie à immersion à 193nm

Charley, Anne-Laure 08 December 2006 (has links) (PDF)
La miniaturisation est aujourd'hui, plus que jamais, devenue le maître mot en microélectronique.<br />En effet, les industriels poursuivent l'objectif, de plus en plus ambitieux, de diminuer les dimensions<br />critiques des dispositifs actuels afin d'en améliorer les performances et d'en diminuer le coˆut. Dans<br />cette perspective, la lithographie joue un rˆole majeur car c'est la première étape qui définit le circuit<br />intégré. La technique de lithographie utilisée aujourd'hui pour la production de masse et ayant<br />permis d'atteindre le noeud technologique 65 nm est la lithographie optique à 193 nm. Pour aller en<br />de¸cà, il nous faut améliorer la résolution des outils de lithographie et cela ne peut se faire sans une<br />forte augmentation de leur complexité, de leur prix et de la difficulté de contrˆoler les procédés. Une<br />solution est la technique de lithographie à immersion à 193 nm qui consiste en l'introduction d'un<br />fluide d'indice supérieur à celui de l'air entre la lentille de projection et la plaquette de silicium :<br />elle permet, dans un premier temps, de relâcher les contraintes sur les procédés en améliorant la<br />profondeur de champ et, dans un second temps, d'améliorer la résolution tout en conservant l'infrastructure<br />du 193 nm.<br />L'objectif de ce travail de thèse est de monter et valider un interféromètre à immersion à 193 nm<br />pour étudier, par anticipation, certains aspects de la technique. Dans ce manuscrit, nous décrivons<br />la conception d'un montage interférométrique en immersion à 193 nm ayant la particularité d'être<br />achromatique et présentant donc l'avantage de ne pas pâtir de la faible cohérence des sources excim`<br />eres à 193 nm. Nous nous sommes focalisés sur la caractérisation du montage optique et avons<br />conclu sur les paramètres de profondeur de champ et de transmission du système. Finalement, nous<br />nous sommes intéressés à l'étude de l'imagerie à haute ouverture numérique. Nous avons pu montrer<br />l'amélioration de la résolution en immersion, ainsi que la corrélation entre l'augmentation de la<br />rugosité et la perte de contraste due à la polarisation.

Page generated in 0.0546 seconds