• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 407
  • 191
  • 39
  • 4
  • 1
  • Tagged with
  • 638
  • 217
  • 137
  • 108
  • 76
  • 66
  • 65
  • 58
  • 52
  • 50
  • 47
  • 43
  • 42
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Crédibilité et efficacité de la politique de ciblage d'inflation en Turquie sur la période 2002-2006

Gürbüz Besek, Zehra Yesim 02 July 2008 (has links) (PDF)
La Turquie a adopté une politique de ciblage d'inflation d'abord implicite (entre 2002 et 2005), ensuite explicite à partir de 2006. L'objectif de ma thèse est d'étudier la crédibilité et l'efficacité de cette politique et de chercher à voir si elle a pu améliorer le degré de crédibilité de la Banque Centrale de Turquie. Cette politique fait ses preuves dans les premières années: effet du seigneuriage réduit de façon significative, taux d'inflation au-dessous de 10%, croissance supérieure à 6%. On montre théoriquement qu'il s'agit d'une politique monétaire qui évite le biais inflationniste et qui combine différentes mesures permettant d'amélioration la crédibilité. Celle-ci est mesurée à partir des anticipations d'inflation. L'analyse empirique des anticipations d'inflation, faite à partir des erreurs de prévisions, montre que les anticipations sont adaptatives et les agents privés font des erreurs de plus en plus petites dans le temps. Les courbes de rendement décroissantes attestent que les marchés financiers anticipent une désinflation entre 2002 et 2005, mais en 2006 la courbe des taux redevient croissante. Ces constats attestent qu'une certaine crédibilité est assurée, mais qu'elle est fragile. L'analyse économétrique par un VECM des processus joint du taux directeur de la Banque Centrale et de celui du second marché montre l'existence d'un taux d'équilibre à long terme défini par la Banque Centrale. Les tests de Seo concluent que les chocs géopolitiques défavorables n'ont pas affecté la dynamique des taux mais que l'ouverture des négociations sur l'adhésion de Turquie à l'UE a renforcé l'efficacité de la politique monétaire
202

Collisions moléculaires inélastiques dans l'univers froid<br />Nouvelles surfaces de potentiel et taux de collision pour CO, HC3N et H2O avec H2 et He

Wernli, Michael 06 June 2006 (has links) (PDF)
AVEC LES PROGRES DES INSTRUMENTS DEDIES A L'ASTRONOMIE MOLECULAIRE REALISES DURANT LES DERNIERES DECENNIES ET A VENIR (HERSCHEL ET ALMA), TOUJOURS PLUS DE MOLECULES SONT OBSERVEES, ET LES SPECTRES OBTENUS SONT DE PLUS EN PLUS PRECIS. POUR INTERPRETER CES DONNEES, IL FAUT NOTAMMENT DES TAUX DE COLLISION D'ETAT A ETAT POUR LES MOLECULES OBSERVEES.<br /><br />LA PRECISION DES TAUX EST UN DES POINTS CENTRAUX DE CETTE THESE. CECI, AUSSI BIEN DANS LA RECHERCHE D'UN MAXIMUM DE PRECISION QUE DANS LA CARACTERISATION DU BESOIN ET DU COUT DE LA PRECISION DANS LES CALCULS QUE NOUS MENONS. SUR CO-H2, SYSTEME DE GRAND INTERET ASTROPHYSIQUE ET DEJA AMPLEMENT ETUDIE, NOUS ILLUSTRONS L'IMPORTANCE EGALE DES PRINCIPALES ETAPES DU CALCUL DANS LA PRECISION FINALE DES TAUX. SUR HC3N-H2, NOUS PARVENONS POUR LA PREMIERE FOIS A FAIRE UN AJUSTEMENT DE LA SURFACE D'ENERGIE POTENTIELLE (SEP) SUR UNE BASE SPHERIQUE, NOUS PERMETTANT UN TRAITEMENT QUANTIQUE DES COLLISIONS, LUI AUSSI INEDIT. DE FORTES REGLES DE SELECTION QUANTIQUES (ABSENTES AU NIVEAU CLASSIQUE) SONT OBSERVEES, QUI DEVRAIENT JOUER UN ROLE DANS LA MODELISATION ASTROPHYSIQUE DE CETTE MOLECULE. CES RESULTATS SONT EN PRINCIPE TRANSPOSABLES A TOUTES LES GROSSES MOLECULES LINEAIRES. FINALEMENT, NOUS DEVELOPPONS POUR H2O-H2 UNE SEP A NEUF DIMENSIONS INCLUANT TOUTES LES VIBRATIONS. L'AJUSTEMENT ORIGINAL ET PRECIS DE CETTE SURFACE NOUS PERMET DE STATUER SUR LE CHOIX OPTIMAL DE GEOMETRIES INTERNES POUR UNE MOLECULE RIGIDE, AINSI QUE DE CALCULER DES TAUX DE RO-VIBRATION. PLUS GRANDS D'UN ORDRE DE GRANDEUR QUE LES PRECEDENTES DONNEES, ILS MODIFIERONT L'INTERPRETATION DES OBSERVATIONS, NOTAMMENT CELLES A VENIR MENEES PAR LE SATELLITE HERSCHEL.
203

Contribution au développement d'une méthodologie d'analyse des phénomènes de rupture de composants encapsulés

Leblanc, Francois 21 December 2004 (has links) (PDF)
Ce travail s'articule autour de l'étude de matériaux coulés pour des composants électroniques. Une méthodologie est proposée pour analyser le comportement de fissures initiées dans des matériaux homogènes ou à l'interface entre différents matériaux. Une procédure expérimentale est décrite afin de mesurer le facteur d'intensité de contrainte critique d'un matériau homogène. Cette procédure est ensuite appliquée dans la comparaison du comportement d'une fissure d'un bimatériau et à la détermination du degré de validité des résultats. Une méthode est ensuite proposée pour déterminer la propagation de fissures dans les différents matériaux sous des chargements sous-critiques. Dans le cas d'une fissure à l'interface de bimatériaux, une méthodologie a été développée pour mesurer le taux de restitution d'énergie nécessaire à la propagation de la fissure. Les facteurs d'intensité de contraintes correspondants sont calculés à l'aide de simulations numériques, ainsi que l'angle de mode mixte résultant. L'ensemble des travaux expérimentaux réalisés et des simulations numériques développées permet de proposer une méthodologie d'analyse du comportement d'une fissure située au sein d'un composant multimatériau sollicité sous chargement thermo-mécanique.
204

Mesure des neutrinos solaires de la raie du béryllium dans l'expérience Borexino

Beau, Tristan 18 October 2002 (has links) (PDF)
L'expérience Borexino (BX), collaboration impliquant neuf pays, est implantée dans le laboratoire souterrain du Gran Sasso en Italie. Elle vise la mesure du flux de neutrinos solaires de la raie du béryllium à 862 keV, première mesure en temps réel à si basse énergie. Cette expérience impose des contraintes très fortes en radiopureté. Sa faisabilité technique est testée dans le prototype Counting Test Facility (CTF).<br> Le groupe du Collège de France est chargé du système de numérisation rapide (FADC) sur BX. Ces FADC ont été conçus au laboratoire et nous les avons finalisés début 2002. Les cartes prototypes et les premiers modèles industriels ont été implantés sur CTF à titre de test, numérisant les signaux issus des photomultiplicateurs.<br> Nous avons développé les logiciels d'acquisition des FADC sur CTF et BX. Pour BX, nous utilisons un algorithme interne de réduction des données basé sur l'élimination en temps réel des événements à trop basse énergie tout en conservant les événements en coïncidence. Sur CTF, nous produisons des données depuis l'été 2000 et sur BX les premiers tests ont eu lieu sans scintillateur.<br> L'analyse de CTF porte sur les données issues des FADC seuls et des donnés conjointes entre les FADC et l'électronique standard mise en place par l'équipe italienne. Nous montrons que les FADC permettent de reconstruire l'énergie des événements et les coïncidences avec des précisions comparables à celles de l'électronique standard. La comparaison des données issues des deux systèmes montre l'apport du FADC, sans temps mort, pour la mesure de contaminations dans le détecteur, l'analyse des signaux tardifs issus des photomultiplicateurs et la discrimination entre événements de type alpha et bêta. Plusieurs méthodes de discrimination sont également étudiées par simulations pour BX.
205

Mécanismes de dispersion de suspensions concentrées de silices nanométriques dans un élastomère : impact de la stratégie de mélange sur l'efficacité et la cinétique de dispersion

Vincent, Frédéric 04 November 2011 (has links) (PDF)
L'objectif de ce travail est une approche pluridisciplinaire dans le but de comprendre l'impact des phénomènes microscopiques, l'interaction charge-matrice avec ou sans agent de couplage et la dispersion des charges sur les propriétés macroscopiques. La caractérisation de l'impact de la stratégie de mélange avec ou sans un agent de couplage, la cinétique, l'état final et les différents scénarii de dispersion possibles sont ainsi étudiés. L'incorporation de microperles de silice dans une matrice SBR est réalisée dans un mélangeur interne. Finalement, la silice est dispersée à l'échelle nanométrique (10-100 nm). Les nanocomposites obtenus sont alors caractérisés par des techniques complémentaires (spectroscopie mécanique, MET, mesure du taux d'élastomère lié à la charge) dans le but de caractériser quantitativement les interactions charge-matrice et charge-charge. L'outil rhéologique est un outil très sensible pour caractériser l'évolution de la dispersion de charges dans une matrice élastomère. En particulier, le module de conservation G' montre un plateau significatif pour les faibles fréquences de déformation. Ce plateau est très sensible à l'état de dispersion ainsi qu'à la nature des interactions entre les charges. En couplant les mesures rhéologiques, l'analyse d'image faite sur des photos MET et la mesure du taux d'élastomère lié, il est possible d'établir un scénario de dispersion de la silice dans l'élastomère en fonction des conditions de mélange et de mettre en évidence les paramètres élémentaires de la dispersion impliqués. En complément, la modélisation de certains modules montre toute sa pertinence dans la caractérisation de la rupture des agglomérats ou de l'évolution des interactions charge-charge au cours du mélangeage. Enfin, la dimension fractale des réseaux de charges obtenus est déterminée à partir de nos descripteurs de la dispersion.
206

La décharge luminescente comme outil analytique. Influence du taux d'émissiond'électrons secondaires sur ses caractéristiques.

Barisone, Elisa 13 July 2011 (has links) (PDF)
La Spectrométrie à Décharge Luminescente est couramment utilisée pour l'analyse spectrochimique des matériaux et est devenue un outil standard pour l'analyse de la composition en profondeur de matériaux multi-couches. Cette technique permet aussi la quantification en se basant sur le nombre de photons émis par atome pulvérisé et ne dépend que de Z, l'impédance de la décharge employée pour l'analyse. Cette approche est basée sur l'analyse des métaux, sans fondement théorique, et son extension vers l'analyse des matériaux non-conducteurs n'est pas validée. Pour une géométrie fixée, Z dépend essentiellement de la pression du gaz plasmagène et de γ, le taux d'émission d'électrons secondaires du matériau de la cathode. Ainsi, pour valider la quantification, il est nécessaire de connaître le γ des différents matériaux et d'établir un classement. Un " γeffectif " a été déterminé à partir des courbes de Paschen pour différents matériaux conducteurs et non-conducteurs. L'étude a montré que ce coefficient dépend sensiblement de l'état physico-chimique de la surface des électrodes, ces variations (jusqu'à 50%) rendent le résultat difficilement exploitable. En revanche, la détermination de la variation de Z avec la pression, a permis un classement des différents matériaux en fonction de leur γ : une forte Z correspond à un faible γ. De plus ces travaux ont montré qu'une variation de la pression du gaz plasmagène peut compenser l'effet de γ sur l'impédance de la décharge ce qui est primordial pour la procédure de quantification. Afin de valider le procédé, nous avons analysé une couche mince organo-metallique (LiPON) et ainsi montré que la quantification est applicable aux matériaux complexes en couche mince.
207

Formes urbaines et durabilité du système de transports. Une application par les coûts de la mobilité urbaine des ménages au sein de l'agglomération Lyonnaise

Vanco, Florian 14 April 2011 (has links) (PDF)
L'objectif de cette thèse est de faire ressortir et d'analyser les facteurs liés à l'organisation spatiale de la population et des activités susceptibles de produire une mobilité plus durable. Sur la base du constat que le système de transports n'est pas durable, nous effectuons une approche par les coûts de la mobilité à partir de trois indicateurs représentatifs de la durabilité de la mobilité des ménages : les coûts annuels de la mobilité urbaine des ménages, le taux d'effort annuel consacré par les ménages pour leurs dépenses de transports et leurs émissions annuelles de CO2. Le lien entre forme urbaine et mobilité n'est pas simple. Il s'agit d'un lien de réciprocité complexe à définir. Les travaux montrent que trois dimensions de l'environnement local jouent au final sur la mobilité des ménages : la densité, la diversité et l'accessibilité. La démarche consiste à confronter les facteurs supposés explicatifs des indicateurs de durabilité de la mobilité des ménages et de déterminer quelle est la part expliquée par la forme urbaine. Sur le périmètre élargi de l'enquête ménages de Lyon (2006), notre approche par les coûts de la mobilité des ménages permet une approche des inégalités sur le plan financier. Par ailleurs, une simulation sur l'évolution des prix du carburant montre que les classes moyennes seront de plus en plus concernées par l'augmentation continue des prix du pétrole à l'avenir. Afin de déterminer la part des coûts de la mobilité expliquée par la forme urbaine, nous bâtissons des modèles explicatifs au niveau du ménage en y intégrant des variables de forme urbaine et des variables socio-économiques du ménage. L'analyse met aussi en évidence l'influence des pôles secondaires sur la vulnérabilité des ménages et les coûts de la mobilité. Les modèles par type de ménages montrent enfin que les effets de la forme urbaine sont différenciés suivant les types de ménage. Il est également intéressant de mesurer les économies générées par des changements marginaux de forme urbaine. Nous bâtissons pour cela des modèles économétriques à un niveau plus agrégé permettant le calcul de coefficients d'élasticité. En outre nous pouvons estimer en termes économiques les gains espérés suite à des changements de forme urbaine.
208

Interférométrie annulante pour l'exoplanétologie - Étude et développement du recombineur du banc PERSEE

Jacquinod, Sophie 10 March 2010 (has links) (PDF)
Depuis maintenant 15 ans, le domaine de la détection d'exoplanètes s'est largement développé. L'utilisation de méthodes de détection, indirectes d'abord, a permis de découvrir pas moins de 420 nouveaux "mondes", parfois surprenants. Forts de cela, les scientifiques cherchent maintenant à caractériser ces exoplanètes. Ainsi des projets spatiaux, se basant sur la méthode de l'interférométrie annulante, ont pour but de réaliser des spectres de planètes géantes et telluriques. Compte tenu de la complexité de ces missions, la nécessité de tester, d'abord en laboratoire, certains aspects technologiques comme le principe de l'interférométrie annulante, est rapidement apparue. En 2006, le CNES a décidé de mener une étude R&D de la charge utile d'un interféromètre annulant a deux télescopes (typiquement l'instrument PEGASE). Ainsi, le banc de test PERSEE (Pegase Experiment for Research and Stabilization of Extreme Extinction) est né. Ce banc est le premier banc de test couplant un interféromètre annulant avec un système permettant d'introduire des perturbations calibrées typiques du vol en formation et de les corriger grâce a des boucles actives. Cette thèse s'inscrit dans le cadre de la conception, de l'étude et du développement d'un des sous-systèmes du banc : le module de recombinaison interférométrique. Ce module est dérivé du concept de l'interféromètre de "Mach-Zehnder Modifié" proposé par Serabyn et al. (2001). Il a la particularité de combiner à la fois les faisceaux scientifiques permettant de faire de l'interférométrie annulante et les faisceaux du système de métrologie, ceci afin de minimiser les chemins différentiels entre les deux voies.
209

Essais en Macroéconomie Financière

Ghattassi, Imen 13 December 2006 (has links) (PDF)
L'objectif de cette thèse est double. Tout d'abord, la thèse propose un cadre théorique permettant d'évaluer à la fois le rôle de la persistance des habitudes et des nouvelles financières et celui de la dynamique des variables macroéconomiques afin d'expliquer les variations du ratio cours des actions-dividende et de la structure à terme des taux d'intérêt. Les modèles envisagés sont ainsi des extensions du modèle d'évaluation des actifs financiers basé sur la consommation ((C)CAPM). Ensuite, la thèse contribue à l'analyse empirique de ces modèles. L'objectif est ici de tester le pouvoir de prédiction (i) du ratio surplus de consommation et (ii) du ratio cours des actions-dividende. Cette thèse comporte trois chapitres. Le premier chapitre montre que dans le cadre d'un modèle (C)CAPM avec formation des habitudes, la persistance du stock d'habitudes permet de reproduire la persistance du ratio cours des actions-dividende et en partie la prédictabilité des excès de rendements des actifs risqués à long terme. Dans le deuxième chapitre, nous mettons en évidence, théoriquement et empiriquement, la capacité du ratio surplus de consommation à expliquer les variations des rendements d'actifs risqués, à la fois en séries chronologiques et en coupe transversale. Enfin, dans le dernier chapitre de cette thèse, nous considérons un modèle (C)CAPM avec (i) une modélisation générale du niveau de consommation de référence et (ii) une spécification affine des variablesexogènes. La représentation affine du taux d'escompte stochastique et des processus exogènes permet de déterminer les solutions analytiques exactes du ratio cours des actions-dividende, du ratio cours du portefeuille de marché-consommation et de la structure à terme des taux d'intérêt
210

Rhéologie des polymères fondus à hauts taux de cisaillement : application à la microinjection

Mnekbi Djebali, Cheima 07 December 2012 (has links) (PDF)
La rhéologie à hauts taux de cisaillement pour deux polymères, le PEHD semi-cristallin et le PMMA amorphe a été étudiée. Des outils de rhéométrie classique, un rhéomètre plan-plan en mode dynamique, et un rhéomètre capillaire, ont été utilisés dans des conditions extrêmes (avec des filières pour la rhéométrie capillaire de diamètres allant jusqu'à 0,3 mm) mais les dépouillements de ces résultats ont été fait suivant les hypothèses conventionnelles en négligeant les instabilités et les phénomènes physiques qui interviennent lors de ces écoulements.Nous avons par la suite développé un modèle mathématique de l'écoulement dans un capillaire pour rendre compte de l'importance des différents phénomènes physiques qui peuvent avoir lieu dans des écoulements extrêmes, à savoir l'échauffement et la piezodépendance de la viscosité, la compressibilité et le glissement à la paroi. Les résultats du modèle développé ont été comparés avec les résultats expérimentaux.Nous avons aidé au développement d'une presse de microinjection originale et nous l'avons testée avec un moule de plaque instrumenté d'épaisseur allant jusqu'à 0,2 mm. Nous avons montré qu'il était possible de réaliser des pièces de qualité ce qui est avéré par des mesures de pression, vitesse et de température bien reproductibles. Nous avons exploité les données rhéologiques expérimentales dans la modélisation de la phase de remplissage avec le logiciel de calcul Rem3D. Des corrélations entre les mesures expérimentales et les calculs ont été réalisées en comparant l'évolution des pressions dans le système d'alimentation et dans l'empreinte.

Page generated in 0.0353 seconds