• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 407
  • 194
  • 43
  • 4
  • 1
  • Tagged with
  • 646
  • 217
  • 137
  • 109
  • 76
  • 66
  • 65
  • 58
  • 52
  • 50
  • 48
  • 43
  • 42
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Modélisation et simulation du procédé de prépolissage automatique sur centre d'usinage 5 axes

Anthony, Guiot 06 December 2012 (has links) (PDF)
La réalisation de formes complexes comme les moules ou les prothèses médicales nécessite l'utilisation d'opérations de super finition pour obtenir de faibles défauts géométriques, pouvant aller jusqu'au poli-miroir. Ces opérations de prépolissage et de polissage sont encore régulièrement réalisées manuellement. En effet, malgré des avantages en termes de répétabilité, de productivité et de qualité géométrique, les méthodes de polissage automatique sont peu utilisées, car elles nécessitent une mise au point importante. Les travaux de recherche présentés dans ce mémoire participent à la maîtrise du procédé de polissage automatique tout en contrôlant la qualité géométrique des pièces. Pour parvenir à cette maîtrise, un outil de simulation de l'enlèvement de matière est mis en place. Cet outil permet de simuler l'enlèvement de matière au cours d'une opération de prépolissage réalisée sur centre d'usinage 5 axes. Il se base sur un modèle du contact obtenu entre l'outil de pré-polissage et la pièce, ainsi que sur un modèle du pouvoir abrasif intégrant l'usure et l'encrassement du disque. Cette simulation permet de vérifier la régularité de l'abrasion sur une surface et d'identifier les zones pouvant faire apparaitre des défauts macro-géométriques importants. Une méthode est également proposée pour compenser les variations du pouvoir abrasif au cours du temps. La compensation s'effectue en optimisant les consignes de vitesse d'avance et/ou de fréquence de broche le long de la trajectoire. Cette méthode de pilotage permet d'obtenir un taux d'enlèvement de matière plus constant et ainsi de réduire les défauts géométriques générés pendant une opération de prépolissage.
342

Estimation non paramétrique pour les processus markoviens déterministes par morceaux

Azaïs, Romain 01 July 2013 (has links) (PDF)
M.H.A. Davis a introduit les processus markoviens déterministes par morceaux (PDMP) comme une classe générale de modèles stochastiques non diffusifs, donnant lieu à des trajectoires déterministes ponctuées, à des instants aléatoires, par des sauts aléatoires. Dans cette thèse, nous présentons et analysons des estimateurs non paramétriques des lois conditionnelles des deux aléas intervenant dans la dynamique de tels processus. Plus précisément, dans le cadre d'une observation en temps long de la trajectoire d'un PDMP, nous présentons des estimateurs de la densité conditionnelle des temps inter-sauts et du noyau de Markov qui gouverne la loi des sauts. Nous établissons des résultats de convergence pour nos estimateurs. Des simulations numériques pour différentes applications illustrent nos résultats. Nous proposons également un estimateur du taux de saut pour des processus de renouvellement, ainsi qu'une méthode d'approximation numérique pour un modèle de régression semi-paramétrique.
343

Essais sur le crédit, les banques et l'équilibre macroéconomique

Bouvatier, Vincent 22 November 2007 (has links) (PDF)
Cette thèse porte sur les fluctuations de court terme sur le marché du crédit et leurs implications pour les actions de la banque centrale. Trois déterminants importants de ces fluctuations sont abordés : les mouvements de capitaux, la réglementation bancaire et la politique monétaire.<br />Le premier chapitre se focalise sur l'économie de la Chine. D'importantes entrées de capitaux en 2003-2004 se sont traduites par une accumulation à un rythme soutenu de réserves de change. Le premier chapitre cherche ainsi à évaluer l'efficacité des mesures de stérilisation prises par la banque centrale pour parvenir à conserver le contrôle des conditions monétaires domestiques et plus précisément de la progression des crédits.<br />Le deuxième et le troisième chapitre portent sur la réglementation sur les provisions pour pertes. Dans le deuxième chapitre, un modèle théorique en équilibre partiel d'une firme bancaire représentative est développé. Ce modèle et les simulations réalisées permettent de comparer les effets des différentes règles de provisionnement sur les fluctuations du marché du crédit. Dans le troisième chapitre, une approche empirique est adoptée afin d'évaluer si les pratiques de provisionnement des banques en Europe affectent les variations des crédits distribués.<br />Le quatrième chapitre s'intéresse aux effets de la politique monétaire sur les taux d'intérêt des crédits. Un modèle structurel de petite taille intégrant des rigidités réelles et nominales est développé. Ce modèle permet d'estimer les rigidités sur les taux d'intérêt des crédits, d'analyser leurs déterminants et d'évaluer leur rôle dans la transmission des effets de la politique monétaire.
344

Ancrage nominal du taux de change et coûts de la désinflation : une estimation économétrique

Pham, Thuy Van 20 November 2007 (has links) (PDF)
Nous avons établi une indication chiffrée des coûts réels issus des désinflations basées sur l'ancrage nominal du taux de change. Notre analyse s'est appuyée sur deux régions ayant recouru le plus souvent au taux de change comme instrument de lutte contre l'inflation élevée chronique ou l'hyperinflation : l'Amérique latine et l'Europe centrale et orientale. En général, la stratégie d'ancrage nominal par le change est efficace pour réduire le taux d'inflation. Cette efficacité est plus marquante en Europe centrale et orientale qu'en Amérique latine, où le bilan de désinflation reste mitigé. Quant à son impact sur l'activité économique, les résultats obtenus sont moins évidents. En utilisant deux approches, factuelle et économétrique, nos estimations des ratios de sacrifice des deux régions indiquent que, quel que soit l'ancrage nominal, les coûts de la désinflation sont faibles, voire nuls. Il ressort, cependant, de notre étude, qu'il est difficile d'établir une relation entre les ratios de sacrifice et l'ancrage nominal du taux de change, dans la mesure où les résultats varient d'une méthode d'estimation à l'autre. L'hétérogénéité des ratios de sacrifice rend impossible la comparaison des coûts entre les pays, entre les régions et entre les stratégies d'ancrage nominal. Le choix d'une stratégie désinflationniste ne peut donc pas être basé sur l'analyse des ratios de sacrifice.
345

Interaction entre deux circuits mesoscopiques pour la mesure du bruit

Nguyen, Thi Kim Thanh 07 September 2007 (has links) (PDF)
Le point central de cette thèse est la physique du bruit: la transformée de Fourier de la function de correlation temporelle courant-courant. Nous examinons des situations dans lesquelles le bruit généré par un circuit mésoscopique donné affecte le comportement d'un autre circuit mésoscopique. Dans une première partie, la source de bruit est inconnue, et le circuit mésoscopique qui lui est couplé de manière capacitive se comporte comme un détecteur de bruit à haute fréquence. Dans notre cas, le détecteur est constitué d'une jonction métal normal-supraconducteur, où le transport électronique est du au transfert de<br />quasiparticules, ou, de manière plus intéressante, est du à la réflexion d'Andreev. La théorie du blocage de Coulomb dynamique est utilisée pour calculer le courant continu qui passe dans le circuit de détection, procurant ainsi une information sur le bruit à haute fréquence. Dans la deuxième partie de cette thèse, la source de bruit est connue : elle provient d'une barre de Hall avec un contact ponctuel, dont les caractéristiques de courant-tension et de bruit sont bien établies dans le régime de l'effet Hall<br />quantique fractionnaire. Un point quantique connecté à des bornes source et drain, qui est placé au voisinage du<br />contact ponctuel, acquière une largeur de raie finie lorsque le courant fluctue, et se comporte comme un<br />détecteur de bruit de charge. Nous calculons le taux de déphasage du point quantique dans le régime de<br />faible et de fort rétrodiffusion, tout en décrivant l'effet de l'écrantage faible ou fort de l'interaction<br />Coulombienne entre la barre de Hall et le point quantique.
346

Etude des facteurs influençant l'activité anti-Xa chez les sujets âgés (> 65 ans) traités par énoxaparine en prévention médicale d'une thrombose veineuse profonde

Dufour, Benoît Perret-Guillaume, Christine January 2006 (has links) (PDF)
Reproduction de : Thèse d'exercice : Médecine : Nancy 1 : 2006. / Titre provenant de l'écran-titre.
347

Elaboration of collisional-radiative models applied to atmospheric entry into the Earth and Mars atmospheres

Annaloro, Julien 20 September 2013 (has links) (PDF)
L'entrée hypersonique d'un objet dans la haute atmosphère d'une planète entraîne la création d'un plasma à la suite de la compression très intense du gaz incident à l'objet. Cette compression s'effectue dans une couche de choc présentant une grande richesse en déséquilibres dont la méconnaissance limite notre capacité à prédire avec précision les contributions convective, radiative et catalytique de la densité de flux d'énergie pariétale, pourtant cruciale pour l'optimisation du dimensionnement du système de protection thermique de l'objet. Les contributions précédentes dépendent fortement des densités de population des états excités qui échappent à un comportement de type boltzmanien et présentent une distribution dépendant des phénomènes élémentaires collisionnels et radiatifs. Dans ces circonstances, le but de ces travaux était d'étudier, dans les situations d'entrée dans l'atmosphère de Mars et de la Terre, le comportement des états excités de mélanges complexes (CO2 -N2 -Ar et N2 -O2 -Ar, respectivement) basée sur le développement de modèles collisionnels-radiatifs (CR) électro-vibrationnels spécifiques. Deux modèles CR ont ainsi été développés : CoRaM-MARS pour l'atmosphère martienne (22 espèces, 10^6 processus élémentaires) et CoRaM-AIR pour l'atmosphère terrestre (13 espèces, 500000 processus élémentaires). Ces modèles, mis en œuvre dans une approche lagrangienne à pression et température constantes dans des conditions thermodynamiques représentatives des situations d'entrée (notamment le cas FIRE II pour les entrées terrestres), ont montré que le rayonnement présente une influence très faible sur la cinétique des mélanges étudiés et que les écarts à la distribution de Boltzmann sont systématiques. Le très grand nombre d'états à prendre en compte interdit une intégration directe des modèles CR précédents dans des codes aérodynamiques. Cependant, une réduction à l'azote de ces modèles a été réalisée. Le modèle CR ainsi constitué (CoRaM-N2 , 5 espèces, 150 états, 40000 processus élémentaires) a été intégré à un code eulérien traitant les écoulements monodimensionnels d'après-choc ou de tuyère divergente. L'accord avec des résultats expérimentaux acquis en tube à choc à fort nombre de Mach est très satisfaisant. Pour des applications 2D ou 3D, des taux globaux ont par ailleurs été déterminés théoriquement pour (1) l'ionisation/recombinaison par impact électronique de l'azote, de l'oxygène, du carbone et de l'argon, (2) la dissociation/recombinaison de N2 , O2 par impact de N, N2 , O, O2 et (3) la dissociation/recombinaison de CO2 par impact de lourd. La comparaison avec des résultats expérimentaux montre un accord en général très satisfaisant. Les taux directs et inverses étant calculés de manière indépendante, il est montré que leur rapport s'écarte de la constante d'équilibre globale correspondante à mesure que la température augmente.
348

Essais sur les Crises Financières

Moysan, Gwenael 10 December 2013 (has links) (PDF)
La thèse traite de differents aspects des crises financières et de leur gestion par les régulateurs. Les systèmes financiers complexes, tel le réseau interbancaire, peuvent être modélisés par une approche de type réseau, pour calculer la propagation des faillites et modéliser le risque systémique. Partant d'un réseau d'agents identiquement capitalisés, l'impact d'un ratio de capitalisation est testé selon l'horizon de maximisation des profits des agents. Performante lorsque les agents optimisent en horizon infini, la prévention du risque systémique par ce ratio peut créer d'importants problèmes de liquidité lorsque les agents sont myopes. L'effet des taux d'intérêts sur les bulles de crédit est analysé en partant d'un modèle basé sur une économie de production, dans laquelle les entreprises font face à de rares opportunités d'investissement. Lorsqu'elles investissent, ces entreprises ont recours à de la dette court-terme, limitée à une partie de leur valeur boursière. Dans ce modèle générant des bulles sur les prix des firmes, les taux d'intérêts sur la dette n'ont que peu d'effets sur les prix des firmes. En outre, des réserves sont émises concernant la présence de véritables bulles dans les prix vis-à-vis des concepts historiques. Le précédent modèle est étendu en introduisant une part de dette à long-terme dans le capital des firmes. Dans ce cadre, les valeurs boursières des firmes sont très réactives au taux d'intérêt, étant même discontinues lors de chocs de taux persistants. Par ailleurs, l'économie de production peut atteindre un état bullier: les prix des firmes reflètent les gains de capital uniquement dus à la dette.
349

Approche métagénomique pour l'étude de la dégradation de la quinoléine dans les sols

Yuan, Jun 20 December 2012 (has links) (PDF)
Grâce au développement des technologies de métagénomique au cours des dix dernières années, il a été constaté que les micro-organismes représentent la plus grande ressource de diversité métabolique et génétique sur Terre. En effet, un gramme de sol contient 109 cellules bactériennes et 103-104 différentes espèces bactériennes. Certaines sont en mesure de réaliser des réactions enzymatiques conduisant à la dégradation complète de certains polluants toxiques pour l'environnement comme les composés organiques tels que la quinoléine. Cependant, l'immense réservoir de molécules et enzymes microbiennes n'a pas encore été exploité, car plus de 99% d'entre elles ne sont, pour l'instant, pas cultivables in vitro. Mon travail s'inscrit dans le cadre d'une collaboration entre l'Université SJTU (Shanghai Jiao Tong Université en Chine) et le groupe de G. M.E (Génomique Microbienne Environmentale) du laboratoire Ampère à l'Ecole Centrale de Lyon. Nos partenaires à l'Université SJTU ont construit un réacteur de dénitrification à l'échelle du laboratoire capable de dégrader la quinoléine en retirant la demande chimique en oxygène. Un nouvel outil appelé "Genefish" a été developpé dans notre laboratoire comme une méthode alternative de la métagénomique pour aider à la découverte de nouveaux gènes d'intérêt industriel ou environnemental. A la suite des premiers travaux réalisés dans notre laboratoire, ma thèse présentée ici comporte deux parties.Dans la première partie de ce travail, nous avons étudié le potentiel de dégradation de la quinoléine présente dans les bactéries d'un sol de référence largement étudié au laboratoire. Pour cela nous avons mis en place des expériences de microcosme qui visent à révéler la diversité potentielle des bactéries responsables de la dégradation de la quinoléine. Des analyses comparatives des profils RISA (Ribosomal Intergenic Spacer analysis) nous ont permis de mettre en évidence des changements dans la structure de la communauté des bactéries du sol incubé en conditions aérobie et anaérobie en présence de quinoléine. La dégradation de la quinoléine a été confirmée par technique de GC/MS (Gas Chromatography-Mass Spectrometry). Les travaux futurs seront de vérifier la communauté de bactéries responsables de la dégradation de quinoléine en utilisant la technique de NGS (Next Generation Sequencing).Le deuxième objectif de ma thèse a été d'utiliser Genefish dont la finalité est de capturer des gènes ciblés (le gène bcr qui serait responsable de la degradation de quinoléine dans le réacteur de nos partenaires) dans l'ADN métagénomique extrait du sol. Genefish consiste à élaborer une souche d'E.coli incluant un plasmide de capture permettant de pêcher les gènes recherchés dans un échantillon d'ADN metagénomique par recombinaison homologue. Le plasmide de capture comprend une cassette de deux gènes toxiques pour la souche qui activés par induction chimique vont permettre la sélection positive directe des clones recombinants, et deux sites multiples de clonage dans lesquels sont insérées les zones de recombinaison qui vont jouer le rôle d'hameçons. Nous avons testé la capacité de Genefish à capturer des produits PCR du gène bcr, l'efficacité de recombinaison reste faible à cause de la persistance de plusieurs copies du plasmide suicide dans la cellule après l' évenement de recombinaison. Par conséquent, trois stratégies ont été essayées pour améliorer l'efficacité: la co-électroporation, la ségrégation de plasmide et la construction de plasmide suicide en mono-copie. Finalement, la stratégie de la ségrégation plasmidique fonctionne mais l'efficacité de recombinaison est encore trop faible peut-être due à l'incertitude des modèles de recombinaison homologue. Les travaux futurs se concentreront sur l'amélioration des fréquences de recombinaison par transfert de fragments du plasmide de capture dans le chromosome de la souche Genefish.
350

Changements épidémiologiques au Canada : un regard sur les causes de décès des personnes âgées de 65 ans et plus, 1979-2007

Bergeron Boucher, Marie-Pier 06 1900 (has links)
La mortalité aux jeunes âges devenant de plus en plus faible, l’augmentation de l’espérance de vie est de plus en plus dépendante des progrès en mortalité aux âges avancés. L’espérance de vie à 65 ans et à 85 ans n’a cependant pas connu un rythme de progression continu depuis les trois dernières décennies. Ces changements dans l’évolution de l’espérance de vie proviennent de changements dans les tendances de certaines causes de décès et de leurs interactions. Ce mémoire analyse la contribution des causes de décès aux changements qu’a connus l’espérance de vie, mais aussi l’évolution spécifique des taux de mortalité liés aux principales causes de décès au Canada entre 1979 et 2007. Finalement, une analyse de l’implication de ces changements dans un contexte de transition épidémiologique sera réalisée, par un questionnement sur le fait que l’on assiste ou non au passage de certaines pathologies dominantes à d’autres. La réponse à ce questionnement se trouve dans l’étude de l’évolution par âge et dans le temps des causes de décès. Les résultats montrent que les progrès en espérance de vie à 65 ans et à 85 ans sont encore majoritairement dus à la diminution de la mortalité par maladies cardiovasculaires. Toutefois, ces dernières causes de décès ne sont pas les seules à contribuer aux progrès en espérance de vie, puisque les taux de mortalité dus aux dix principales causes de décès au Canada ont connu une diminution, bien qu’elles n’aient pas toutes évolué de la même manière depuis 1979. On ne semble ainsi pas passer d’un type de pathologies dominantes à un autre, mais à une diminution générale de la mortalité par maladies chroniques et à une diversification plus importante des causes de décès à des âges de plus en plus avancés, notamment par la diminution des «grandes» causes de décès. / With the decrease of mortality at younger ages, gain in life expectancy is heavily dependent on the progress in old age mortality. However, over the last three decades, life expectancies at 65 and 85 years old have not experienced a constant rate of progress. Changes in life expectancy progress come from changes in specific causes of death trends and their interactions. The present thesis studies the contribution of causes of death on the changes in life expectancies and the trends in death rates of specific causes of death in Canada between 1979 and 2007. An analysis of those changes in an epidemiological transition context has also been done by questioning whether or not we are witnessing a shift from certain dominant diseases to others. This questioning will be answered by studying variation in the causes of death by age and over time. The results of this study show that progress in life expectancies at 65 and 85 years old are still mainly due to the decrease in cardiovascular mortality. However, cardiovascular diseases are not the only causes of death to contribute to the progress in life expectancy. Since 1979, mortality rates from the ten leading causes of death in Canada have all declined but in different ways. Thus, there does not seem to be a shift in the dominant causes of death towards others in Canada, but there is a general mortality decline from chronic diseases and a greater diversification of causes of death at older ages.

Page generated in 0.0323 seconds