• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 27
  • 7
  • Tagged with
  • 113
  • 39
  • 30
  • 18
  • 18
  • 17
  • 15
  • 14
  • 13
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse quantitative des phénomènes de diffusion dans des échantillons météoritiques : étude par microscopie électronique en transmission / Quantitative analysis of diffusion phenomena in meteoritic samples : transmission electron microscopy study

Cuvillier, Priscille 09 October 2014 (has links)
Les météorites sont des objets dont la formation date du début du système solaire. Les constituants de certaines d’entre elles, en particulier les chondrites, n’ont été que peu modifiés postérieurement. Leur étude renseigne donc sur les conditions physico-chimiques de formation et d’évolution des matériaux primitifs du système solaire. Les études présentées portent sur le développement et l’application de méthodes de microscopie électronique en transmission analytique. A partir d’observations à l'échelle sub-micrométrique, il s’agit de contraindre de façon quantitative les paramètres physico-chimiques associées aux conditions de transformation de la matière, et notamment les couples temps-température liés aux processus diffusifs.Une partie du travail concerne les modifications induites par un métamorphisme thermique modéré afin d’étudier les premières étapes de transformation sur les corps parents. Les profils de concentration aux interfaces entre minéraux majoritaires (olivine et pyroxènes) ont permis de contraindre la température du pic métamorphique de la météorite d'Allende dans la gamme 400-465°C et de mieux comprendre les premières étapes de l’évolution de la matrice d’Acfer 094. Une seconde partie est consacrée aux événements de haute température liés à la formation des chondres de type I. L’étude de pyroxènes calciques de la météorite de Paris a permis de préciser leurs vitesses de refroidissement, estimées entre 6 et 30°C/h. Enfin, nous avons mis en place une méthodologie permettant d’affiner la répartition des ions Fe2+ et Mg2+ dans les orthopyroxènes à partir de données de diffraction électronique, en relation avec les cinétiques de refroidissement. / Meteorites are objects formed in our early Solar System. Some of their components, especially in chondrites, have been subjected to little change afterwards. Their study gives thus access to the formation conditions of primitive material of the Solar System. This work concerns the development and the application of analytical transmission electron microscopy methods. The aim is to deduce from sub-micron observations the physical and chemical parameters associated to material transformation, and in particular the time-temperature couples related to diffusion phenomena. A first part of the work focuses on the modifications induced by moderate thermal metamorphism in order to study the first transformation steps on meteorite parent bodies. Concentration profiles at interfaces between major minerals (olivine and pyroxene) allow us to constrain the peak metamorphic temperature of the Allende meteorite between 400 and 465°C and to better understand the first evolution stages of the Acfer 094 matrix. A second part deals with the high temperature events associated to the type I chondrule formation. Within the Paris meteorite, their cooling rate has been estimated between 6 and 30°C/h from the study of calcic pyroxenes. At last, we implemented a method using electron diffraction to refine the Fe2+ and Mg2+ cations distribution in orthopyroxene, which is related to the cooling kinetics.
2

Étude expérimentale du comportement en cisaillement de résidus miniers épaissis

Lapierre, Jérôme January 2014 (has links)
Les résidus miniers épaissis représentent une alternative de plus en plus utilisée pour le stockage de surface. Cette technologie, développée au Canada, possède plusieurs avantages par rapport aux résidus miniers conventionnels, qui contiennent typiquement plus d’eau. Ceci permet de réduire la consommation d’eau de la mine, en plus d’améliorer les propriétés mécaniques du matériau, et de réduire l’empreinte des parcs à résidus. Néanmoins, bien que ces avantages soient tous théoriquement vrais, des efforts en recherche expérimentale sont encore nécessaires afin de valider ces affirmations. Ce projet s’inscrit dans cette ligne, et se veut une étude de laboratoire du comportement en cisaillement des résidus miniers épaissis. Le contexte théorique de la résistance au cisaillement statique est tout d’abord abordé pour ce type de matériau. L’essai triaxial et la mesure des vitesses des ondes de cisaillement (V[indice inférieur s]) sont abordés en détails, puisque des liens sont effectués entre les résultats de ces deux essais. Certains modèles de comportement en cisaillement, comme le modèle hyperbolique de Duncan et Chang, sont abordés afin de pouvoir être utilisés comme outils d’analyse. Le phénomène de la liquéfaction statique est également abordé dans le cadre du comportement volumétrique lors du cisaillement. Les positions des écoles de Harvard et de Cambridge sur ce sujet sont résumées et comparées, dans le but d’élaborer un cadre d’analyse clair pour ce projet. Au niveau expérimental, plusieurs essais triaxiaux ont été effectués afin d’évaluer la résistance au cisaillement statique d’un résidu provenant d’une mine d’or canadienne. Des essais en conditions drainées et non-drainées sont effectués et comparés aux résultats provenant d’un autre laboratoire. Cette comparaison a pour but de valider le bon fonctionnement de l’appareil triaxial ELDYN, de marque GDS, utilisé dans le cadre de ce projet. En effet, cet appareil est neuf, et une étape de prise en main et de calibration est nécessaire. Par ailleurs, une méthode de mise en place des échantillons triaxiaux par déposition hydraulique a été élaborée afin de mieux reproduire l’état des résidus sur le terrain. Des essais triaxiaux ont été effectués afin d’évaluer l’impact de la méthode de mise en place sur la résistance au cisaillement et certains autres facteurs. Des mesures de vitesses des ondes de cisaillement sont également effectuées pour 2 raisons. Tout d’abord, la technique de mesure par anneaux piézoélectriques, développée à l’Université de Sherbrooke, n’a jamais été appliquée sur ce type de matériau. Par ailleurs, des modules de cisaillement provenant des essais triaxiaux et des mesures de V[indice inférieur s] sont comparés, afin d’établir un lien entre le domaine des petites et des grandes déformations. Lors de mesures de V[indice inférieur s] sur le terrain, ce type de relation pourrait éventuellement permettre d’obtenir des paramètres de résistance au cisaillement à grandes déformations (φ’, c’) à partir de mesures in situ non-destructives, effectuées à très petites déformations.
3

Performances statistiques de méthodes à noyaux

Loustau, Sébastien 28 November 2008 (has links) (PDF)
Cette thèse se concentre sur le modèle de classification binaire. Etant donné $n$ couples de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) $(X_i,Y_i)$, $i=1,\ldots ,n$ de loi $P$, on cherche à prédire la classe $Y\in\{-1,+1\}$ d'une nouvelle entrée $X$ où $(X,Y)$ est de loi $P$. La règle de Bayes, notée $f^*$, minimise l'erreur de généralisation $R(f)=P(f(X)\not=Y)$. Un algorithme de classification doit s'approcher de la règle de Bayes. Cette thèse suit deux axes : établir des vitesses de convergence vers la règle de Bayes et proposer des procédures adaptatives.<br /><br />Les méthodes de régularisation ont montrées leurs intérêts pour résoudre des problèmes de classification. L'algorithme des Machines à Vecteurs de Support (SVM) est aujourd'hui le représentant le plus populaire. Dans un premier temps, cette thèse étudie les performances statistiques de cet algorithme, et considère le problème d'adaptation à la marge et à la complexité. On étend ces résultats à une nouvelle procédure de minimisation de risque empirique pénalisée sur les espaces de Besov. Enfin la dernière partie se concentre sur une nouvelle procédure de sélection de modèles : la minimisation de l'enveloppe du risque (RHM). Introduite par L.Cavalier et Y.Golubev dans le cadre des problèmes inverses, on cherche à l'appliquer au contexte de la classification.
4

Méthodes numériques pour la recherche et la conception d’architectures optimales de boîtes de vitesses / Scientific methods for research and design synthesis of gearboxes

Masfaraud, Steven 13 December 2016 (has links)
La conception d’une boîte de vitesses impose le choix initial d’une architecture, solution de principe de l’objet à concevoir. Ce choix s’avère très structurant et a un impact très fort sur les critères de performance de la boîte de vitesse sans que l’ingénieur ait une visibilité claire sur cet impact. Une fois l’architecture choisie, il est possible par des techniques d’optimisation continue d’optimiser les critères de performance et le respect de contraintes vis-à-vis d’un cahier des charges. Ce genre d’optimisation a pour but de déterminer de manière optimale des dimensions structurantes de la boîte de vitesses comme par exemple les positions des axes de lignes d’arbres dans l’espace ou les diamètres des pignons. L’objectif de cette thèse est d’apporter des techniques scientifiques permettant de choisir l’architecture optimale vis-à-vis de ce cahier des charges. Le développement d’une telle méthode vise à obtenir des boîtes plus performantes, mais également de réduire les temps de développement d’ingénierie en s’assurant par des méthodes scientifiques du respect des contraintes exprimées dans le cahier des charges, et ce dès le choix de l’architecture, chose faite par essais-erreurs dans le cycle de conception habituel. / In the design process of a new gearbox, a choice has to be made between several competing technical solutions referred to as architectures. The purpose of multicriteria architecture optimization is to define the best technical solution in order to meet some given specifications. In the case of automotive gearboxes, the number of technical solutions is so high that it is humanly impossible for an engineer to test every possibility.It is more convenient to computationally generate all the gearbox architectures and select them with an automated analysis of performance and viability for the main criterion. These viable architectures are at this step only described by their kinematic functions, and a second stage considers the discrete spatial positioning of components in order to determine the viable ones for each architecture. Then, the design engineercan compare the viable architectures according to their performance and select the most interesting one.This PhD. propose a novel framework for gearbox synthesis from kinematic specifications and engineering rules and knowledge, using a specific graph as model for gearbox architectures.
5

Influence de la granulométrie sur la vitesse des ondes de cisaillement des sols granulaires

Tchabat Tcheutchoum, Harlette January 2011 (has links)
La détermination de la vitesse de propagation des ondes de cisaillement (Vs) dans un sol est fondamentale dans tous les problèmes en dynamique des sols. Plusieurs techniques permettent la mesure de Vs dans les sols. En effet, le paramètre Vs permet la caractérisation et l'évaluation du potentiel de liquéfaction des sols granulaires. Cependant, indépendamment de la technique de mesures utilisées, plusieurs valeurs de Vs peuvent être obtenues. Cette diversification peut se justifier par plusieurs facteurs, notamment la granulométrie. D'où cette étude qui porte sur l'influence de la granulométrie sur la vitesse des ondes de cisaillement des sols granulaires. Dans ce mémoire de maîtrise, l'effet des éléments caractéristiques des sols granulaires (D[indice inférieur 50], e, Cu, [sigma][indice inférieur m]) sur la vitesse des ondes de cisaillement est étudié. Quatre types de sols granulaires ayant des propriétés granulométriques différentes sont considérés. Il s'agit de : (1) Le sable d'Ottawa (C-190) (D[indice inférieur 50] = 0,37 mm et Cu=1,96), (2) Le sable de Milby qui est un sable très fin ((D[indice inférieur 50] = 0,247 mm et Cu= 3,2), (3) Le sable Eastman (D[indice inférieur 50] = 0,6 mm et Cu = 11,05) et (4) Le Till Eastman (D[indice inférieur 50] = 0,1 mm et Cu = 22). Les essais en laboratoire ont été réalisés sur une cellule oedométrique équipée d'un dispositif d'anneau piézoélectrique qui permet de déterminer à la fois la valeur le module oedométique (Eoed) à partir de la cellule et la mesure de Vs à partir de l'essai ring actuator développé à l'université de Sherbrooke. Il ressort de cette étude que la vitesse des ondes de cisaillement augmente avec l'augmentation du D[indice inférieur 50]. De plus, cette étude révèle qu'il existe une corrélation directe entre le module oedométrique et le module de cisaillement Gmax. Cette corrélation peut se traduire par une fonction de la forme de la forme Eoed / Gmax = f([sigma]).
6

Cinématique haute résolution des galaxies de l'échantillon SINGS et observations du H[alpha] profond de la galaxie NGC 7793

Dicaire, Isabelle January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
7

Astérosismologie d'étoiles de séquence principale ou évoluées, en relation avec l'expérience spatiale CoRoT, et les instruments au sol HARPS et SOPHIE

Soriano, Melanie 30 September 2009 (has links) (PDF)
Le travail présenté dans cette thèse porte sur l'astérosismologie des étoiles de type solaire, et plus particulièrement des étoiles centrales de systèmes planétaires. L'analyse des ondes se propageant dans ces étoiles permet de mieux contraindre leur structure interne. Les deux premiers chapitres décrivent la théorie des oscillations stellaires et les outils numériques utilisés. La troisième partie traite de HD 52265, étoile cible de la mission CoRoT possédant une planète. Nous avons calculé des modèles préliminaires de cette étoile, en tenant compte des contraintes spectroscopiques, et nous avons avons fait des prédictions astérosismiques. Au cours de cette étude, nous avons mis en évidence une signature sismique caractéristique du cœur de l'étoile. Ce phénomène est induit par un fort gradient d'hélium au centre de l'étoile. Nous avons étudié cet effet dans le cas général des étoiles de type solaire, et nous avons montré qu'il se produit systématiquement, à la fin de la phase de séquence principale ou au début de la branche des sous-géantes. Cette signature caractéristique peut être utilisée pour contraindre le cœur de l'étoile. Le cinquième chapitre est consacré à l'étoile 51 Peg. Nous avons observé cette étoile avec le spectrographe SOPHIE à l'Observatoire de Haute Provence en 2007 et nous avons détecté ses oscillations. L'analyse des données a conduit à l'identification de 21 modes de pulsation. Enfin, nous présentons une nouvelle analyse sismique de l'étoile centrale de système planétaire µ Arae, observée et analysée par Bazot et al. en 2004. L'astérosismologie couplée avec la spectroscopie nous a permis de déterminer l'abondance d'hélium de l'étoile, ainsi que ses paramètres: masse, âge, rayon, taille du cœur convectif et extension possible due à de l'overshooting. Ces résultats illustrent que l'astérosismologie est un outil puissant pour apporter des contraintes sur la structure interne des étoiles.
8

Contribution à l'étude des populations d'étoiles chaudes à grande vitesse observées par Hipparcos

Royer, Frédéric 19 March 1999 (has links) (PDF)
Cette thèse est une étude de l'origine des étoiles chaudes à grande vitesse et/ou à grande distance du plan galactique, à l'aide des données du satellite Hipparcos. L'existence de ce type d'étoiles montre une incohérence entre le temps de vie assigné par la théorie de l'évolution stellaire aux étoiles de type B et A de Population I et celui beaucoup plus long des mécanismes responsables de l'augmentation de la dispersion des vitesses. Dans un premier temps, l'effet de la rotation stellaire sur les magnitudes absolues tirées des parallaxes trigonométriques est analysé sur un échantillon d'étoiles A normales de séquence principale. Aucune variation significative n'est observée. Une méthode de détermination des vitesses radiales est développée pour les spectres observés avec le spectrographe Élodie (OHP). Elle permet le calcul de la vitesse radiale avec une précision de l'ordre de 1-2 km/s sans limitation due au vsini de l'étoile observée. Dans un second temps, un échantillon de 35000 étoiles de type B-A-F tirées du catalogue Hipparcos est analysé. 316 étoiles à grande vitesse sont identifiées et les différentes hypothèses expliquant leur origine sont discutées. En particulier, la contribution des blue stragglers est étudiée à l'aide d'un modèle de synthèse de populations. Il est montré que les blue stragglers du disque mince représentent une source d'étoiles à grande vitesse essentiellement dans les étoiles de type précoce (B et A) alors que les blue stragglers du disque épais concourent aux étoiles de type A tardif et F.
9

Analyse et optimisation du traitement de l'azote par boues activées à basse température

Choubert, Jean-Marc 20 September 2002 (has links) (PDF)
L'objectif principal de ce travail a porté sur l'optimisation du dimensionnement et de la gestion des installations de traitement des eaux usées par boues activées fonctionnant à basse température (10-12°C) et soumise à une contrainte de traitement poussé sur l'azote. Dans ce but, nous avons étudié la faisabilité de la nitrification à des charges massiques stabilisées supérieures à 0.1 kgDBO5.(kgMVS.j)-1. Le fonctionnement d'une installation pilote alimentée par un effluent synthétique, puis par un effluent urbain réel, a été étudié pour différentes charges massiques stabilisées à une température de 11 +/- 1°C. Les résultats très détaillés acquis en continu sur deux périodes de six mois ont suggéré le rôle et la hiérarchie des facteurs influençant la capacité de nitrification. Ils ont permis d'adapter l'outil de simulation dynamique Activated Sludge Model n°1 (ASM1). La double démarche expérimentale et numérique mise en oeuvre a permis de dégager les rôles des conditions de fonctionnement (âge des boues, charge volumique en azote, durée de présence d'oxygène) et des propriétés de l'effluent à traiter (ratios caractéristiques, part des différentes fractions) sur les performances de traitement de l'azote et sur la composition de la boue. Les valeurs limites des paramètres de gestion (charge massique maximale, durée d'aération journalière), permettant à différentes configurations d'installation (bassin unique, réacteur avec zone d'anoxie en tête) de respecter une concentration en azote total inférieure à 10 mgN/L dans le rejet, ont pu être dégagées. Des stratégies de gestion dans le cas de variations de flux importantes en entrée d'installation (cas des zones touristiques de montagnes) ont pu être évaluées (fonctionnement à charge massique variable par adaptation de la durée d'aération, ou bien utilisation d'un bassin d'aération à volume variable).
10

Estimation des mouvements verticaux de l'écorce terrestre par GPS dans un repère géocentrique, dans le cadre du projet TIGA.

Santamaría-Gómez, Alvaro 11 October 2010 (has links) (PDF)
Deux techniques complémentaires coexistent aujourd'hui pour observer les variations du niveau des mers. L'altimétrie par satellite permet une observation quasi globale avec un échantillonnage temporel et spatial régulier. Cependant, cette technique n'a pas plus de quelques décennies d'existence. A cause des variations inter-décennales du niveau des mers, elle ne donne donc pas accès aux signaux de longue période ou aux variations séculaires. Les variations du niveau des mers à long terme sont accessibles aujourd'hui que grâce aux mesures marégraphiques, certains marégraphes fournissant des enregistrements continus depuis le XIXème siècle. Cette technique constitue donc le seul moyen d'estimer, à partir de la mesure directe, les variations du niveau des mers pendant le XXème siècle, donnée qui représente un bon indicateur du changement climatique. Cependant, les estimations marégraphiques sont contaminées par des mouvements verticaux à long terme de la croûte terrestre. Afin d'obtenir les variations absolues à long terme du niveau des mers, les mouvements verticaux des marégraphes peuvent maintenant être déterminés par la technique GPS. Cette approche est explorée en pratique depuis 2001 par le projet pilote TIGA (Tide Gauge benchmark monitoring) du Service International des GNSS (IGS). Dès 2002, le Consortium ULR (Université de La Rochelle et Institut Géographique National) contribue à ce projet en tant que Centre d'Analyse TIGA. Actuellement, plus de 300 stations GPS globalement reparties sont traitées, parmi lesquelles plus de 200 sont co-localisées avec un marégraphe. Mes travaux de thèse s'inscrivent dans l'étude méthodologique visant à améliorer l'estimation des vitesses verticales des stations GPS. Une première étape de mes travaux a donc consisté en l'étude de la meilleure stratégie de traitement des données GPS. Différentes modélisations ont été testées comme, par exemple, les effets de variation de phase des antennes et du retard troposphérique. A cause du grand nombre de stations du réseau, une répartition en sous-réseaux est imposée pour le traitement. Une répartition optimale des stations GPS selon une approche dynamique a été élaborée et testée. Les résultats ont montré que cette procédure améliore grandement la qualité du traitement GPS. A l'issue de l'application de cette nouvelle stratégie de calcul, on a obtenu et exporté des produits dérivés comme les positions des stations, les orbites des satellites, les paramètres d'orientation de la Terre, et le mouvement apparent du géocentre, pour être combinés dans le cadre de la première campagne de retraitement des données GPS de l'IGS. La confrontation de ces produits avec les produits d'autres analyses de très haute qualité (la grande majorité des Centres d'Analyse IGS y participent) on fourni une validation de la stratégie de traitement GPS implémentée et aussi des indications pour de futures améliorations. La participation à cette campagne a permis en plus de densifier et d'étendre le repère international de référence terrestre (ITRF) aux marégraphes. La deuxième étape de mes travaux a consisté en l'étude de l'estimation de vitesses verticales GPS. L'effet couplé des signaux périodiques et des discontinuités sur les vitesses estimées a été mis en évidence, montrant la nécessité d'estimer ces paramètres d'une manière cohérente et rigoureuse. Particulièrement, l'effet des discontinuités a été signalé comme la source d'erreur la plus importante aujourd'hui pour l'estimation de vitesses. Les incertitudes réalistes des vitesses estimées ont été analysées en profondeur en prenant en compte le contenu de bruit corrélé dans les séries temporelles. En comparant rigoureusement les résultats de cette analyse avec la précédente solution ULR, on constate une réduction significative du contenu du bruit corrélé. Ceci est dû principalement à l'amélioration du traitement des données. Cette analyse du bruit a abouti à la démonstration que la corrélation temporelle des données retraitées de façon homogène dépend de l'époque des données. De cette façon, il a été démontré que le contenu du bruit dans les séries temporelles GPS longues s'explique principalement par le niveau de bruit des données les plus anciennes. Toutefois, pour obtenir l'incertitude formelle de vitesse la plus petite possible, il est nécessaire d'incorporer toutes les données disponibles. Il a été montré qu'en utilisant le modèle de bruit le plus approprié pour la série temporelle de chaque station, l'incertitude formelle du champ de vitesse estimé est en accord avec les différences de vitesse obtenues par rapport à la prochaine réalisation du repère international de référence terrestre, l'ITRF2008.

Page generated in 0.0489 seconds