Spelling suggestions: "subject:"vitesse""
51 |
Modélisation des déséquilibres mécaniques pour les écoulements diphasiques : approches par relaxation et par modèle réduitLabois, Mathieu 31 October 2008 (has links) (PDF)
Cette thèse porte sur l'utilisation de modèles hyperboliques pour la simulation des écoulements diphasiques compressibles, pour trouver des alternatives au modèle bifluide classique. Nous établissons tout d'abord une hiérarchie des modèles diphasiques, obtenue selon des hypothèses d'équilibres des variables physiques entre chaque phase. L'utilisation de développements de Chapman-Enskog permet de relier entre eux les différents modèles existants. De plus, des modèles prenant en compte de petits déséquilibres physiques sont obtenus par des développements à l'ordre un. La deuxième partie de cette thèse porte sur la simulation des écoulements caractérisés par des déséquilibres de vitesses et des équilibres de pression, que nous modélisons de deux manières différentes. Tout d'abord, un modèle à deux vitesses et deux pressions est utilisé, avec l'application de relaxations des vitesses et pressions à temps finis afin d'obtenir un retour à l'équilibre de ces grandeurs. On propose ensuite un nouveau modèle dissipatif à une vitesse et une pression, où l'apparition de termes du second ordre permet de prendre en compte les déséquilibres de vitesse entre les phases. Une méthode numérique basée sur une approche par pas fractionnaires est développée pour ce modèle.
|
52 |
FONCTIONNEMENT HYDROGEOLOGIQUE ET ARCHIVES PALEOCLIMATIQUES D'UN AQUIFERE PROFOND MEDITERRANEEN <br />Etude géochimique et isotopique du bassin miocène de Valréas (Sud-Est de la France)Huneau, Frederic 22 December 2000 (has links) (PDF)
Une étude hydrogéologique a été entreprise sur les eaux de l'aquifère miocène du bassin de Valréas (Vaucluse). Celle-ci vise à améliorer la connaissance du fonctionnement du système grâce à une étude détaillée combinant une vaste gamme d'outils isotopiques et géochimiques qui inclut : les isotopes stables de la molécule d'eau (18O et 2H), les isotopes du carbone minéral dissous (13C et 14C), le tritium, les gaz rares et les éléments chimiques majeurs. Les activités 14C décroissent depuis environ 100 pcm dans la zone de recharge, jusqu'à des valeurs inférieures à 1 pcm dans l'aquifère captif. Les âges calculés révèlent la présence d'eau dont le temps de séjour atteint plus de 30 000 ans dans la partie confinée. Les teneurs en 18O et 2H mettent en évidence un fort contraste isotopique entre aquifère libre et aquifère captif, et l'étude de la relation 18O/2H souligne la particularité des circulations atmosphériques régionales, sous influence mixte atlantique et méditerranéenne. L'excès en deutérium calculé à partir des eaux anciennes suggère la persistance de ce schéma depuis le Pléistocène. Les paléotempératures de recharge déduites des concentrations en gaz rares fournissent une différence de température entre le Tardiglaciaire et l'Holocène de l'ordre de 7°C et les teneurs en hélium radiogénique montrent une évolution graduelle avec l'augmentation du temps de séjour. La géochimie des eaux met en évidence la sensibilité des eaux du réservoir miocène aux pollutions d'origine anthropique. Les minéraux argileux sont à l'origine d'échanges de bases dont l'intensité est proportionnelle au temps de séjour. La comparaison des vitesses hydrauliques et des vitesses radioisotopiques indique une grande différence dans les deux méthodes concernant la partie captive de l'aquifère, suggérant l'existence d'eaux quasi-stagnantes dans l'aquifère confiné. A l'issue de cette étude un modèle conceptuel de fonctionnement de l'aquifère est proposé.
|
53 |
Anisotropies microstructurales composites dans les roches réservoir: Conséquences sur les propriétés élastiques et relation à la déformationlouis, laurent 09 October 2003 (has links) (PDF)
La microstructure d'une roche sédimentaire, y compris lorsque celle-ci n'a pas subi de déformation tectonique, présente toujours une ou plusieurs caractéristiques anisotropes liées à la forme, l'orientation préférentielle ou l'arrangement de ses éléments constitutifs. Du fait des conséquences qu'ont ces anisotropies sur des propriétés physiques telles que les propriétés de transport ou la déformabilité, comme de l'histoire géologique qu'elles recellent, leur étude a constitué l'objet de nombreux travaux. Dans ce travail, les microstructures de roches présentant des degrés de déformation variés ont été analysées par examen direct (microscopie) et à travers différentes mesures de propriétés physiques réalisées en laboratoire (vitesse de propagation d'onde P ultrasonique, susceptibilité magnétique, conductivité électrique). Tous les échantillons étudiés ont présenté un comportement anisotrope vis-à-vis des propriétés mesurées. Faisant l'hypothèse que les vitesses d'onde P peuvent être représentées par un tenseur symétrique de rang 2, nous leur avons appliqué la même procédure d'inversion que celle qui est utilisée en routine pour traiter les données de susceptibilité magnétique. Cette méthode s'est avérée être un outil efficace d'estimation<br />spatiale des anisotropies acoustiques. Dans chaque cas, nous avons tenté d'attribuer aux anisotropies mesurées une origine microstructurale, d'abord en utilisant des modèles élastiques, puis par analyse des microstructures.<br />Parmi les roches étudiées, il a été mis en évidence un contrôle des anisotropies par un allongement préférentiel<br />des pores, par une anisotropie de distribution des contacts intergranulaires, par l'orientation préférentielle d'un<br />réseau de fissures interagissant avec un terme de compaction ou par une composition entre plans de microschistosit<br />é. Le résultat principal de ce travail est le fait que les anisotropies de vitesse d'onde P ultrasonique peuvent<br />exprimer la composition d'anisotropies présentes à l'échelle microstructurale, ainsi que leur évolution au cours<br />de la déformation.
|
54 |
Analyses des vitesses et des déplacements co-sismiques sur des failles décrochantes en Mongolie et en Iran - Approche morphotectonique et paléosismologiqueRizza, Magali 07 December 2010 (has links) (PDF)
Ce travail de thèse a pour but d'analyser les variations de vitesses sur des grandes failles décrochantes en contexte intracontinental, capables de produire des séismes de très fortes magnitudes (M > 7.5). Afin d'illustrer ces variations d'activités, cette analyse a été effectuée sur deux zones d'études situées en domaine continental et sismiquement actives: la région ouest de la Mongolie (failles de Bogd et Bolnay) et le nord de l'Iran (failles d'Astaneh et de Tabriz). À partir d'une approche morphotectonique et paléosismologique, les cinématiques, les vitesses de failles et les intervalles de récurrence entre les séismes majeurs ont été estimés, permettant d'analyser les caractéristiques du cycle sismique sur chacune des failles. En Mongolie, les failles de Bogd et Bolnay présentent respectivement des vitesses de ~ 1,2 et 2,6 mm/an, qui semblent être constantes sur la période Pleistocène supérieur-Holocène. Ces deux failles présentent également des glissements caractéristiques et des intervalles de temps similaires entre les séismes majeurs. Les analyses paléosismologiques suggèrent qu'un essaim sismique comparable à celui enregistré au XXème siècle a eu lieu il y a environ 3000 ans. En Iran, une vitesse géologique de 2 mm/an a été estimée sur la faille d'Astaneh et les données paléosismologiques suggèrent des intervalles de récurrence de 1800 ans, associés à des déplacements en surface compris entre 3 et 4,5 m. Nous avons également estimé une vitesse de 7 mm/an sur la faille de Tabriz, en accord avec les données GPS, suggérant que la vitesse sur cette faille est constante depuis 45 ka.
|
55 |
Érosion et transport de matière sur le versant occidental des Andes semiarides du Nord du Chili (27 - 32 ° S) : d'une approche à grande échelle temporelle et spatiale, jusqu'à l'évolution quaternaire d'un système fluvialAguilar Martorell, Germán Alfredo 01 October 2010 (has links) (PDF)
La Cordillère Principale des Andes semi-arides est un relief transitoire qui se developpe suite au soulèvement des Andes initié à l'Oligocène. L'altitude des pédiments de la Cordillère Principale par rapport à ceux de la Cordillère de la Côte indique que ce soulèvement a atteint deux kilomètres. Ce qui se marque par de profondes vallées incisés (~2 km) qui se sont développées dans la haute cordillère depuis six millions d'années. Les volumes incisés de ces vallées et la concentration de 10Be des sédiments fluvio-glaciaires indiquent des vitesses d'érosion de l'order de trente a soixante-quinze mètres par million d'années, des valeurs qui sont relativement constantes depuis les six derniers millions d'années. Pendant cette période la dynamique de transfert de matière a été modulée par l'érosion glaciaire et l'exportation des sédiments fluvio-glaciaires vers l'aval des fronts glaciares plio-quaternaires.
|
56 |
Optimisation de l'hybridation des puces à ADN grâce au mélange par advection chaotique.Beuf, Aurélien 14 November 2008 (has links) (PDF)
La détection de séquences génétiques par la technologie des puces à ADN se heurte à des problèmes de fiabilité et de reproductibilité, dus en grande partie à des problèmes de mélange. Dans toute cette thèse, nous montrons à quel point le mélange par advection chaotique améliore les performances de ces puces. Pour cela nous comparons, par une étude principalement numérique, l'efficacité de deux protocoles de mélange basés sur le principe d'injection alternée et périodique de fluide (modèle puits/sources) : l'un utilise des seringues réversibles, l'autre des pompes recyclant le fluide extrait, conduisant globalement à un mélange bien plus efficace et rapide. En outre, nous mettons en évidence le rôle important de la géométrie de la chambre. Dans un second temps, nous introduisons un modèle de capture chimique entre les monobrins d'ADN libres en volume (cibles) et ceux fixés sur la puce (sondes). Nous montrons alors numériquement que la réaction est généralement grandement limitée par la diffusion, mais que l'advection chaotique améliore les choses de manière très significative grâce au mélange. Ceci nous permet d'estimer les constantes de vitesses dans le cas statique (où la diffusion agit seule) et le cas dynamique (avec mélangeur). Enfin, profitant de l'opportunité d'un stage à l'Université de Sherbrooke, j'ai effectué un premier suivi en temps réel par SPR d'une cinétique de type "cibles en solution/sondes sur support" pour tenter de comparer les vitesses d'hybridation statique et dynamique.
|
57 |
Simulation numérique, à l'aide d'algorithmes thermomécaniques implicites, de matériaux endommageables pouvant subir de grandes vitesses de déformation. Application aux structures aéronautiques soumises à impact.Jeunechamps, Pierre-Paul 10 October 2008 (has links)
La thèse de Monsieur Jeunechamps est intitulée "Simulation numérique, à l'aide d'algorithmes thermomécaniques implicites, de matériaux endommageables pouvant subir de grandes vitesses de déformation. Application aux structures aéronautiques soumises à impact". Elle comporte neuf chapitres et deux annexes. La bibliographie compte 285 références. Les développements informatiques ont été implémentés dans le code de calcul par éléments finis Metafor, développé au sein du département LTAS-MC&T et MN²L de l'Université de Liège.
Le travail est divisé en trois parties principales. La première partie (chapitres 2 à 4) concerne la description et la modélisation thermomécanique des phénomènes à dynamique rapide sans dégradation irréversible des propriétés du matériau utilisé. La deuxième partie (chapitres 5 à 7) est consacrée à l'étude du comportement des matériaux dits endommageables éventuellement soumis à rupture, c'est-à-dire des matériaux dont les propriétés se dégradent de façon irréversible au cours de la déformation. La troisième partie (chapitre 8) est une application à l'échelle industrielle des méthodes proposées tout au long de cet ouvrage.
Le chapitre 2 propose un inventaire des lois constitutives des matériaux, permettant de décrire le comportement de la structure lors de sollicitations rapides. L'accent est mis sur les principales lois d'évolution de la limite élastique implémentées dans les codes de calcul commerciaux, ainsi que sur les variantes de ces lois d'évolution. L'aspect numérique de l'intégration thermomécanique de ces lois est également abordé.
Le deuxième aspect abordé dans cette première partie concerne les algorithmes d'intégration temporelle des équations de conservation de la quantité de mouvement. Le chapitre 3 décrit les algorithmes d'intégration utilisés dans ce travail, en mettant l'accent sur l'aspect dynamique et le couplage thermomécanique des phénomènes à dynamique rapide.
Le chapitre 4 présente quelques applications illustrant les méthodes de calcul utilisées et permettant la validation de l'implémentation des modèles programmés dans Metafor. Les comparaisons sont effectuées dans la mesure du possible par rapport à des données expérimentales quand celles-ci sont disponibles et également par rapport à des résultats issus de codes de calcul commerciaux.
Le chapitre 5 présente une modélisation de la dégradation du matériau au cours de la déformation. En effet, le matériau, sous l'effet des sollicitations et des efforts résultants, perd de ses propriétés de résistance à l'effort, et ce, de manière irréversible. Il est alors endommagé. Dans ce travail, nous avons choisi d'utiliser la théorie de l'endommagement continu pour décrire ces phénomènes. Le chapitre 5 rappelle les fondements de cette théorie ainsi que les principales lois d'endommagement continu. Une méthode générale et originale d'intégration de ces modèles d'endommagement est également proposée.
Une fois que la structure est soumise à de trop fortes sollicitations, la rupture consécutive à l'endommagement du matériau apparaît. Le chapitre 6 décrit la méthode numérique développée pour modéliser le déchirement d'une structure ainsi que les différents critères de rupture utilisés. Encore une fois, nous nous limitons à une approche phénoménologique et pragmatique : il ne s'agit pas ici d'implémenter des critères complexes multi-échelles. Cependant, la structure du code de calcul est conçue pour permettre aisément de telles extensions.
Le chapitre 7 présente une série d'applications permettant de valider l'implémentation des lois d'endommagement et de rupture ainsi que la formulation proposée de la théorie d'endommagement. Nous étudierons également le coût CPU engendré par la modélisation de l'endommagement et de la rupture du matériau.
Enfin, le chapitre 8 présente une application industrielle proposée par la société Techspace Aero S.A. Il s'agit de l'étude du flambement d'une aube de compresseur basse pression d'un moteur d'avion lors du contact accidentel de celle-ci avec le carter du moteur. Tous les développements présentés dans les chapitres précédents sont alors utilisés pour simuler au mieux le phénomène.
Les apports principaux du travail sont les suivants :
utilisation d'algorithmes thermomécaniques de type étagé, dont l'intégration temporelle des équations de conservation du mouvement prend en compte les effets d'inertie ;
amélioration de la technique d'intégration des lois constitutives avec endommagement, utilisant la théorie de l'endommagement continu, par l'utilisation d'un algorithme itératif ;
méthode unifiée de calcul de la matrice de raideur tangente matérielle analytique pour un matériau hypoélastique avec endommagement, selon la théorie de l'endommagement continu, dans le cadre thermomécanique ;
couplage thermomécanique général des modèles d'endommagement et des lois constitutives à grandes vitesses de déformation ;
utilisation d'algorithmes implicites thermomécaniques dans la modélisation de la déchirure de structure par la méthode d'érosion ;
établissement d'une plate-forme numérique d'accueil permettant l'implémentation future de lois matérielles, avec ou sans endommagement, ainsi que de techniques de modélisation de propagation de fissure ;
processus complet de description d'un phénomène d'impact, par la modélisation du comportement thermomécanique du matériau par des lois de comportement avec endommagement adaptées au phénomène étudié et l'utilisation d'algorithmes implicites couplés à une méthode de déchirure de la structure.
|
58 |
Méthodes d'agrégation : optimalité et vitesses rapidesLecué, Guillaume 18 May 2007 (has links) (PDF)
Le principal travail de<br />cette thèse porte sur l'étude des méthodes d'agrégation sous<br />l'hypothèse de marge. Nous avons mis en avant que l'hypothèse de<br />marge améliore les vitesses d'agrégation. Un autre résultat de<br />cette thèse montre que certaines méthodes de minimisation du risque<br />empirique pénalisé sont sous-optimales quand le risque est convexe,<br />même sous l'hypothèse de marge. Contrairement aux procédures<br />d'agrégation à poids exponentiels, ces méthodes n'arrivent pas à<br />profiter de la marge du modèle. Nous avons ensuite appliqué les<br />méthodes d'agrégation à la résolution de quelques problèmes<br />d'adaptation. Une dernière contribution apportée dans cette thèse a<br />été de proposer une approche du contrôle du biais en classification<br />par l'introduction d'espaces de règles de prédiction parcimonieuses.<br />Des vitesses minimax ont été obtenues pour ces modèles et une<br />méthode d'agrégation a donné une version adaptative de ces<br />procédures d'estimation.
|
59 |
Approches statistiques en apprentissage : boosting et rankingVayatis, Nicolas 09 December 2006 (has links) (PDF)
Depuis une dizaine d'années, la théorie statistique de l'apprentissage a connu une forte expansion. L'avènement d'algorithmes hautement performants pour la classification de données en grande dimension, tels que le boosting ou les machines à noyaux (SVM) a engendré de nombreuses questions statistiques que la théorie de Vapnik-Chervonenkis (VC) ne permettait pas de résoudre. En effet, le principe de Minimisation du Risque Empirique ne rend pas compte des méthodes d'apprentissage concrètes et le concept de complexité combinatoire de VC dimension ne permet pas d'expliquer les capacités de généralisation d'algorithmes<br />sélectionnant un estimateur au sein d'une classe massive telle que l'enveloppe convexe d'une classe de VC. Dans le premier volet du mémoire, on rappelle les interprétations des algorithmes de boosting comme des implémentations de principes de minimisation<br />de risques convexes et on étudie leurs propriétés sous cet angle. En particulier, on montre l'importance de la<br />régularisation pour obtenir des stratégies consistantes. On développe également une nouvelle classe d'algorithmes de type gradient stochastique appelés algorithmes de descente miroir avec moyennisation et on évalue leur comportement à travers des simulations informatiques. Après avoir présenté les principes fondamentaux du boosting, on s'attache dans le<br />deuxième volet à des questions plus avancées telles que<br />l'élaboration d'inégalités d'oracle. Ainsi, on étudie la<br />calibration précise des pénalités en fonction des critères<br />de coût utilisés. On présente des résultats<br />non-asymptotiques sur la performance des estimateurs du boosting pénalisés, notamment les vitesses rapides sous les conditions de marge de type Mammen-Tsybakov et on décrit les capacités d'approximation du boosting utilisant les "rampes" (stumps) de décision. Le troisième volet du mémoire explore le problème du ranking. Un enjeu important dans des applications<br />telles que la fouille de documents ou le "credit scoring" est d'ordonner les instances plutôt que de les catégoriser. On propose une formulation simple de ce problème qui permet d'interpréter le ranking comme une classification sur des paires d'observations. La différence dans ce cas vient du fait que les<br />critères empiriques sont des U-statistiques et on développe donc la théorie de la classification adaptée à ce contexte. On explore également la question de la généralisation de l'erreur de ranking afin de pouvoir inclure des a priori sur l'ordre des instances, comme dans le cas où on ne s'intéresse qu'aux "meilleures" instances.
|
60 |
Amélioration de l'agrément de conduite via le pilotage du groupe motopropulseurTran, Van Nhu 07 June 2013 (has links) (PDF)
La transmission à double embrayage a été introduite dans les véhicules afin d'améliorer le confort de conduit, l'économie de conduite et de diminuer le temps de changement de vitesses. La gestion du double embrayage joue un rôle important sur le confort de conduite. L'objectif principal de ce travail concerne alors la synthèse des lois de commande du double embrayage en phase de décollage et lors du changement de vitesses. Le mémoire est structuré de la façon suivante : le premier chapitre propose un état de l'art sur le groupe motopropulseur, la modélisation et la commande du groupe motopropulseur. Le second chapitre s'intéresse à la modélisation du groupe motopropulseur à double embrayage : dans une première partie, un modèle complet à simuler est développé, puis la deuxième partie propose une simplification de modèle en vue de la commande. Le troisième chapitre aborde les lois de commande du double embrayage en utilisant la technique de commande par mode glissant pour les systèmes multivariables. Le quatrième chapitre propose l'utilisation des modèles flous du type Takagi-Sugeno pour la synthèse des lois de commande. Dans une première partie, des lois de commande basées sur un modèle Takagi-Sugeno prenant en compte des incertitudes et des perturbations sont établies. Afin d'améliorer la performance de la loi de commande lors du changement de vitesses supérieures, la deuxième partie présente une loi de commande basée sur un modèle de Takagi-Sugeno incertain et perturbé à commutations. Enfin, des résultats de simulation obtenus en considérant le modèle complet développé dans le chapitre 2 sont donnés.
|
Page generated in 0.036 seconds