• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 27
  • 7
  • Tagged with
  • 113
  • 39
  • 30
  • 18
  • 18
  • 17
  • 15
  • 14
  • 13
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Étude mathématique de quelques équations cinétiques collisionnelles

Mouhot, Clément 25 November 2004 (has links) (PDF)
On s'intéresse dans cette thèse à l'étude des solutions des équations de Boltzmann (élastiques et inélastiques) et Landau. Les axes de cette étude sont la régularité des solutions et leur comportement asymptotique, et nous nous attachons systématiquement à quantifier les résultats obtenus. Dans la première partie, d'une part nous considérons les solutions spatialement homogènes de l'équation de Boltzmann, pour lesquelles nous montrons la propagation de la régularité et la décroissance des singularités pour des interactions à courte portée, et la propagation de bornes <br />d'intégrabilité pour des interactions à longue portée. D'autre part, nous quantifions la positivité des solutions spatialement <br />inhomogènes, sous des hypothèses de régularité. Dans la deuxième partie, nous donnons des estimations de trou spectral et de coercivité sur les opérateurs de Boltzmann et Landau linéarisés, puis nous prouvons la convergence exponentielle vers l'équilibre avec taux explicite pour un gaz de sphères dures spatialement homogènes. Dans la troisième partie, nous considérons l'équation de Boltzmann spatialement homogène pour les gaz granulaires, pour laquelle nous construisons des solutions pour des modèles d'inélasticité réalistes (mais fortement non-linéaires) et discutons la possibilité de « gel » en temps fini ou asymptotiquement. Puis nous montrons l'existence de profils auto-similaires et étudions le comportement de la solution pour les grandes vitesses. Dans la quatrième partie, nous utilisons une semi-discrétisation de l'opérateur de Boltzmann pour proposer <br />des schémas numériques rapides basés sur les méthodes spectrales ou les méthodes par discrétisation des vitesses.
102

Imagerie sismique quantitative de la marge convergente d'Equateur-Colombie : Application des mèthodes tomographiques aux données de sismique réflexion multitrace et réfraction-réflexion grand-angle des campagnes SISTEUR et SALIERI

Agudelo, William 08 July 2005 (has links) (PDF)
Mon travail de thèse se propose d'étudier la structure, les propriétés physiques et les processus géodynamiques de la zone de subduction d'Equateur-Colombie grâce à l'adaptation et le développement d'outils d'imagerie sismique (inversion de formes d'ondes 'alias' tomographie en diffraction) et à leur application aux données de sismique marine multitrace (MCS) et grand-angle OBS (WA) acquises en Equateur-Colombie pendant les campagnes SISTEUR et SALIERI. Ces outils m'ont permis de réaliser une imagerie fine et quantitative à trois niveaux : l'imagerie superficielle (~ 0-3 km), l'imagerie à profondeur intermédiaire (~ 3-10 km) et l'imagerie profonde (~ 10-30 km). Dans le domaine superficiel, j'ai effectué une cartographie fine et quantitative des propriétés physiques des sédiments au voisinage du BSR (Bottom Simulating Reflector), interpreté comme la base de stabilité des hydrates de gaz. Sur le profil SIS-40 situé sur la marge sud de la Colombie, j'ai pu identifier la présence de failles qui perturbent localement le BSR. Les résultats présentés sous la forme d' une série de logs adjacents de l'image migrée en profondeur, montrent que certaines régions du BSR sont caractérisées par une augmentation de la vitesse (1470-1650 m/s), indiquant la présence d'une faible quantité d'hydrates de gaz au dessus du BSR; d'autres zones situées immédiatement sous le BSR sont caractérisées par une diminution de la vitesse (~1200 m/s), liée à la présence de gaz libres piégés sous la couche d'hydrate de gaz. A des profondeurs moyennes j'ai étudié la structure du chenal de subduction (profil SIS-72). Le chenal constitue la limite mécanique entre la plaque chevauchante et la plaque plongeante. Il est délimité à son toit par un fort réflecteur interprété comme le décollement interplaque et à sa base par le toit très réflectif de la croûte océanique en subduction. L'imagerie fine et quantitative des propriétés physiques du décollement interplaque permet de mieux comprendre le rôle de la circulation des fluides et des variations lithologiques et physiques, sur le couplage mécanique inter-plaque. En raison de la sensibilité de la méthode de tomographie en diffraction au macro-modèle de vitesse, un code de correction de ce modèle a été implémenté, afin d'obtenir des images tomographiques fiables (i.e. géométrie et amplitudes correctes). Du fait de la bande passante limitée de la source et de la longueur du dispositif d'acquisition limitée à 4.5 km, les images tomographiques ont une résolution spatiale limitée : l'image tomographique présente un déficit des petits et grands nombre d'onde (fréquences spatiales) limitant ainsi l' interprétation géologique des paramètres physiques cartographiés. Un traitement spécifique basé sur la modélisation des traces sismiques a été implémenté. L'image tomographique, traitée comme une série de traces verticales, constitue la donnée observée. L'espace des modèles est constitué par un ensemble de modèles impulsionnels et unidimensionnels de Terre construits aléatoirement. Ces modèles sont dégradés par convolution avec une estimation de l'ondelette source afin de fournir une représentation synthétique de l'image tomographique « observée ». La minimisation de la fonction coût entre les traces migrées et les traces synthétiques est effectuée dans le cadre d'une inversion globale par recuit simulé (VFSA= « Very Fast Simulated Annealing »). Le modèle moyen issu de cette procédure fournit un modèle 2D fin de vitesse, fonction de la profondeur et comparable à la limite de la résolution théorique de la source. A l'issue de ce traitement, des perturbations de vitesse positives sont mises en évidence au toit de la croûte, et d'autres négatives accompagnent certains segments du niveau du décollement. Ces dernières sont probablement associées à la présence de fluides. Le domaine plus profond a été étudié à partir des données MCS et WA dans le double but (1) d'améliorer la résolution spatiale des images sismiques du Moho et du contact interplaque en relation avec la zone sismogène, et (2) de détecter la présence d'anomalies crustales de vitesse et d'analyser leur relation avec les zones d'aspérité sismologiques. L'utilisation conjointe des données de sismique MCS et WA a été mise en oeuvre pour prolonger vers le bas les images de sismique verticale et tenter ainsi d'établir une relation entre les processus profonds et les manifestations en surface. L'application de la chaîne de traitement au profil SIS-44 a permis d'obtenir un modèle de vitesse bien contraint jusqu'à 25 km de profondeur. Ce modèle met en évidence des réflecteurs profonds (Moho et contact interplaque ) et des réflecteurs plus superficiels (splay fault), dont l'interprétation était initialement incertaine sur les images migrées en temps.
103

Recherche de compagnons de faible masse par Optique Adaptative

Montagnier, Guillaume 18 December 2008 (has links) (PDF)
Au cours de cette dernière décennie, le domaine de la recherche et l'étude de compagnons froids autour des étoiles du voisinage solaire s'est beaucoup accéléré. L'étude des compagnons stellaires de faible masse et des compagnons naines brunes apportent d'importantes contraintes sur la compréhension de la formation stellaire. L'étude des systèmes planétaires, quant à elle, permet de comprendre la formation de notre propre système solaire. Jusqu'à présent, la technique des vitesses radiales a permis de découvrir la plupart des nouveaux systèmes. Il s'agit d'une méthode indirecte qui ne permet pas l'analyse des photons du compagnon froid. La prochaine étape consiste à analyser directement les photons de compagnons. Pour ce faire, de nombreux projets d'instruments imageurs à haut contraste ont vu le jour récemment. Cette thèse s'inscrit dans la préparation scientifique et le développement de l'un de ces projets: l'instrument SPHERE qui sera installé au Very Large Telescope au Chili en 2012. Dans une première partie, je présente les questions astrophysiques qui motivent la recherche de compagnons d'étoiles ainsi que les deux techniques observationnelles que j'ai utilisé au cours de ma thèse: l'imagerie à haut contraste et la technique des vitesses radiales. Un état des lieux de la recherche des compagnons planétaires, naines brunes et stellaires est également fait. Dans la deuxième partie, je développe les techniques observationnelles ainsi que l'analyse de donnés utilisées. La troisième partie présente une étude sur le désert des naines brunes autour d'étoiles de type solaires sélectionnées dans un échantillon d'étoiles à dérives en vitesses radiales. La quatrième partie développe un travail observationnel qui consiste à essayer de détecter les compagnons planétaires ou naines brunes autour de naines rouges. La dernière partie est consacrée à la présentation de l'instrument SPHERE et à ma contribution personnelle à l'étude de cet instrument.
104

Astérosismologie des étoiles de type solaire, avec ou sans planètes, abondance des éléments et phénomènes de transport

Escobar, María Eliana 26 September 2013 (has links) (PDF)
Depuis plusieurs décennies, les observations des oscillations stellaires et la recherche d'exoplanètes se sont développées en parallèle, en utilisant les mêmes méthodes et les mêmes instruments : la méthode de vitesse radiale, à partir d'instruments au sol comme SOPHIE à l'OHP ou HARPS au Chili, et la méthode photométrique, à partir d'instruments spatiaux, comme CoRoT et Kepler. L'intérêt d'étudier les oscillations des étoiles centrales de systèmes planétaires est apparu dès le début de ces observations. La caractérisation des planètes nécessite une très bonne connaissance de l'étoile centrale et particulièrement de ses paramètres globaux comme la masse, le rayon, la température. L'étude de la différence entre les étoiles possédant des planètes et celles qui n'en ont pas, peut apporter des informations précieuses pour mieux comprendre la formation des systèmes planétaires. Dans cette thèse, nous avons choisi d'étudier précisément trois étoiles centrales de systèmes planétaires de type solaire : (i) HD 52265, la seule étoile cible principale de CoRoT, observée pendant plusieurs mois consécutifs avec une précision inégalée; (ii) 94 Cet, une étoile centrale de système planétaire dont les paramètres spectroscopiques ressemblent à ceux de  Virginis, étoile sans planète détectée, elle-même bien étudiée par ailleurs. 94 Cet a été observée avec le spectromètre HARPS à La Silla, Chili; (iii) 51 Pegasi, étoile "mythique", hôte de la première exoplanète observée en 1995 par Michel Mayor et Didier Queloz. Cette étoile a été observée avec le spectromètre SOPHIE à l'Observatoire d'Haute Provence. Dans tous les cas, nous avons comparé les fréquences observées et leurs combinaisons, avec celles calculées pour des modèles obtenus avec le Toulouse-Geneva Evolution Code. Les fréquences ont été calculées avec le code PULSE, de Montréal. Divers aspects physiques ont été testés, en particulier la diffusion atomique incluant les forces radiatives sur les éléments lourds. Nous avons obtenu des résultats intéressants pour ces trois étoiles, pour lesquelles les approches sont différentes. Dans les trois cas nous déduisons les paramètres extérieurs et des informations sur la structure. Ce travail comprend à la fois un aspect observationnel et de modélisation. C'est donc une approche assez complète de l'astérosismologie et de ses techniques.
105

Analyse cinématique de l'hydrogène ionisé et étude du gaz ionisé diffus de trois galaxies du Groupe Sculpteur : NGC253, NGC300 et NGC247

Hlavacek-Larrondo, Julie January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
106

Etude des effets Sunyaev-Zel'dovitch cinétique et relativiste dans les données Planck.

Puisieux, Sarah 27 September 2013 (has links) (PDF)
Les effets Sunyaev-Zel'dovitch (SZ) correspondent à la diffusion inverse-Compton des photons du fond diffus cosmologique sur le gaz des amas de galaxies. Ce travail a visé à étudier l'ensemble des aspects des effets SZ cinétique et relativiste dans les données Planck. Pour ce faire, nous avons développé des filtres adaptés, conçus spécialement pour la détection des effets SZ. Ces filtres nous ont permis d'utiliser l'ensemble des longueurs d'onde de l'expérience de façon optimale. L'effet SZ cinétique est proportionnel à la vitesse radiale particulière des amas de galaxies. Nous avons donc pu étudier, grâce à cet effet SZ, les vitesses radiales particulières via des analyses individuelles, mais aussi statistiques. En particulier, il nous a permis d'effectuer les premières mesures de la vitesse moyenne des amas. Cette vitesse moyenne s'est avérée compatible avec zéro et constitue une vérification du principe cosmologique. Par ailleurs, nous avons étudié le dipôle des amas de galaxies, exclu les modèles inhomogènes d'Univers à un grand niveau de confiance et établi des limites supérieures sur la variance des vitesses des amas. L'effet SZ cinétique est aussi exploré au travers du moment moyen des paires de halos de galaxies. Les résultats obtenus ont montré une détection significative. Enfin, nous avons étudié l'effet SZ relativiste via sa dépendance à la température des amas. Nous avons montré en particulier son impact sur l'estimation de l'effet SZ cinétique.
107

From Spitzer Mid-InfraRed Observations and Measurements of Peculiar Velocities to Constrained Simulations of the Local Universe / Des observations mi-InfraRouges du Télescope Spitzer et des mesures de vitesses particulières aux simulations contraintes de l'univers local

Sorce, Jenny 12 June 2014 (has links)
Les galaxies sont des sondes observationnelles pour l'étude des structures de l'Univers. Leur mouvement gravitationnel permet de tracer la densité totale de matière. Par ailleurs, l'étude de la formation des structures et galaxies s'appuie sur les simulations numériques cosmologiques. Cependant, un seul univers observable à partir d'une position donnée, en temps et espace, est disponible pour comparaison avec les simulations. La variance cosmique associée affecte notre capacité à interpréter les résultats. Les simulations contraintes par les données observationnelles constituent une solution optimale au problème. Réaliser de telles simulations requiert les projets Cosmicflows et CLUES. Cosmicflows construits des catalogues de mesures de distances précises afin d'obtenir les déviations de l'expansion. Ces mesures sont principalement obtenues avec la corrélation entre la luminosité des galaxies et la vitesse de rotation de leur gaz. La calibration de cette relation est présentée dans le mi-infrarouge avec les observations du télescope spatial Spitzer. Les estimations de distances résultantes seront intégrées au troisième catalogue de données du projet. En attendant, deux catalogues de mesures atteignant 30 et 150 h−1 Mpc ont été publiés. Les améliorations et applications de la méthode du projet CLUES sur les deux catalogues sont présentées. La technique est basée sur l'algorithme de réalisation contrainte. L'approximation de Zel'dovich permet de calculer le champ de déplacement cosmique. Son inversion repositionne les contraintes tridimensionnelles reconstruites à l'emplacement de leur précurseur dans le champ initial. La taille inégalée, 8000 galaxies jusqu'`a une distance de 150 h−1 Mpc, du second catalogue a mis en évidence l'importance de minimiser les biais observationnels. En réalisant des tests sur des catalogues de similis, issus des simulations cosmologiques, une méthode de minimisation des biais peut être dérivée. Finalement, pour la première fois, des simulations cosmologiques sont contraintes uniquement par des vitesses particulières de galaxies. Le procédé est une réussite car les simulations obtenues ressemblent à l'Univers Local. Les principaux attracteurs et vides sont simulés à des positions approchant de quelques mégaparsecs les positions observationnelles, atteignant ainsi la limite fixée par la théorie linéaire / Galaxies are observational probes to study the Large Scale Structure. Their gravitational motions are tracers of the total matter density and therefore of the Large Scale Structure. Besides, studies of structure formation and galaxy evolution rely on numerical cosmological simulations. Still, only one universe observable from a given position, in time and space, is available for comparisons with simulations. The related cosmic variance affects our ability to interpret the results. Simulations constrained by observational data are a perfect remedy to this problem. Achieving such simulations requires the projects Cosmicflows and CLUES. Cosmicflows builds catalogs of accurate distance measurements to map deviations from the expansion. These measures are mainly obtained with the galaxy luminosity-rotation rate correlation. We present the calibration of that relation in the mid-infrared with observational data from Spitzer Space Telescope. Resulting accurate distance estimates will be included in the third catalog of the project. In the meantime, two catalogs up to 30 and 150 h−1 Mpc have been released. We report improvements and applications of the CLUES’ method on these two catalogs. The technique is based on the constrained realization algorithm. The cosmic displacement field is computed with the Zel’dovich approximation. This latter is then reversed to relocate reconstructed three-dimensional constraints to their precursors’ positions in the initial field. The size of the second catalog (8000 galaxies within 150 h−1 Mpc) highlighted the importance of minimizing the observational biases. By carrying out tests on mock catalogs, built from cosmological simulations, a method to minimize observational bias can be derived. Finally, for the first time, cosmological simulations are constrained solely by peculiar velocities. The process is successful as resulting simulations resemble the Local Universe. The major attractors and voids are simulated at positions approaching observational positions by a few megaparsecs, thus reaching the limit imposed by the linear theory / Die Verteilung der Galaxien liefert wertvolle Erkenntnisse über die großräumigen Strukturen im Universum. Ihre durch Gravitation verursachte Bewegung ist ein direkter Tracer für die Dichteverteilung der gesamten Materie. Die Strukturentstehung und die Entwicklung von Galaxien wird mithilfe von numerischen Simulationen untersucht. Es gibt jedoch nur ein einziges beobachtbares Universum, welches mit der Theorie und den Ergebnissen unterschiedlicher Simulationen verglichen werden muß. Die kosmische Varianz erschwert es, das lokale Universum mit Simulationen zu reproduzieren. Simulationen, deren Anfangsbedingungen durch Beobachtungsdaten eingegrenzt sind (“Constrained Simulations”) stellen eine geeignete Lösung dieses Problems dar. Die Durchführung solcher Simulationen ist das Ziel der Projekte Cosmicflows und CLUES. Im Cosmicflows-Projekt werden genaue Entfernungsmessungen von Galaxien erstellt, welche die Abweichung von der allgemeinen Hubble- Expansion abbilden. Diese Messungen werden hauptsächlich aus der Korrelation zwischen Leuchtkraft und Rotationsgeschwindigkeit von Spiralgalaxien gewonnen. In dieser Arbeit wird die Kalibrierung dieser Beziehung im mittleren Infrarot mithilfe von Daten vom Spitzer Space Telescope vorgestellt. Diese neuen Entfernungsbestimmungen werden im dritten Katalog des Cosmicflows Projekts enthalten sein. Bisher wurden zwei Kataloge veröffentlicht, mit Entfernungen bis zu 30 beziehungsweise 150 h−1 Mpc. In dieser Arbeit wird die CLUESMethode auf diese zwei Kataloge angewendet und Verbesserungen warden vorgestellt und diskutiert. Zunächst wird das kosmische Verschiebungsfeld mithilfe der Zeldovich-Näherung bestimmt. In umgekehrter Richtung kann man damit die aus heutigen Beobachtungsdaten rekonstruierten dreidimensionalen Constraints an ihren Ursprungsort im frühen Universum zurückzuversetzen. Durch den großen Datenumfang des cosmicflows-2 Katalogs (8000 Galaxien bis zu einer Entfernung von 150 h−1 Mpc) ist es besonders wichtig, den Einfluss verschiedener Beobachtungsfehler zu minimieren. Eine für das lokale Universum angepasste Korrekturmethode lässt sich durch die Untersuchung von Mock-Katalogen finden, welche aus kosmologischen Simulationen gewonnen werden. Schließlich stellt diese Arbeit erstmals kosmologische Simulationen vor, die ausschließlich durch Pekuliargeschwindigkeiten eingegrenzt sind. Der Erfolg dieser Methode wird dadurch bestätigt, dass die dadurch erzeugten Simulationen dem beobachteten lokalen Universum sehr ähnlich sind. Die relevanten Attraktoren und Voids liegen in den Simulationen an Positionen, welche bis auf wenige Megaparsec mit den beobachteten Positionen übereinstimmen. Die Simulationen erreichen damit die durch die lineare Theorie gegebene Genauigkeitsgrenze
108

Prédiction de suites individuelles et cadre statistique classique : étude de quelques liens autour de la régression parcimonieuse et des techniques d'agrégation / Prediction of individual sequences and prediction in the statistical framework : some links around sparse regression and aggregation techniques

Gerchinovitz, Sébastien 12 December 2011 (has links)
Cette thèse s'inscrit dans le domaine de l'apprentissage statistique. Le cadre principal est celui de la prévision de suites déterministes arbitraires (ou suites individuelles), qui recouvre des problèmes d'apprentissage séquentiel où l'on ne peut ou ne veut pas faire d'hypothèses de stochasticité sur la suite des données à prévoir. Cela conduit à des méthodes très robustes. Dans ces travaux, on étudie quelques liens étroits entre la théorie de la prévision de suites individuelles et le cadre statistique classique, notamment le modèle de régression avec design aléatoire ou fixe, où les données sont modélisées de façon stochastique. Les apports entre ces deux cadres sont mutuels : certaines méthodes statistiques peuvent être adaptées au cadre séquentiel pour bénéficier de garanties déterministes ; réciproquement, des techniques de suites individuelles permettent de calibrer automatiquement des méthodes statistiques pour obtenir des bornes adaptatives en la variance du bruit. On étudie de tels liens sur plusieurs problèmes voisins : la régression linéaire séquentielle parcimonieuse en grande dimension (avec application au cadre stochastique), la régression linéaire séquentielle sur des boules L1, et l'agrégation de modèles non linéaires dans un cadre de sélection de modèles (régression avec design fixe). Enfin, des techniques stochastiques sont utilisées et développées pour déterminer les vitesses minimax de divers critères de performance séquentielle (regrets interne et swap notamment) en environnement déterministe ou stochastique. / The topics addressed in this thesis lie in statistical machine learning. Our main framework is the prediction of arbitrary deterministic sequences (or individual sequences). It includes online learning tasks for which we cannot make any stochasticity assumption on the data to be predicted, which requires robust methods. In this work, we analyze several connections between the theory of individual sequences and the classical statistical setting, e.g., the regression model with fixed or random design, where stochastic assumptions are made. These two frameworks benefit from one another: some statistical methods can be adapted to the online learning setting to satisfy deterministic performance guarantees. Conversely, some individual-sequence techniques are useful to tune the parameters of a statistical method and to get risk bounds that are adaptive to the unknown variance. We study such connections for several connected problems: high-dimensional online linear regression under a sparsity scenario (with an application to the stochastic setting), online linear regression on L1-balls, and aggregation of nonlinear models in a model selection framework (regression on a fixed design). We also use and develop stochastic techniques to compute the minimax rates of game-theoretic online measures of performance (e.g., internal and swap regrets) in a deterministic or stochastic environment.
109

Estimation non-paramétrique adaptative pour des modèles bruités / Nonparametric adaptive estimation in measurement error models

Mabon, Gwennaëlle 26 May 2016 (has links)
Dans cette thèse, nous nous intéressons au problème d'estimation de densité dans le modèle de convolution. Ce cadre correspond aux modèles avec erreurs de mesures additives, c'est-à-dire que nous observons une version bruitée de la variable d'intérêt. Pour mener notre étude, nous adoptons le point de vue de l'estimation non-paramétrique adaptative qui repose sur des procédures de sélection de modèle développées par Birgé & Massart ou sur les méthodes de Lepski. Cette thèse se divise en deux parties. La première développe des méthodes spécifiques d'estimation adaptative quand les variables d'intérêt et les erreurs sont des variables aléatoires positives. Ainsi nous proposons des estimateurs adaptatifs de la densité ou encore de la fonction de survie dans ce modèle, puis de fonctionnelles linéaires de la densité cible. Enfin nous suggérons une procédure d'agrégation linéaire. La deuxième partie traite de l'estimation adaptative de densité dans le modèle de convolution lorsque la loi des erreurs est inconnue. Dans ce cadre il est supposé qu'un échantillon préliminaire du bruit est disponible ou que les observations sont disponibles sous forme de données répétées. Les résultats obtenus pour des données répétées dans le modèle de convolution permettent d'élargir cette méthodologie au cadre des modèles linéaires mixtes. Enfin cette méthode est encore appliquée à l'estimation de la densité de somme de variables aléatoires observées avec du bruit. / In this thesis, we are interested in nonparametric adaptive estimation problems of density in the convolution model. This framework matches additive measurement error models, which means we observe a noisy version of the random variable of interest. To carry out our study, we follow the paradigm of model selection developped by Birgé & Massart or criterion based on Lepski's method. The thesis is divided into two parts. In the first one, the main goal is to build adaptive estimators in the convolution model when both random variables of interest and errors are distributed on the nonnegative real line. Thus we propose adaptive estimators of the density along with the survival function, then of linear functionals of the target density. This part ends with a linear density aggregation procedure. The second part of the thesis deals with adaptive estimation of density in the convolution model when the distribution is unknown and distributed on the real line. To make this problem identifiable, we assume we have at hand either a preliminary sample of the noise or we observe repeated data. So, we can derive adaptive estimation with mild assumptions on the noise distribution. This methodology is then applied to linear mixed models and to the problem of density estimation of the sum of random variables when the latter are observed with an additive noise.
110

Amélioration de l'agrément de conduite via le pilotage du groupe motopropulseur / Vehicle driveability improvement by the powertrain control

Tran, Van Nhu 07 June 2013 (has links)
La transmission à double embrayage a été introduite dans les véhicules afin d'améliorer le confort de conduit, l'économie de conduite et de diminuer le temps de changement de vitesses. La gestion du double embrayage joue un rôle important sur le confort de conduite. L'objectif principal de ce travail concerne alors la synthèse des lois de commande du double embrayage en phase de décollage et lors du changement de vitesses. Le mémoire est structuré de la façon suivante : le premier chapitre propose un état de l'art sur le groupe motopropulseur, la modélisation et la commande du groupe motopropulseur. Le second chapitre s'intéresse à la modélisation du groupe motopropulseur à double embrayage : dans une première partie, un modèle complet à simuler est développé, puis la deuxième partie propose une simplification de modèle en vue de la commande. Le troisième chapitre aborde les lois de commande du double embrayage en utilisant la technique de commande par mode glissant pour les systèmes multivariables. Le quatrième chapitre propose l'utilisation des modèles flous du type Takagi-Sugeno pour la synthèse des lois de commande. Dans une première partie, des lois de commande basées sur un modèle Takagi-Sugeno prenant en compte des incertitudes et des perturbations sont établies. Afin d'améliorer la performance de la loi de commande lors du changement de vitesses supérieures, la deuxième partie présente une loi de commande basée sur un modèle de Takagi-Sugeno incertain et perturbé à commutations. Enfin, des résultats de simulation obtenus en considérant le modèle complet développé dans le chapitre 2 sont donnés. / Dual clutch transmission systems were introduced in vehicles to upgrade the driving comfort, the energy economy, and to minimize the shift time. Dual clutch management is a key point when considering driving comfort, particularly during the gearshift. Thus, the main objective of this work is the synthesis of control laws for dual clutch transmission during launch and gearshift. The first chapter presents an overview about vehicle powertrain, modeling and control. The second chapter focuses on modeling the dual clutch transmission. In a first part a complete model for simulation is developed, and in a second part, the model is simplified for the laws control design. The third chapter proposes control laws of the dual clutch using sliding mode control approach for a MIMO system. The fourth chapter deals with the application of state feedback control based on Takagi-Sugeno model. The first part proposes control laws taking into account uncertainties and disturbances. In order to improve the performance of the control law during upshifting, the second part proposes a control law based on a switched Takagi-Sugeno fuzzy model in the presence of parametric uncertainties and disturbances. Finally, control laws are tested in simulation on the complete model developed in Chapter 2.

Page generated in 0.0603 seconds