• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 42
  • 5
  • Tagged with
  • 124
  • 66
  • 39
  • 39
  • 30
  • 28
  • 25
  • 19
  • 18
  • 18
  • 17
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Modélisation de la production d'hydrocarbures dans un bassin pétrolier

Michel, Bertrand 25 September 2008 (has links) (PDF)
Cette thèse a pour objet la modélisation de la production pétrolière dans un bassin d'hydrocarbures. Le modèle proposé s'appuie sur une description probabiliste des réserves, de l'exploration des hydrocarbures et de la mise en production des gisements découverts. L'utilisation de la loi de Lévy-Pareto pour décrire les tailles des gisements s'appuie d'une part sur une description probabiliste de la formation des réserves au cours de l'évolution du temps géologique et d'autre part sur les propriétés d'invariance de la distribution de Poisson Dirichlet pour des processus de coalescence et de fragmentation, dans le cadre du modèle de Bolthausen Sznitman. Deux principaux problèmes statistiques, relevant tous les deux d'une problématique de choix de modèle en estimation de densité, sont identifiés. Le premier concerne l'estimation d'un modèle d'exploration pétrolière et le second est une étude de courbes de production qui repose sur une classification non supervisée et une sélection de variables pertinentes effectués via la sélection d'un modèle de mélange Gaussien. Dans les deux cas, un critère de maximum de vraisemblance pénalisé est défini pour obtenir une inégalité de type oracle. Le modèle global de production pétrolière d'un bassin ainsi obtenu permet d'une part de préciser la forme des profils de production de bassin et d'autre part de proposer des scénarios de prolongement de la production de bassin en cours d'exploitation.
52

Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Lafaye De Micheaux, Pierre 16 December 2002 (has links) (PDF)
On construit un test d'ajustement de la normalité pour les innovations d'un modèle ARMA( p,q ) de tendance et moyenne connues, basé sur l'approche du test lisse dépendant des données et simple à appliquer. Une vaste étude de simulation est menée pour étudier ce test pour des tailles échantillonnales modérées. Notre approche est en général plus puissante que les tests existants. Le niveau est tenu sur la majeure partie de l'espace paramétrique. Cela est en accord avec les résultats théoriques montrant la supériorité de l'approche du test lisse dépendant des données dans des contextes similaires. Un test d'indépendance (ou d'indépendance sérielle) semi-paramétrique entre des sous-vecteurs de loi normale est proposé, mais sans supposer la normalité jointe de ces marginales. La statistique de test est une fonctionnelle de type Cramér-von Mises d'un processus défini à partir de la fonction caractéristique empirique. Ce processus est défini de façon similaire à celui de Ghoudi et al. (2001) construit à partir de la fonction de répartition empirique et utilisé pour tester l'indépendance entre des marginales univariées. La statistique de test peut être représentée comme une V-statistique. Il est convergent pour détecter toute forme de dépendance. La convergence faible du processus est établie. La distribution asymptotique des fonctionnelles de Cramér-von Mises est approchée par la méthode de Cornish-Fisher au moyen d'une formule de récurrence pour les cumulants et par le calcul numérique des valeurs propres dans la formule d'inversion. La statistique de test est comparée avec celle de Wilks pour l'hypothèse paramétrique d'indépendance dans le modèle MANOVA à un facteur avec effets aléatoires.
53

Contributions à l'étude des processus gaussiens

Nourdin, Ivan 11 June 2008 (has links) (PDF)
Le chapitre 1 est principalement consacré au comportement asymptotique des variations à poids du mouvement brownien fractionnaire. Tout d'abord, après avoir motivé l'intérêt d'une telle étude et rappelé la situation ``sans poids'', nous voyons que dans certains cas (en fonction de la valeur de l'indice de Hurst H), la situation ``avec poids'' peut être très différente. Ensuite, nous nous intéressons plus particulièrement au cas où H vaut 1/4, et nous faisons le lien avec une conjecture récente par (Burdzy et) Swanson concernant la possibilité d'écrire une formule d'Itô pour la solution de l'équation de la chaleur stochastique dirigée par un bruit blanc espace-temps. Enfin, nous traitons le cas du mouvement brownien itéré, en faisant apparaître à la limite une version à poids du mouvement brownien en scène aléaoire introduit par Kesten et Spitzer dans les années 70.<br /><br />Le chapitre 2 présente des théorèmes limites abstraits (principalement valables pour une suite (F_n) d'intégrales multiples par rapport à un processus gaussien isonormal X) sous des hypothèses concernant la dérivée de Malliavin de F_n. Nous y exposons notamment une nouvelle méthode donnant (de manière étonnament simple) une estimation de type Berry-Esséen quand la suite (F_n) converge en loi vers une gaussienne. En particulier, cette méthode permet d'estimer la vitesse de convergence dans le classique théorème de Breuer et Major. Notons que les outils présentés dans ce chapitre sont la base des résultats obtenus dans le premier chapitre.<br /><br />Le chapitre 3 est consacré à mes travaux relatifs à la théorie de l'intégration contre des ``chemins rugueux'' (rough paths en anglais). Tout d'abord, nous faisons un lien avec l'intégration par régularisation à la Russo-Vallois. Ensuite, nous étudions un problème de contrôle optimal. Enfin, nous exploitons l'intégration algébrique récemment introduite par Gubinelli pour calculer le développement asymptotique de la ``loi'' de la solution d'une équation différentielle stochastique dirigée par un brownien fractionnaire d'une part, et pour étudier les équations différentielles avec retard dirigées par un chemin rugueux d'autre part.<br /><br />Enfin, dans le chapitre 4, nous définissons et étudions un nouvel objet, appelé ``dérivée stochastique''. Puis, nous illustrons certains phénomènes généraux en appliquant cette théorie au cas du mouvement brownien fractionnaire avec dérive.
54

APPROCHES POUR L'ANALYSE DES SIGNAUX A PHASE POLYNOMIALE DANS UN ENVIRONNEMENT NON GAUSSIEN

Djeddi, Mounir 24 May 2005 (has links) (PDF)
Le sujet de la thèse porte sur l'étude des approches d'estimation des Signaux à Phase Polynomiale (SPP) noyés par un bruit non gaussien. Nous considérons deux modèles pour le bruit: le premier modèle est défini par une Somme Pondérée de Gaussiennes et le second par des distributions alpha-stables. Dans un premier temps, nous abordons les méthodes classiques d'analyse des SPP. L'utilisation des statistiques d'ordre fractionnaire permet d'obtenir des algorithmes robustes en présence de bruit impulsif; nous exploitons cette propriété pour proposer une Distribution de Wigner-Ville Polynomiale pour l'analyse des SPP. Cette nouvelle distribution, permet de mieux estimer la fréquence instantanée du SPP bruité. La deuxième partie est consacrée aux méthodes récentes d'analyse spectrale adaptées aux SPP. Nous proposons un algorithme MUSIC robuste obtenu par SVD de la matrice de covariation. Cet algorithme nous permet d'estimer les coefficients de la phase dans un plan temps-coefficient. Dans la troisième partie, une approche pour l'estimation des SPP par filtrage de Kalman est présentée. Cette approche repose sur un modèle d'état non linéaire avec un bruit d'observation non gaussien. Nous présentons trois types de filtres de Kalman robustes au bruit impulsif. Le premier, appelé filtre de Kalman étendu robuste utilise un gain de Kalman dépendant de la fonction de Huber. Aussi, nous proposons d'utiliser deux filtres de Kalman étendus (EKF) opérant en parallèle couplés via le terme d'apparition du bruit impulsif. Enfin, il est possible d'améliorer les performances d'estimation en utilisant un filtre UKF ‘unscented Kalman filter' à la place du filtre EKF.
55

Classification de données multivariées multitypes basée sur des modèles de mélange : application à l'étude d'assemblages d'espèces en écologie

Georgescu, Vera 17 December 2010 (has links) (PDF)
En écologie des populations, les distributions spatiales d'espèces sont étudiées afin d'inférer l'existence de processus sous-jacents, tels que les interactions intra- et interspécifiques et les réponses des espèces à l'hétérogénéité de l'environnement. Nous proposons d'analyser les données spatiales multi-spécifiques sous l'angle des assemblages d'espèces, que nous considérons en termes d'abondances absolues et non de diversité des espèces. Les assemblages d'espèces sont une des signatures des interactions spatiales locales des espèces entre elles et avec leur environnement. L'étude des assemblages d'espèces peut permettre de détecter plusieurs types d'équilibres spatialisés et de les associer à l'effet de variables environnementales. Les assemblages d'espèces sont définis ici par classification non spatiale des observations multivariées d'abondances d'espèces. Les méthodes de classification basées sur les modèles de mélange ont été choisies afin d'avoir une mesure de l'incertitude de la classification et de modéliser un assemblage par une loi de probabilité multivariée. Dans ce cadre, nous proposons : 1. une méthode d'analyse exploratoire de données spatiales multivariées d'abondances d'espèces, qui permet de détecter des assemblages d'espèces par classification, de les cartographier et d'analyser leur structure spatiale. Des lois usuelles, telle que la Gaussienne multivariée, sont utilisées pour modéliser les assemblages, 2. un modèle hiérarchique pour les assemblages d'abondances lorsque les lois usuelles ne suffisent pas. Ce modèle peut facilement s'adapter à des données contenant des variables de types différents, qui sont fréquemment rencontrées en écologie, 3. une méthode de classification de données contenant des variables de types différents basée sur des mélanges de lois à structure hiérarchique (définies en 2.). Deux applications en écologie ont guidé et illustré ce travail : l'étude à petite échelle des assemblages de deux espèces de pucerons sur des feuilles de clémentinier et l'étude à large échelle des assemblages d'une plante hôte, le plantain lancéolé, et de son pathogène, l'oïdium, sur les îles Aland en Finlande
56

Impact des multitrajets sur les performances des systèmes de navigation par satellite : contribution à l'amélioration de la précision de localisation par modélisation bayésienne

Nahimana, Donnay Fleury 19 February 2009 (has links) (PDF)
De nombreuses solutions sont développées pour diminuer l'influence des multitrajets sur la précision et la disponibilité des systèmes GNSS. L'intégration de capteurs supplémentaires dans le système de localisation est l'une des solutions permettant de compenser notamment l'absence de données satellitaires. Un tel système est certes d'une bonne précision mais sa complexité et son coût limitent un usage très répandu.Cette thèse propose une approche algorithmique destinée à améliorer la précision des systèmes GNSS en milieu urbain. L'étude se base sur l'utilisation des signaux GNSS uniquement et une connaissance de l'environnement proche du récepteur à partir d'un modèle 3D du lieu de navigation.La méthode présentée intervient à l'étape de filtrage du signal reçu par le récepteur GNSS. Elle exploite les techniques de filtrage statistique de type Monte Carlo Séquentiels appelées filtre particulaire. L'erreur de position en milieu urbain est liée à l'état de réception des signaux satellitaires (bloqué, direct ou réfléchi). C'est pourquoi une information sur l'environnement du récepteur doit être prise en compte. La thèse propose également un nouveau modèle d'erreurs de pseudodistance qui permet de considérer les conditions de réception du signal dans le calcul de la position.Dans un premier temps, l'état de réception de chaque satellite reçu est supposé connu dans le filtre particulaire. Une chaîne de Markov, valable pour une trajectoire connue du mobile, est préalablement définie pour déduire les états successifs de réception des satellites. Par la suite, on utilise une distribution de Dirichlet pour estimer les états de réception des satellites
57

Lithographie électronique basse énergie : application au multifaisceaux

Rio, David 16 December 2010 (has links) (PDF)
Dans les prochaines années, la lithographie va devoir opérer un changement technologique majeur, afin de soutenir l'amélioration de la résolution requise par les industriels. La lithographie électronique multifaisceaux est une des alternatives à la photolithographie. Elle allie forte résolution et fort débit. MAPPER lithography développe un outil pour cette technologie. Afin de prendre en compte les contraintes liées au fonctionnement multifaisceaux, une énergie d'accélération des électrons faible a été choisie : 5keV contre 50keV pour les outils usuels de lithographie électronique haute résolution. Cette étude a permis de vérifier qu'une telle stratégie modifie un paramètre clef de la lithographie électronique : la dose d'exposition. Or la dose d'exposition impacte directement différents paramètres : résolution, rugosité des motifs, temps d'exposition, etc. Par ailleurs, il a été démontré qu'un bruit inhérent à la lithographie électronique, lié à la réflexion des électrons par le substrat, est significativement modifié par l'énergie du faisceau. Une compréhension du mécanisme de dépôt d'énergie dans la résine est proposée. Elle permet d'interpréter ces résultats expérimentaux. Enfin, une discussion éclairée sur l'impact de l'énergie du faisceau sur la lithographie a permis de déterminer des paramètres expérimentaux mieux adaptés à l'exposition basse énergie et à l'outil MAPPER en particulier.
58

Débruitage d'images au-delà du bruit additif gaussien Estimateurs à patchs et leur application à l'imagerie SAR

Deledalle, Charles-Alban 15 November 2011 (has links) (PDF)
Le bruit dans les images limite souvent l'interprétation visuelle ou automatique de la scène. Le chatoiement ou "speckle" en imagerie radar à synthèse d'ouverture (RSO) et le bruit de grenaille ou "shot noise" en imagerie à faible luminosité sont deux exemples de fortes corruptions qui nécessitent l'utilisation de techniques de débruitage. Les vignettes ou "patchs" sont de petites imagettes qui capturent à la fois les textures et les structures locales. Bien qu'étant assez rudimentaires (comparées à des descripteurs de plus haut niveau), elles ont mené à de puissantes approches de traitement d'images tirant parti de la redondance naturelle des images. Les méthodes à patchs représentent l'état-de-l'art des méthodes de débruitage. La technique classique de débruitage à patchs, les moyennes non-locales (NL), est conçue pour les images corrompues par du bruit additif gaussien (c-à-d., pour des fluctuations symétriques, indépendantes du signal et sans valeurs extrêmes). Les moyennes NL ne peuvent pas être appliquées directement sur des images corrompues par un bruit non-gaussien surtout pour des distributions asymétriques, dépendantes du signal et à queues lourdes telles que le bruit de chatoiement et le bruit de grenaille. Le but de cette thèse est de combler le fossé entre les méthodes de débruitage à patchs, restreintes au bruit gaussien, et les techniques dédiées aux images RSO. Après avoir examiné les techniques de débruitage d'image pour le bruit gaussien puis non-gaussien, nous proposons une extension des moyennes NL qui s'adapte à la distribution d'un bruit donné. Au-delà du problème du débruitage d'image, nous étudions le problème de la comparaison de patchs sous conditions non-gaussiennes. La plupart des tâches de vision par ordinateur requièrent de mettre en correspondance des parties d'images. Nous introduisons un critère de similarité fondé sur le rapport de vraisemblance généralisé et nous illustrons son efficacité sur différentes applications dont la détection, la vision stéréoscopique et le suivi de mouvement. Ce critère est au coeur de l'estimateur à patchs proposé. Un schéma itératif est élaboré pour faire face aux fortes corruptions de bruit et nous développons une méthode non-supervisée pour le réglage des paramètres. Notre approche mène à des résultats de débruitage état-de-l'art en imagerie RSO pour les images d'amplitude, ainsi que les données interférométriques ou polarimétriques. La technique proposée est appliquée avec succès sur l'un des derniers capteurs aérien RSO: F-SAR de l'agence aérospatiale allemande (DLR). Les images avec de forts contrastes souffrent d'un artéfact de débruitage de type "halo de bruit" dû à l'absence de patchs similaires dans les environs de certaines structures. Ce bruit résiduel peut être réduit en considérant des patchs avec des formes d'échelle et d'orientation variées. La sélection locale des formes pertinentes permet d'améliorer la qualité du débruitage, surtout à proximité des contours.
59

Dissection Automatique In Vivo des Structures de la Matière Blanche à partir de l'imagerie par Résonance Magnétique de Diffusion

Wassermann, Demian 02 April 2010 (has links) (PDF)
La motivation de cette thèse est la dissection in vivo de la MB. Cette procédure permet d'isoler les faisceaux de la MB, qui jouent un rôle particulier dans le fonctionnement du cerveau, de façon à pouvoir les analyser. L'exécution manuelle de cette tache requiert une grande connaissance du cerveau et demande plusieurs heures de travail. Le développement d'une technique automatique est donc de la plus grande importance. Le cerveau est organisé tel un réseau reliant différentes régions. Ce réseau est important pour le développement de fonctions comme le langage. Certains troubles cognitifs peuvent être expliqués par des problèmes de connexion entres régions plutôt qu'à un dommage de ces dernières. Malgré plusieurs décennies de travail sur ces réseaux, nos connaissances sur le sujet n'ont pas beaucoup évoluées depuis le début du siècle dernier. Récemment, un développement spectaculaire des techniques de l'imagerie à résonance magnétique (IRM) à permis l'étude vivant du cerveau humain. Une technique permettant l'exploration les faisceaux de la matière blanche (MB) in vivo est l'IRM de diffusion (IRMd). En particulier, la trajectographie à partir de l'IRMd facilite le traçage des faisceaux de la MB. C'est donc une technique prometteuse afin d'explorer l'aspect cognitif de l'anatomie humaine ainsi que de ses troubles. Cette thèse contient plusieurs contributions : Nous développons des moyens d'automatiser la dissection de la MB, c'est a dire le cadre mathématique nécessaire à sa compréhension. Ces outils nous permettent ensuite de développer des techniques d'analyse de la moelle épinière et de recherche de différences dans la MB entre des individus sains et schizophrènes.
60

Modélisation et détection de ruptures des signaux physiologiques issus de compétitions d'endurance

Kammoun, Imen 19 December 2007 (has links) (PDF)
Ce travail de thèse porte sur la modélisation et l'estimation de paramètres pertinents pour les signaux de fréquences cardiaques (FC) instantanées. Nous nous intéressons à un paramètre (appelé grossièrement "fractal"), qui témoigne de la régularité locale de la trajectoire et de la dépendance entre les données. Les propriétés asymptotiques de la fonction DFA (Detrended Fluctuation Analysis) et de l'estimateur de H sont étudiées pour le bruit gaussien fractionnaire (FGN) et plus généralement pour une classe semi-paramétrique de processus stationnaires à longue mémoire avec ou sans tendance. On montre que cette méthode n'est pas robuste. On propose la modélisation des séries de FC par une généralisation du FGN, appelée bruit gaussien localement fractionnaire. Un tel processus stationnaire est construit à partir du paramètre dit de fractalité locale (une sorte de paramètre de Hurst avec des valeurs dans IR) sur une bande de fréquences. L'estimation du paramètre est faite par une analyse par ondelettes, tout comme le test d'adéquation. On montre la pertinence du modèle et une évolution du paramètre pendant la course. Une détection des changements de ce paramètre pourrait être extrêmement appropriée. On propose alors une méthode de détection de multiples ruptures du paramètre de longue mémoire (respectivement d'autosimilarité, de fractalité locale). Un estimateur des points de changements est construit, il vérifie un théorème limite. Un théorème de la limite centrale est établi pour l'estimateur des paramètres et un test d'ajustement est mis en place dans chaque zone où le paramètre est inchangé. Enfin, on montre la même évolution du paramètre de fractalité locale sur les FC.

Page generated in 0.0502 seconds