• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 354
  • 141
  • 35
  • 3
  • 1
  • Tagged with
  • 515
  • 187
  • 142
  • 103
  • 84
  • 80
  • 67
  • 66
  • 63
  • 63
  • 63
  • 62
  • 58
  • 57
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
451

Analyse de survie bivariée à facteurs latents : théorie et applications à la mortalité et à la dépendance / Bivariate Survival Analysis with Latent Factors : Theory and Applications to Mortality and Long-Term Care

Lu, Yang 24 June 2015 (has links)
Cette thèse étudie quelques problèmes d’identification et d’estimation dans les modèles de survie bivariée, avec présence d’hétérogénéité individuelle et des facteurs communs stochastiques.Chapitre I introduit le cadre général.Chapitre II propose un modèle pour la mortalité des deux époux dans un couple. Il permet de distinguer deux types de dépendance : l’effet de deuil et l’effet lié au facteur de risque commun des deux époux. Une analyse de leurs effets respectifs sur les primes d’assurance écrites sur deux têtes est proposée.Chapitre III montre que, sous certaines hypothèses raisonnables, on peut identifier l’évolution jointe du risque d’entrer en dépendance et du risque de mortalité, à partir des données de mortalité par cohortes. Une application à la population française est proposée.Chapitre IV étudie la queue de distribution dans les modèles de survie bivariée. Sous certaines hypothèses, la loi jointe des deux durées résiduelles converge, après une normalisation adéquate. Cela peut être utilisé pour analyser le risque parmi les survivants aux âges élevés. Parallèlement, la distribution d’hétérogénéité parmi les survivants converge vers une distribution semi-paramétrique. / This thesis comprises three essays on identification and estimation problems in bivariate survival models with individual and common frailties.The first essay proposes a model to capture the mortality dependence of the two spouses in a couple. It allows to disentangle two types of dependencies : the broken heart syndrome and the dependence induced by common risk factors. An analysis of their respective effects on joint insurance premia is also proposed.The second essay shows that, under reasonable model specifications that take into account the longevity effect, we can identify the joint distribution of the long-term care and mortality risks from the observation of cohort mortality data only. A numerical application to the French population data is proposed.The third essay conducts an analysis of the tail of the joint distribution for general bivariate survival models with proportional frailty. We show that under appropriate assumptions, the distribution of the joint residual lifetimes converges to a limit distribution, upon normalization. This can be used to analyze the mortality and long-term care risks at advanced ages. In parallel, the heterogeneity distribution among survivors converges also to a semi-parametric limit distribution. Properties of the limit distributions, their identifiability from the data, as well as their implications are discussed.
452

Fluage à haute température d’un superalliage monocristallin : expérimentation in situ en rayonnement synchrotron / High temperature creep deformation of nickel-based superalloys : in situ high energy X- Rays Diffraction experiments

Dirand, Laura 10 November 2011 (has links)
Les superalliages monocristallins à base de nickel sont utilisés en aéronautique pour les aubes de turbines. Cette étude est consacrée à la modélisation du comportement en fluage du superalliage monocristallin AM1 après mise en radeaux, au cours d’essais isothermes à contrainte variable. Des diffractogrammes (200) ont été obtenus in situ par diffractométrie trois axes en rayonnement synchrotron, à haute température (950-1150°C) pour des paliers de contrainte entre 0 et 300MPa. Pour chaque phase, les déformations élastiques se déduisent de la position des pics et les contraintes, déformations plastiques et vitesses de déformation sont obtenues par la mesure du désaccord paramétrique, en utilisant un modèle composite en série. Ces résultats sont combinés à une caractérisation post mortem en microscopie électronique : morphologie des phases, densité et nature des dislocations. La mesure in situ du désaccord paramétrique donne accès à la densité instantanée de dislocations aux interfaces y/y’. Dans la phase ylors d’incréments de la contrainte appliquée, la contrainte de Von Mises augmente, puis se relaxe jusqu’à une contrainte seuil. Cette contrainte est en accord avec la contrainte d’Orowan et les largeurs des couloirs mesurées post mortem. La déformation plastique de la phase y’ est produite par montée de dislocations de vecteur de Burgers perpendiculaire à l’axe de traction sous l’action de la seule contrainte transverse et contrôlée par l’entrée de dislocations depuis les interfaces. Une simulation des pics de diffraction permet de reproduire l’évolution de leur largeur en fonction de la nature et de la répartition des dislocations aux interfaces et dans la phase y' / Nickel-based superalloys are used in aeronautics for turbine blades. This study aims at modelling the creep behaviour of single-crystalline AM1 superalloy with a rafted γ/γ’ microstructure during isothermal tests under variable applied stresses. (200) diffraction profiles are obtained with a triple crystal diffractometer and high energy synchrotron radiation at high temperature (950-1150°C) with an applied stress varying between 0 and 300 MPa. For each phase, the elastic strain is deduced from the peaks’ positions and the stress, plastic strain rate from the lattice mismatch, assuming a model lamellar composite material. Post mortem characterizations by electronic microscopy completes the results: morphology of each phase, dislocations densities and nature. The measurement of lattice mismatch leads to an in situ estimation of the dislocations’ density at the γ/γ’ interfaces. For the γ phase, during successive jumps of the applied stress, the Von Mises stress increases and then relaxes down to a threshold stress. This stress is in agreement with Orowan stress deduced from the post mortem measurements of the γ channels’ width. Plastic strain of the γ' phase is produced by climb of dislocations with Burgers’ vectors perpendicular to the tensile axis under the mere transversal stress and is controlled by the entrance of dislocations into the rafts from the interfaces. The distribution of elastic strains was simulated by assuming two main contributions: dislocations at the γ/γ’ interfaces and within the γ’ rafts. The simulation reproduces the absolute magnitude of the peaks’ width, as well as their increase with dislocation densities
453

Le problème de Steklov paramétrique et ses applications

St-Amant, Simon 04 1900 (has links)
Ce mémoire contient deux articles que j’ai rédigés au cours de ma maîtrise. Le premier chapitre sert d’introduction à ces articles. Plusieurs concepts de géométrie spectrale y sont présentés dans le contexte du problème de Steklov, en plus des résultats principaux des chapitres subséquents. Le second chapitre porte sur le problème de Steklov paramétrique sur des surfaces lisses. Un développement asymptotique complet des valeurs propres du problème est obtenu à l’aide de méthodes pseudodifférentielles. Celui-ci généralise l’asymptotique spectrale déjà connue du problème de Steklov classique. Nous en déduisons de nouveaux invariants géométriques déterminés par le spectre. Le troisième chapitre porte sur le problème de ballottement sur des prismes à base triangulaire. Le but est de comprendre comment les angles du prisme affectent le deuxième terme du développement asymptotique de la fonction de compte des valeurs propres. En construisant des quasimodes, nous obtenons une expression de ce terme que nous conjecturons comme étant la bonne pour les vraies valeurs propres. Cette conjecture est alors supportée par des expériences numériques. / This thesis contains two articles that I wrote during my M.Sc. studies. The first chapter serves as an introduction to both articles. Some concepts of spectral geometry in the context of the Steklov problem are presented, as well as the main results of the subsequent chapters. The second chapter concerns the parametric Steklov problem on smooth surfaces. We obtain a complete asymptotic expansion of the eigenvalues of the problem by using pseudodifferential techniques. This generalizes the already known spectral asymptotics of the classical Steklov problem. We deduce new geometric invariants determined by the spectrum. The third chapter concerns the sloshing problem on triangular prisms. The goal is to understand how the angles in the prism affect the second term in the asymptotic expansion of the eigenvalue counting function. By constructing quasimodes, we obtain an expression for this term that we conjecture as being correct for the true eigenvalues. This conjecture is then supported by numerical experiments.
454

Non-parametric methodologies for reconstruction and estimation in nonlinear state-space models / Méthodologies non-paramétriques pour la reconstruction et l’estimation dans les modèles d’états non linéaires

Chau, Thi Tuyet Trang 26 February 2019 (has links)
Le volume des données disponibles permettant de décrire l’environnement, en particulier l’atmosphère et les océans, s’est accru à un rythme exponentiel. Ces données regroupent des observations et des sorties de modèles numériques. Les observations (satellite, in situ, etc.) sont généralement précises mais sujettes à des erreurs de mesure et disponibles avec un échantillonnage spatio-temporel irrégulier qui rend leur exploitation directe difficile. L’amélioration de la compréhension des processus physiques associée à la plus grande capacité des ordinateurs ont permis des avancées importantes dans la qualité des modèles numériques. Les solutions obtenues ne sont cependant pas encore de qualité suffisante pour certaines applications et ces méthodes demeurent lourdes à mettre en œuvre. Filtrage et lissage (les méthodes d’assimilation de données séquentielles en pratique) sont développés pour abonder ces problèmes. Ils sont généralement formalisées sous la forme d’un modèle espace-état, dans lequel on distingue le modèle dynamique qui décrit l’évolution du processus physique (état), et le modèle d’observation qui décrit le lien entre le processus physique et les observations disponibles. Dans cette thèse, nous abordons trois problèmes liés à l’inférence statistique pour les modèles espace-états: reconstruction de l’état, estimation des paramètres et remplacement du modèle dynamique par un émulateur construit à partir de données. Pour le premier problème, nous introduirons tout d’abord un algorithme de lissage original qui combine les algorithmes Conditional Particle Filter (CPF) et Backward Simulation (BS). Cet algorithme CPF-BS permet une exploration efficace de l’état de la variable physique, en raffinant séquentiellement l’exploration autour des trajectoires qui respectent le mieux les contraintes du modèle dynamique et des observations. Nous montrerons sur plusieurs modèles jouets que, à temps de calcul égal, l’algorithme CPF-BS donne de meilleurs résultats que les autres CPF et l’algorithme EnKS stochastique qui est couramment utilisé dans les applications opérationnelles. Nous aborderons ensuite le problème de l’estimation des paramètres inconnus dans les modèles espace-état. L’algorithme le plus usuel en statistique pour estimer les paramètres d’un modèle espace-état est l’algorithme EM qui permet de calculer itérativement une approximation numérique des estimateurs du maximum de vraisemblance. Nous montrerons que les algorithmes EM et CPF-BS peuvent être combinés efficacement pour estimer les paramètres d’un modèle jouet. Pour certaines applications, le modèle dynamique est inconnu ou très coûteux à résoudre numériquement mais des observations ou des simulations sont disponibles. Il est alors possible de reconstruire l’état conditionnellement aux observations en utilisant des algorithmes de filtrage/lissage dans lesquels le modèle dynamique est remplacé par un émulateur statistique construit à partir des observations. Nous montrerons que les algorithmes EM et CPF-BS peuvent être adaptés dans ce cadre et permettent d’estimer de manière non-paramétrique le modèle dynamique de l’état à partir d'observations bruitées. Pour certaines applications, le modèle dynamique est inconnu ou très coûteux à résoudre numériquement mais des observations ou des simulations sont disponibles. Il est alors possible de reconstruire l’état conditionnellement aux observations en utilisant des algorithmes de filtrage/lissage dans lesquels le modèle dynamique est remplacé par un émulateur statistique construit à partir des observations. Nous montrerons que les algorithmes EM et CPF-BS peuvent être adaptés dans ce cadre et permettent d’estimer de manière non-paramétrique le modèle dynamique de l’état à partir d'observations bruitées. Enfin, les algorithmes proposés sont appliqués pour imputer les données de vent (produit par Météo France). / The amount of both observational and model-simulated data within the environmental, climate and ocean sciences has grown at an accelerating rate. Observational (e.g. satellite, in-situ...) data are generally accurate but still subject to observational errors and available with a complicated spatio-temporal sampling. Increasing computer power and understandings of physical processes have permitted to advance in models accuracy and resolution but purely model driven solutions may still not be accurate enough. Filtering and smoothing (or sequential data assimilation methods) have developed to tackle the issues. Their contexts are usually formalized under the form of a space-state model including the dynamical model which describes the evolution of the physical process (state), and the observation model which describes the link between the physical process and the available observations. In this thesis, we tackle three problems related to statistical inference for nonlinear state-space models: state reconstruction, parameter estimation and replacement of the dynamic model by an emulator constructed from data. For the first problem, we will introduce an original smoothing algorithm which combines the Conditional Particle Filter (CPF) and Backward Simulation (BS) algorithms. This CPF-BS algorithm allows for efficient exploration of the state of the physical variable, sequentially refining exploration around trajectories which best meet the constraints of the dynamic model and observations. We will show on several toy models that, at the same computation time, the CPF-BS algorithm gives better results than the other CPF algorithms and the stochastic EnKS algorithm which is commonly used in real applications. We will then discuss the problem of estimating unknown parameters in state-space models. The most common statistical algorithm for estimating the parameters of a space-state model is based on EM algorithm, which makes it possible to iteratively compute a numerical approximation of the maximum likelihood estimators. We will show that the EM and CPF-BS algorithms can be combined to effectively estimate the parameters in toy models. In some applications, the dynamical model is unknown or very expensive to solve numerically but observations or simulations are available. It is thence possible to reconstruct the state conditionally to the observations by using filtering/smoothing algorithms in which the dynamical model is replaced by a statistical emulator constructed from the observations. We will show that the EM and CPF-BS algorithms can be adapted in this framework and allow to provide non-parametric estimation of the dynamic model of the state from noisy observations. Finally the proposed algorithms are applied to impute wind data (produced by Méteo France).
455

Méthodes de diagnostic pour les moteurs de fusée à ergols liquides / Model-based fault diagnosis for rocket engines

Iannetti, Alessandra 30 September 2016 (has links)
Cette thèse a pour objectif de démontrer l'intérêt des outils de diagnostic "intelligents" pour application sur les moteurs de fusée. En Europe beaucoup d'efforts ont été faits pour développer quelques techniques innovantes comme les réseaux neuronaux, les méthodes de suivi de raie vibratoire, ou l'identification paramétrique mais peu de résultats sont disponibles quant à la comparaison des performances de différents algorithmes. Un deuxième objectif de la thèse a été celui d'améliorer le système de diagnostic du banc d'essai Mascotte (ONERA/CNES). Il s'agit d'un banc de démonstration pour les moteurs de fusée de type cryogénique représentatif des conditions d'utilisation d'un vrai moteur. Les étapes de la thèse ont été en premier lieu de choisir et d'évaluer des méthodes de diagnostic à base de modèles, en particulier l'identification paramétrique et le filtre de Kalman, et de les appliquer pour le diagnostic d'un système critique du banc Mascotte: le circuit de refroidissement. Après une première validation des nouveaux algorithmes sur des données d'essais disponibles, un benchmark fonctionnel a été mis en place pour pouvoir comparer les performances des algorithmes sur différents types de cas de panne simulés. La dernière étape consiste à intégrer les algorithmes sur les ordinateurs du banc de contrôle de Mascotte pour pouvoir effectuer une évaluation applicative des performances et de leur intégrabilité à l'environnement informatique déjà en place. Un exemple simple de boucle de régulation intégrant l’information du diagnostic est aussi étudié pour analyser l’importance de telles méthodes dans le contexte plus large d’une régulation « intelligente » du banc. / The main objective of this work is to demonstrate and analyze the potential benefits of advanced real time algorithms for rocket engines monitoring and diagnosis. In the last two decades in Europe many research efforts have been devoted to the development of specific diagnostic technics such as neural networks, vibration analysis or parameter identification but few results are available concerning algorithms comparison and diagnosis performances analysis.Another major objective of this work has been the improvement of the monitoring system of the Mascotte test bench (ONERA/CNES). This is a cryogenic test facility based in ONERA Palaiseau used to perform analysis of cryogenic combustion and nozzle expansion behavior representative of real rocket engine operations.The first step of the work was the selection of a critical system of the bench, the water cooling circuit, and then the analysis of the possible model based technics for diagnostic such as parameter identification and Kalman filters.Three new algorithms were developed, after a preliminary validation based on real test data, they were thoroughly analyzed via a functional benchmark with representative failure cases.The last part of the work consisted in the integration of the diagnosis algorithms on the bench computer environment in order to prepare a set-up for a future real time application.A simple closed loop architecture based on the new diagnostic tools has been studied in order to assess the potential of the new methods for future application in the context of intelligent bench control strategies.
456

Partitionnement des images hyperspectrales de grande dimension spatiale par propagation d'affinité / Partitioning of large size hyperspectral images by affinity propagation

Soltani, Mariem 17 December 2014 (has links)
Les images hyperspectrales suscitent un intérêt croissant depuis une quinzaine d'années. Elles fournissent une information plus détaillée d'une scène et permettent une discrimination plus précise des objets que les images couleur RVB ou multi-spectrales. Bien que les potentialités de la technologie hyperspectrale apparaissent relativement grandes, l'analyse et l'exploitation de ces données restent une tâche difficile et présentent aujourd'hui un défi. Les travaux de cette thèse s'inscrivent dans le cadre de la réduction et de partitionnement des images hyperspectrales de grande dimension spatiale. L'approche proposée se compose de deux étapes : calcul d'attributs et classification des pixels. Une nouvelle approche d'extraction d'attributs à partir des matrices de tri-occurrences définies sur des voisinages cubiques est proposée en tenant compte de l'information spatiale et spectrale. Une étude comparative a été menée afin de tester le pouvoir discriminant de ces nouveaux attributs par rapport aux attributs classiques. Les attributs proposés montrent un large écart discriminant par rapport à ces derniers et par rapport aux signatures spectrales. Concernant la classification, nous nous intéressons ici au partitionnement des images par une approche de classification non supervisée et non paramétrique car elle présente plusieurs avantages: aucune connaissance a priori, partitionnement des images quel que soit le domaine applicatif, adaptabilité au contenu informationnel des images. Une étude comparative des principaux classifieurs semi-supervisés (connaissance du nombre de classes) et non supervisés (C-moyennes, FCM, ISODATA, AP) a montré la supériorité de la méthode de propagation d'affinité (AP). Mais malgré un meilleur taux de classification, cette méthode présente deux inconvénients majeurs: une surestimation du nombre de classes dans sa version non supervisée, et l'impossibilité de l'appliquer sur des images de grande taille (complexité de calcul quadratique). Nous avons proposé une approche qui apporte des solutions à ces deux problèmes. Elle consiste tout d'abord à réduire le nombre d'individus à classer avant l'application de l'AP en agrégeant les pixels à très forte similarité. Pour estimer le nombre de classes, la méthode AP utilise de manière implicite un paramètre de préférence p dont la valeur initiale correspond à la médiane des valeurs de la matrice de similarité. Cette valeur conduisant souvent à une sur-segmentation des images, nous avons introduit une étape permettant d'optimiser ce paramètre en maximisant un critère lié à la variance interclasse. L'approche proposée a été testée avec succès sur des images synthétiques, mono et multi-composantes. Elle a été également appliquée et comparée sur des images hyperspectrales de grande taille spatiale (1000 × 1000 pixels × 62 bandes) avec succès dans le cadre d'une application réelle pour la détection des plantes invasives. / The interest in hyperspectral image data has been constantly increasing during the last years. Indeed, hyperspectral images provide more detailed information about the spectral properties of a scene and allow a more precise discrimination of objects than traditional color images or even multispectral images. High spatial and spectral resolutions of hyperspectral images enable to precisely characterize the information pixel content. Though the potentialities of hyperspectral technology appear to be relatively wide, the analysis and the treatment of these data remain complex. In fact, exploiting such large data sets presents a great challenge. In this thesis, we are mainly interested in the reduction and partitioning of hyperspectral images of high spatial dimension. The proposed approach consists essentially of two steps: features extraction and classification of pixels of an image. A new approach for features extraction based on spatial and spectral tri-occurrences matrices defined on cubic neighborhoods is proposed. A comparative study shows the discrimination power of these new features over conventional ones as well as spectral signatures. Concerning the classification step, we are mainly interested in this thesis to the unsupervised and non-parametric classification approach because it has several advantages: no a priori knowledge, image partitioning for any application domain, and adaptability to the image information content. A comparative study of the most well-known semi-supervised (knowledge of number of classes) and unsupervised non-parametric methods (K-means, FCM, ISODATA, AP) showed the superiority of affinity propagation (AP). Despite its high correct classification rate, affinity propagation has two major drawbacks. Firstly, the number of classes is over-estimated when the preference parameter p value is initialized as the median value of the similarity matrix. Secondly, the partitioning of large size hyperspectral images is hampered by its quadratic computational complexity. Therefore, its application to this data type remains impossible. To overcome these two drawbacks, we propose an approach which consists of reducing the number of pixels to be classified before the application of AP by automatically grouping data points with high similarity. We also introduce a step to optimize the preference parameter value by maximizing a criterion related to the interclass variance, in order to correctly estimate the number of classes. The proposed approach was successfully applied on synthetic images, mono-component and multi-component and showed a consistent discrimination of obtained classes. It was also successfully applied and compared on hyperspectral images of high spatial dimension (1000 × 1000 pixels × 62 bands) in the context of a real application for the detection of invasive and non-invasive vegetation species.
457

Approche coopérative et non supervisée de partitionnement d’images hyperspectrales pour l’aide à la décision / Unsupervised cooperative partitioning approach of hyperspectral images for decision making

Taher, Akar 20 October 2014 (has links)
Les images hyperspectrales sont des images complexes qui ne peuvent être partitionnées avec succès en utilisant une seule méthode de classification. Les méthodes de classification non coopératives, paramétriques ou non paramétriques peuvent être classées en trois catégories : supervisée, semi-supervisée et non supervisée. Les méthodes paramétriques supervisées nécessitent des connaissances a priori et des hypothèses sur les distributions des données à partitionner. Les méthodes semi-supervisées nécessitent des connaissances a priori limitées (nombre de classes, nombre d'itérations), alors que les méthodes de la dernière catégorie ne nécessitent aucune connaissance. Dans le cadre de cette thèse un nouveau système coopératif et non supervisé est développé pour le partitionnement des images hyperspectrales. Son originalité repose sur i) la caractérisation des pixels en fonction de la nature des régions texturées et non-texturées, ii) l'introduction de plusieurs niveaux d'évaluation et de validation des résultats intermédiaires, iii) la non nécessité d'information a priori. Le système mis en ouvre est composé de quatre modules: Le premier module, partitionne l'image en deux types de régions texturées et non texturées. Puis, les pixels sont caractérisés en fonction de leur appartenance à ces régions. Les attributs de texture pour les pixels appartenant aux régions texturées, et la moyenne locale pour les pixels appartenant aux régions non texturées. Le deuxième module fait coopérer parallèlement deux classifieurs (C-Moyen floue : FCM et l'algorithme Adaptatif Incrémental Linde-Buzo-Gray : AILBG) pour partitionner chaque composante. Pour rendre ces algorithmes non supervisés, le nombre de classes est estimé suivant un critère basé sur la dispersion moyenne pondérée des classes. Le troisième module évalue et gère suivant deux niveaux les conflits des résultats de classification obtenus par les algorithmes FCM et AILBG optimisés. Le premier identifie les pixels classés dans la même classe par les deux algorithmes et les reportent directement dans le résultat final d'une composante. Le second niveau utilise un algorithme génétique (GA), pour gérer les conflits entre les pixels restant. Le quatrième module est dédié aux cas des images multi-composantes. Les trois premiers modules sont appliqués tout d'abord sur chaque composante indépendamment. Les composantes adjacentes ayant des résultats de classification fortement similaires sont regroupées dans un même sous-ensemble et les résultats des composantes de chaque sous-ensemble sont fusionnés en utilisant le même GA. Le résultat de partitionnement final est obtenu après évaluation et fusion par le même GA des différents résultats de chaque sous-ensemble. Le système développé est testé avec succès sur une grande base de données d'images synthétiques (mono et multi-composantes) et également sur deux applications réelles: la classification des plantes invasives et la détection des pins. / Hyperspectral and more generally multi-component images are complex images which cannot be successfully partitioned using a single classification method. The existing non-cooperative classification methods, parametric or nonparametric can be categorized into three types: supervised, semi-supervised and unsupervised. Supervised parametric methods require a priori information and also require making hypothesis on the data distribution model. Semi-supervised methods require some a priori knowledge (e.g. number of classes and/or iterations), while unsupervised nonparametric methods do not require any a priori knowledge. In this thesis an unsupervised cooperative and adaptive partitioning system for hyperspectral images is developed, where its originality relies i) on the adaptive nature of the feature extraction ii) on the two-level evaluation and validation process to fuse the results, iii) on not requiring neither training samples nor the number of classes. This system is composed of four modules: The first module, classifies automatically the image pixels into textured and non-textured regions, and then different features of pixels are extracted according to the region types. Texture features are extracted for the pixels belonging to textured regions, and the local mean feature for pixels of non-textured regions. The second module consists of an unsupervised cooperative partitioning of each component, in which pixels of the different region types are classified in parallel via the features extracted previously using optimized versions of Fuzzy C-Means (FCM) and Adaptive Incremental Linde-Buzo-Gray algorithm (AILBG). For each algorithm the number of classes is estimated according to the weighted average dispersion of classes. The third module is the evaluation and conflict management of the intermediate classification results for the same component obtained by the two classifiers. To obtain a final reliable result, a two-level evaluation is used, the first one identifies the pixels classified into the same class by both classifiers and report them directly to the final classification result of one component. In the second level, a genetic algorithm (GA) is used to remove the conflicts between the invalidated remaining pixels. The fourth module is the evaluation and conflict management in the case of a multi-component image. The system handles all the components in parallel; where the above modules are applied on each component independently. The results of the different components are compared, and the adjacent components with highly similar results are grouped within a subset and fused using a GA also. To get the final partitioning result of the multi-component image, the intermediate results of the subsets are evaluated and fused by GA. The system is successfully tested on a large database of synthetic images (mono and multi-component) and also tested on two real applications: classification of invasive plants and pine trees detection.
458

Extension au cadre spatial de l'estimation non paramétrique par noyaux récursifs / Extension to spatial setting of kernel recursive estimation

Yahaya, Mohamed 15 December 2016 (has links)
Dans cette thèse, nous nous intéressons aux méthodes dites récursives qui permettent une mise à jour des estimations séquentielles de données spatiales ou spatio-temporelles et qui ne nécessitent pas un stockage permanent de toutes les données. Traiter et analyser des flux des données, Data Stream, de façon effective et efficace constitue un défi actif en statistique. En effet, dans beaucoup de domaines d'applications, des décisions doivent être prises à un temps donné à la réception d'une certaine quantité de données et mises à jour une fois de nouvelles données disponibles à une autre date. Nous proposons et étudions ainsi des estimateurs à noyau de la fonction de densité de probabilité et la fonction de régression de flux de données spatiales ou spatio-temporelles. Plus précisément, nous adaptons les estimateurs à noyau classiques de Parzen-Rosenblatt et Nadaraya-Watson. Pour cela, nous combinons la méthodologie sur les estimateurs récursifs de la densité et de la régression et celle d'une distribution de nature spatiale ou spatio-temporelle. Nous donnons des applications et des études numériques des estimateurs proposés. La spécificité des méthodes étudiées réside sur le fait que les estimations prennent en compte la structure de dépendance spatiale des données considérées, ce qui est loin d'être trivial. Cette thèse s'inscrit donc dans le contexte de la statistique spatiale non-paramétrique et ses applications. Elle y apporte trois contributions principales qui reposent sur l'étude des estimateurs non-paramétriques récursifs dans un cadre spatial/spatio-temporel et s'articule autour des l'estimation récursive à noyau de la densité dans un cadre spatial, l'estimation récursive à noyau de la densité dans un cadre spatio-temporel, et l'estimation récursive à noyau de la régression dans un cadre spatial. / In this thesis, we are interested in recursive methods that allow to update sequentially estimates in a context of spatial or spatial-temporal data and that do not need a permanent storage of all data. Process and analyze Data Stream, effectively and effciently is an active challenge in statistics. In fact, in many areas, decisions should be taken at a given time at the reception of a certain amount of data and updated once new data are available at another date. We propose and study kernel estimators of the probability density function and the regression function of spatial or spatial-temporal data-stream. Specifically, we adapt the classical kernel estimators of Parzen-Rosenblatt and Nadaraya-Watson. For this, we combine the methodology of recursive estimators of density and regression and that of a distribution of spatial or spatio-temporal data. We provide applications and numerical studies of the proposed estimators. The specifcity of the methods studied resides in the fact that the estimates take into account the spatial dependence structure of the relevant data, which is far from trivial. This thesis is therefore in the context of non-parametric spatial statistics and its applications. This work makes three major contributions. which are based on the study of non-parametric estimators in a recursive spatial/space-time and revolves around the recursive kernel density estimate in a spatial context, the recursive kernel density estimate in a space-time and recursive kernel regression estimate in space.
459

Estimation de la loi du milieu d'une marche aléatoire en milieu aléatoire / Estimation of the environment distribution of a random walk in random environment

Havet, Antoine 19 August 2019 (has links)
Introduit dans les années 1960, le modèle de la marche aléatoire en milieu aléatoire i.i.d. sur les entiers relatifs (ou MAMA) a récemment été l'objet d'un regain d'intérêt dans la communauté statistique.Divers travaux se sont en particulier intéressés à la question de l'estimation de la loi du milieu à partir de l'observation d'une unique trajectoire de la MAMA.Cette thèse s'inscrit dans cette dynamique.Dans un premier temps, nous considérons le problème d'estimation d'un point de vue fréquentiste. Lorsque la MAMA est transiente à droite ou récurrente, nous construisons le premier estimateur non paramétrique de la densité de la loi du milieu et obtenons une majoration du risque associé mesuré en norme infinie.Dans un deuxième temps, nous envisageons le problème d'estimation sous un angle Bayésien. Lorsque la MAMA est transiente à droite, nous démontrons la consistance à posteriori de l'estimateur Bayésien de la loi du milieu.La principale difficulté mathématique de la thèse a été l'élaboration des outils nécessaires à la preuve du résultat de consistance bayésienne.Nous démontrons pour cela une version quantitative de l'inégalité de concentration de type Mac Diarmid pour chaînes de Markov.Nous étudions également le temps de retour en 0 d'un processus de branchement en milieu aléatoire avec immigration. Nous montrons l'existence d'un moment exponentiel fini uniformément valable sur une classe de processus de branchement en milieu aléatoire. Le processus de branchement en milieu aléatoire constituant une chaîne de Markov, ce résultat permet alors d'expliciter la dépendance des constantes de l'inégalité de concentration en fonction des caractéristiques de ce processus. / Introduced in the 1960s, the model of random walk in i.i.d. environment on integers (or RWRE) raised only recently interest in the statistical community. Various works have in particular focused on the estimation of the environment distribution from a single trajectory of the RWRE.This thesis extends the advances made in those works and offers new approaches to the problem.First, we consider the estimation problem from a frequentist point of view. When the RWRE is transient to the right or recurrent, we build the first non-parametric estimator of the density of the environment distribution and obtain an upper-bound of the associated risk in infinite norm.Then, we consider the estimation problem from a Bayesian perspective. When the RWRE is transient to the right, we prove the posterior consistency of the Bayesian estimator of the environment distribution.The main difficulty of the thesis was to develop the tools necessary to the proof of Bayesian consistency.For this purpose, we demonstrate a quantitative version of a Mac Diarmid's type concentration inequality for Markov chains.We also study the return time to 0 of a branching process with immigration in random environment (or BPIRE). We show the existence of a finite exponential moment uniformly valid on a class of BPIRE. The BPIRE being a Markov chain, this result enables then to make explicit the dependence of the constants of the concentration inequality with respect to the characteristics of the BPIRE.
460

Identification paramétrique en dynamique transitoire : traitement d’un problème couplé aux deux bouts / Parametric identification in transiant dynamic : traitment of a boundary value problem

Nouisri, Amine 18 November 2015 (has links)
Les travaux de thèse portent sur l'identification paramétrique en dynamique transitoire à partir des mesures fortement bruitées, l'un des objectifs à long terme étant de proposer une méthode d’identification peu intrusive afin de pouvoir être implémentée dans des codes de calcul éléments finis commerciaux. Dans ce travail, le concept de l'erreur en relation de comportement modifiée a été retenu pour traiter le problème d’identification des paramètres matériau. La minimisation de la fonctionnelle coût sous contraintes débouche, dans le cas de la dynamique transitoire, sur un problème dit « aux deux bouts » dans lequel il s’agit de résoudre un problème différentiel spatio-temporel avec des conditions à la fois initiales et finales en temps. Il en résulte un problème couplé entre les champs direct et adjoint dont le traitement est délicat. Dans un premier temps, des méthodes précédemment développées telles que la « méthode de Riccati » et la « méthode de tirs » ont été étudiées. Il est montré que l’identification par ces méthodes est robuste même pour des mesures fortement corrompues, mais qu’elles sont limitées par la complexité d’implémentation dans un code industriel, des problèmes de conditionnement ou de coût de calcul. Dans un second temps, une approche itérative basée sur une méthode de sur-relaxation a été développée et comparée à celles précédemment mentionnées sur des exemples académiques, validant l’intérêt de cette nouvelle approche. Enfin, des comparaisons ont été menées entre cette technique et une variante « discrétisée » de la formulation introduite par Bonnet et Aquino [Inverse Problems, vol. 31, 2015]. / This thesis deals with parameters identification in transient dynamic in case of highly noisy experimental data. One long-term goal is the derivation of a non-intrusive method dedicated to the implementation in a commercial finite element code.In this work, the modified error in the constitutive relation framework is used to treat the identification of material parameters. The minimization of the cost function under constraints leads, in the case of transient dynamics, to a « two points boundary value problem » in which the differential space-time problem involves both initial and final time conditions. This results in a problem coupling the direct and adjoint fields, whose treatment is difficult.In the first part, methods such as those based on the « Riccati equations » and the « shooting methods » have been studied. It is shown that the identification is robust even in the case of highly corrupted measures, but these methods are limited either by the implementation intrusiveness, conditioning problems or the numerical cost.In the second part, an iterative over-relaxation approach is developed and compared to the aforementioned approaches on academic problems in order to validate the interest of the method. Finally, comparisons are carried out between this approach and a « discretized » variation of the formulation introduced by Bonnet and Aquino [Inverse Problems, vol. 31, 2015].

Page generated in 0.0395 seconds