• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 43
  • 7
  • Tagged with
  • 144
  • 45
  • 38
  • 31
  • 27
  • 21
  • 20
  • 20
  • 19
  • 18
  • 18
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Calcul stochastique via régularisation en dimension infinie avec perspectives financières

Di Girolami, Cristina 05 July 2010 (has links) (PDF)
Ce document de thèse développe certains aspects du calcul stochastique via régularisation pour des processus X à valeurs dans un espace de Banach général B. Il introduit un concept original de Chi-variation quadratique, où Chi est un sous-espace du dual d'un produit tensioriel B⊗B, muni de la topologie projective. Une attention particulière est dévouée au cas où B est l'espace des fonctions continues sur [-τ,0], τ>0. Une classe de résultats de stabilité de classe C^1 pour des processus ayant une Chi-variation quadratique est établie ainsi que des formules d'Itô pour de tels processus. Un rôle significatif est joué par les processus réels à variation quadratique finie X (par exemple un processus de Dirichlet, faible Dirichlet). Le processus naturel à valeurs dans C[-τ,0] est le dénommé processus fenêtre X_t(•) où X_t(y) = X_{t+y}, y ∈ [-τ,0]. Soit T>0. Si X est un processus dont la variation quadratique vaut [X]_t = t et h = H(X_T(•)) où H:C([-T,0])→ R est une fonction de classe C^3 Fréchet par rapport à L^2([-T,0] ou H dépend d'un numéro fini d' intégrales de Wiener, il est possible de représenter h comme un nombre réel H_0 plus une intégrale progressive du type \int_0^T \xi d^-X où \xi est un processus donné explicitement. Ce résultat de répresentation de la variable aléatoire h sera lié strictement à une fonction u:[0,T] x C([-T,0])→R qui en général est une solution d'une equation au derivées partielles en dimension infinie ayant la proprieté H_0=u(0, X_0(•)), \xi_t=Du(t, X_t(•))({0}). A certains égards, ceci généralise la formule de Clark-Ocone valable lorsque X est un mouvement brownien standard W. Une des motivations vient de la théorie de la couverture d'options lorsque le prix de l'actif soujacent n'est pas une semimartingale.
42

Métaheuristiques pour l'optimisation quadratique en 0/1 à grande échelle et ses applications

Wang, Yang 11 February 2013 (has links) (PDF)
Cette thése étudie le problème NP-difficile de optimization quadratique en variables binaires (BQO), à savoir le problème de la maximisation d'une fonction quadratique en variables binaires. BQO peut représenter de nombreux problèmes importants de différents domaines et servir de modèle unifié pour un grand nombre de problèmes d'optimisation combinatoire portant sur les graphes. Cette thèse est consacrée au développement d'algorithmes métaheuristiques efficaces pour résoudre le BQO et ses applications. Premièrement, nous proposons algorithmes de "backbone guided" recherche tabou et d'un algorithme mémétique multi-niveaux sur la base de la technique de la fixation de variables. Ces techniques sont toutes deux basées sur l'idée de la réduction du problème afin de mener à bien une exploitation exhaustive d'une petite région de recherche. Ensuite, nous nous concentrons sur des procédés avancés de génération des solutions initiales préférables et développons des algorithmes combinant GRASP avec la recherche tabou et les algorithmes de path-relinking. En outre, nous résolvons des problèmes, y compris le problème de coupe maximum, de clique maximum, de clique maximale de sommets pondérés et la somme coloration minimum, soit en appliquant directement ou avec une légère adaptation de nos algorithmes développés pour BQO, avec l'hypothèse que ces problèmes sont reformulés en BQO. Enfin, nous présentons un algorithme mémétique basé sur la recherche tabou qui s'attaque efficacement au BQO avec contrainte de cardinalité.
43

Optimisation quadratique en variables binaires : quelques résultats et techniques

Mbuntcha Wuntcha, Calvin January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
44

Résolution de problèmes de complémentarité. : Application à un écoulement diphasique dans un milieu poreux / Solving complementarity problems : Application to a diphasic flow in porous media

Ben Gharbia, Ibtihel 05 December 2012 (has links)
Les problèmes de complémentarité interviennent dans de nombreux domaines scientifiques : économie, mécanique des solides, mécanique des fluides. Ce n’est que récemment qu’ils ont commencé d’intéresser les chercheurs étudiant les écoulements et le transport en milieu poreux. Les problèmes de complémentarité sont un cas particulier des inéquations variationnelles. Dans cette thèse, on offre plusieurs contributions aux méthodes numériques pour résoudre les problèmes de complémentarité. Dans la première partie de cette thèse, on étudie les problèmes de complémentarité linéaires 0 6 x ⊥ (Mx+q) > 0 où, x l’inconnue est dans Rn et où les données sont q, un vecteur de Rn, et M, une matrice d’ordre n. L’existence et l’unicité de ce problème est obtenue quand la matrice M est une P-matrice. Une méthode très efficace pour résoudre les problèmes de complémentarité est la méthode de Newton-min, une extension de la méthode de Newton aux problèmes non lisses.Dans cette thèse on montre d’abord, en construisant deux familles de contre-exemples, que la méthode de Newton-min ne converge pas pour la classe des P-matrices, sauf si n= 1 ou 2. Ensuite on caractérise algorithmiquement la classe des P-matrices : c’est la classe des matrices qui sont telles que quel que, soit le vecteur q, l’algorithme de Newton-min ne fait pas de cycle de deux points. Enfin ces résultats de non-convergence nous ont conduit à construire une méthode de globalisation de l’algorithme de Newton-min dont nous avons démontré la convergence globale pour les P-matrices. Des résultats numériques montrent l’efficacité de cet algorithme et sa convergence polynomiale pour les cas considérés. Dans la deuxième partie de cette thèse, nous nous sommes intéressés à un exemple de problème de complémentarité non linéaire concernant les écoulements en milieu poreux. Il s’agit d’un écoulement liquide-gaz à deux composants eau-hydrogène que l’on rencontre dans le cadre de l’étude du stockage des déchets radioactifs en milieu géologique. Nous présentons un modèle mathématique utilisant des conditions de complémentarité non linéaires décrivant ces écoulements. D’une part, nous proposons une méthode de résolution et un solveur pour ce problème. D’autre part, nous présentons les résultats numériques que nous avons obtenus suite à la simulation des cas-tests proposés par l’ANDRA (Agence Nationale pour la gestion des Déchets Radioactifs) et le GNR MoMaS. En particulier, ces résultats montrent l’efficacité de l’algorithme proposé et sa convergence quadratique pour ces cas-tests / This manuscript deals with numerical methods for linear and nonlinear complementarity problems,and, more specifically, with solving gas phase appearance and disappearance modeled as a complementarity problem. In the first part of this manuscript, we focused on the plain Newton-min method to solve the linear complementarity problem (LCP for short) 0 6 x ⊥ (Mx+q) > 0 that can be viewed as a nonsmooth Newton algorithm without globalization technique to solve the system of piecewise linear equations min(x,Mx+q) = 0, which is equivalent to the LCP. When M is an M-matrix of order n, the algorithm was known to converge in at most n iterations. We show that this resultno longer holds when M is a P-matrix of order > 3. On the one hand, we offer counter-examplesshowing that the algorithm may cycle in those cases. P-matrices are interesting since they are thoseensuring the existence and uniqueness of the solution to the LCP for an arbitrary q. Incidentally,convergence occurs for a P-matrix of order 1 or 2. On the other hand, we provide a new algorithmic characterization of P-matricity : we show that a nondegenerate square real matrix M is a P-matrixif and only if, whatever is the real vector q, the Newton-min algorithm does not cycle between twopoints. In order to force the convergence of the Newton-min algorithm with P-matrices, we havederived a new method, which is robust, easy to describe, and simple to implement. It is globallyconvergent and the numerical results reported in this manuscript show that it outperforms a methodof Harker and Pang. In the second part of this manuscript, we consider the modeling of migration of hydrogen produced by the corrosion of the nuclear waste packages in an underground storage including the dissolution of hydrogen. It results in a set of nonlinear partial differential equations with nonlinear complementarity constraints. We show how to apply a robust and efficient solution strategy, the Newton-min method considered for LCP in the first part, to this geoscience problem and investigates its applicability and efficiency on this difficult problem. The practical interest of this solution technique is corroborated by numerical experiments from the Couplex Gas benchmark proposed by Andra and GNR MoMas. In particular, numerical results show that the Newton-min method is quadratically convergent for these problems
45

Etude des apports de la théorie des jeux en conception de chaines logistiques : approche coopérative et approche stratégique / Supply chain design based on game theory : cooperative and strategic approahes

Mahjoub, Sonia 04 October 2011 (has links)
Dans un contexte de prix de marché fixes et exogènes pour un ensemble de biens choisis pour être produits, le problème de conception d'une chaine logistique a été analysé comme un problème de formation d'une coalition dans le cadre de la théorie des jeux coopératifs, et formulé comme un jeu de production linéaire. Dans un premier temps, ce travail étudie la compatibilité entre la formation d'une coalition stable et l'allocation équitable du profit total entre les participants. Il est montré qu'en général, le mécanisme d'allocation purement compétitif ne vérifie pas la propriété d'équité. Deux techniques ont été proposées pour corriger ce défaut. La première consiste en l'introduction de paiements de transfert entre les membres de la coalition optimale. La deuxième technique se base sur la substitution des contraintes de capacité de ressources par des contraintes de saturation linéaires par morceaux. Par ailleurs, si la coalition d'entreprises décide de s'organiser sous forme d'une chaine logistique et d'imposer le prix de gros de ses produits fabriqués, alors le problème de conception de chaine logistique soumis à une hypothèse de demande aléatoire élastique peut être formulé grâce au modèle du jeu biforme. Cette situation génère un jeu de production quadratique (JPQ) jusqu'alors inexistant dans la littérature. Il est montré que ce jeu a un cœur non vide et qu'il est en général non convexe. Enfin, il est démontré qu'en général l'optimum global de la chaine logistique n'est atteint que lorsque la coalition d'entreprises vend directement ses produits sur le marché final sans intervention du détaillant. / In the context of fixed market prices for a set of goods selected to be manufactured, the design of a supply chain network can be interpreted as a coalition formation problem in the cooperative game theory framework and formulated as a linear production game (LPG). This study investigates the possibility of combining the requirement of coalition stability with a fair allocation of profits to the participants. It is shown that, in general, the purely competitive allocation mechanism does not exhibit the property of fairness. Two techniques are proposed to correct this defect. The first one consists in introducing transfer payments among the players of the optimal coalition. The second technique relies on an improved representation of capacitated resources through clearing functions. Now, if an enterprise network decides to organize itself as a supply chain and imposes the wholesale price of its manufactured goods, then the supply chain design problem under a price elastic random demand from the market can be formulated as a biform game. This situation has generated a quadratic production game (QPG) not yet studied in the literature. It has been shown that this game has a non empty core and it is generally non convex. Finally, it has been proved that global profit optimality is obtained if the manufacturing network is directly selling the goods to the market rather than to a retailer.
46

Cristallochimie prospective : relaxeurs, ferroïques et SPS basse température / Prospective crystal-chemistry : relaxors, ferroics and low temperature SPS

Herisson de beauvoir, Thomas 26 September 2017 (has links)
Les travaux présents ici portent sur l’étude et la prospection de matériaux ferroiques. Cette étude consiste en une approche revêtant plusieurs aspects que sont la chimie du solide, la physique du solide et la science des matériaux. Deux parties sont développées, avec deux approches différentes. La première se concentre sur les liens entre composition/structure/propriétés dans des matériaux de la famille des TTB dérives de Ba2NdFeNb4O15 à travers l’étude de solutions solides à base de Li et l’étude de l’impact des différents paramètres de synthèse sur la nature de l’anomalie diélectrique mesurées sur pastilles densifiées. La mise en évidence de modulation structurale dans cette famille de matériaux semble être en lien direct avec l’observation des variations de propriétés diélectriques. L’utilisation de diffraction électronique notamment permet la mise en évidence de ces modulations structurales et leur évolution en température. Dans une seconde partie, l’approche consiste à utiliser le Spark Plasma Sintering (SPS) comme technique de densification pour des matériaux dits “fragiles” mais aussi d’explorer des propriétés diélectriques jusqu’alors inaccessibles, sur matériaux massifs. Le développement de la technique SPS à basse température permet ainsi non seulement de densifier à basse température des matériaux fragiles, mais aussi d’obtenir des phases inaccessibles dans des conditions de températures similaires par traitement thermique conventionnel. De même, l’obtention de céramique moléculaire de très haute densité a pu être réalisée, malgré des températures de décomposition extrêmement faible (100 ˚C). / The present work focuses on the prospection and understanding study of ferroic materials. It consists in a multiple aspect approach, including materials chemistry, materials physics and materials processing. Two parts compose this work, with two different approaches. The first one focuses on the links between composition, structure and properties in materials belonging to the TTB family, more specifically derived from Ba2NdFeNb4O15, through the exploration of Li containing solid solutions, and the impact of synthesis parameters on measured dielectric anomalies on dense samples. The observation of structural modulation in these materials seems to be closely related to the observation of dielectric anomalies variations. Using electron diffraction techniques allowed the evidence of such anomalies and the following of their thermal evolution. In a second part, the approach consists in using Spark Plasma Sintering (SPS) as a densification technique for so called “fragile” materials but also explore dielectric properties impossible to experimentally measure thus far. Developing low temperature SPS technique not only allows to densify ceramics at low temperatures fragile materials, but also to obtain inaccessible phases in similar temperature conditions using conventional thermal treatments. Moreover, sintering of molecular ceramic at very high density was possible, even if its decomposition temperature is extremely low (100 ˚C).
47

Evaluation structurale des murs de soutènement en maçonnerie / Stability assessment of masonry retaining walls

Terrade, Benjamin 15 December 2017 (has links)
Partout où la pierre est facilement disponible, on trouve des constructions en maçonnerie de pierre. Suivant les coutumes et les usages, les blocs de pierres sont assemblés bruts, simplement ébauchés ou parfaitement taillés, avec ou sans l'ajout d'un liant. Supplantée par le béton dans les constructions neuves depuis le milieu du XX} siècle, les ouvrages en maçonnerie demeurent majoritaires dans le patrimoine bâti français, un patrimoine qu'il convient d'entretenir rationnellement. L'objectif de ce travail de thèse est de poursuivre l'élaboration d'un cadre scientifique rigoureux et opérationnel afin de donner aux décideurs et aux gestionnaires les outils nécessaires pour mener à bien leur mission. Nous proposons ici deux outils d'évaluation de la stabilité d'ouvrages de soutènement en maçonnerie basés sur l'utilisation conjointe du calcul à la rupture avec des méthodes d'homogénéisation. Dans un premier temps, nous mettons d'abord au point un outil analytique permettant de dimensionner des ouvrages neufs ou d'évaluer la stabilité d'ouvrages peu déformés. Cet outil permet également de dimensionner des solutions de renforcement par clouage lorsque cela est jugé nécessaire. Dans un deuxième temps, nous implémentons cet outil dans un code numérique afin de lui donner la souplesse nécessaire à l'étude d'ouvrages non-conventionnels, de grandes taille ou fortement pathologique. Enfin, nous mettons en oeuvre plusieurs campagnes expérimentales qui nous fournissent les données nécessaires à la validation de ces modèles de calcul / Wherever stone is readily available, we encounter stone masonry buildings. Depending on customs or dedicated use, the blocks are used raw, lightly faced or perfectly cut, with or without the use of mortar. Althougth concrete has replaced masonry in new construction for some decades, the better part of the French built heritage is made of masonry, an heritage we are responsible for. This works aims at contributing to create a reliable scientific frame for that purpose. This thesis uses the yield design theory alongside with homogenisation techniques to study the stability of stone masonry earth retaining walls. First, we provide an analytical tool suitable for designing new structures or assessing the stability of existing ones that are still in good shape. Should it be needed, this tools allows for the design of a strengthening solution based on soil-nailing. Then, we implement it in a finite element code to give it the versatility required to study unconventionnal structures or structures badly damaged. We then present several experimental campaigns aiming at validating the proposed tools
48

Méthodes avancées de séparation de sources applicables aux mélanges linéaires-quadratiques / Advanced methods of source separation applicable to linear-quadratic mixtures

Jarboui, Lina 18 November 2017 (has links)
Dans cette thèse, nous nous sommes intéressés à proposer de nouvelles méthodes de Séparation Aveugle de Sources (SAS) adaptées aux modèles de mélange non-linéaires. La SAS consiste à estimer les signaux sources inconnus à partir de leurs mélanges observés lorsqu'il existe très peu d'informations disponibles sur le modèle de mélange. La contribution méthodologique de cette thèse consiste à prendre en considération les interactions non-linéaires qui peuvent se produire entre les sources en utilisant le modèle linéaire-quadratique (LQ). A cet effet, nous avons développé trois nouvelles méthodes de SAS. La première méthode vise à résoudre le problème du démélange hyperspectral en utilisant un modèle linéaire-quadratique. Celle-ci se repose sur la méthode d'Analyse en Composantes Parcimonieuses (ACPa) et nécessite l'existence des pixels purs dans la scène observée. Dans le même but, nous proposons une deuxième méthode du démélange hyperspectral adaptée au modèle linéaire-quadratique. Elle correspond à une méthode de Factorisation en Matrices Non-négatives (FMN) se basant sur l'estimateur du Maximum A Posteriori (MAP) qui permet de prendre en compte les informations a priori sur les distributions des inconnus du problème afin de mieux les estimer. Enfin, nous proposons une troisième méthode de SAS basée sur l'analyse en composantes indépendantes (ACI) en exploitant les Statistiques de Second Ordre (SSO) pour traiter un cas particulier du mélange linéaire-quadratique qui correspond au mélange bilinéaire. / In this thesis, we were interested to propose new Blind Source Separation (BSS) methods adapted to the nonlinear mixing models. BSS consists in estimating the unknown source signals from their observed mixtures when there is little information available on the mixing model. The methodological contribution of this thesis consists in considering the non-linear interactions that can occur between sources by using the linear-quadratic (LQ) model. To this end, we developed three new BSS methods. The first method aims at solving the hyperspectral unmixing problem by using a linear-quadratic model. It is based on the Sparse Component Analysis (SCA) method and requires the existence of pure pixels in the observed scene. For the same purpose, we propose a second hyperspectral unmixing method adapted to the linear-quadratic model. It corresponds to a Non-negative Matrix Factorization (NMF) method based on the Maximum A Posteriori (MAP) estimate allowing to take into account the available prior information about the unknown parameters for a better estimation of them. Finally, we propose a third BSS method based on the Independent Component Analysis (ICA) method by using the Second Order Statistics (SOS) to process a particular case of the linear-quadratic mixture that corresponds to the bilinear one.
49

Learning methods for digital imaging / Méthodes d'apprentissage pour l'imagerie numérique

Amba, Prakhar 03 May 2018 (has links)
Pour produire des images couleurs nous devons obtenir l'information relative aux trois couleurs primaires (généralement Rouge, Vert et Bleu) à chaque pixels de l'image. Pour capturer cette information la plupart des caméras numériques utilisent une matrice de filtres couleurs (CFA – Color Filter Array en anglais), c'est-à-dire qu'une mosaïque de couleurs recouvre le capteur de manière à ce qu'une seule couleur soit mesurée à chaque position dans l'image.Cette méthode de mesure est similaire à celle du système visuel humain (HVS – Human Visual System en anglais) pour lequel les cônes LMS (sensibles aux longues L, moyenne M et courte S (short en anglais)) forment également une mosaïque à la surface de la rétine. Pour le système visuel, l'arrangement est aléatoire et change entre les individus alors que pour les caméras nous utilisons des arrangements réguliers. Dans les caméras, on doit interpoler les couleurs manquantes pour retrouver une image couleur totalement résolue, méthode appelée démosaïçage. A cause de l'arrangement régulier ou périodique des filtres couleurs, l'image démosaïçée peut faire apparaître des fausses couleurs ou des artefacts. Dans la littérature, les algorithmes de démosaïçage adressent principalement les mosaïques régulières.Dans cette thèse, nous proposons un algorithme de démosaïçage par apprentissage statistique, qui peut être utilisé avec n’importe quelle mosaïque régulière ou aléatoire. De plus, nous optimisons l’arrangement des couleurs dans la mosaïque et proposons des mosaïques qui, avec notre méthode, offrent des performances supérieures aux meilleures méthodes appliquées aux mosaïques régulières. Les images démosaïçées à partir de ces mosaïques ne présentent pas de fausses couleurs ou artefacts.Nous avons étendu l’algorithme pour qu’il ne soit pas limité à trois couleurs mais puisse être utilisé pour un arrangement aléatoire d’un nombre quelconque de filtres spectraux. Avoir plus de trois couleurs permet non seulement de mieux représenter les images mais aussi de mesurer des signatures spectrales de la scène. Ces mosaïques sont appelées matrice de filtres spectraux (SFA – Spectral Filter Array en anglais). Les technologies récentes nous offrent une grande flexibilité pour définir les filtres spectraux et par démosaïçage nous pouvons obtenir des couleurs plus justes et une estimation de la radiance spectrale de la scène. Le substrat silicium dans lequel les photodiodes du capteur sont réalisées est sensible aux radiations proche infra-rouge et donc des filtres visibles et proche infra-rouge peuvent-être combinés dans la même mosaïque. Cette combinaison est particulièrement utile pour le nouveau challenge des caméras numérique d’obtenir des images couleurs en vision de nuit à basse lumière.Nous démontrons l'application de notre algorithme pour plusieurs exemples de cameras récentes équipées d'une matrice de filtres spectraux. Nous montrons que notre méthode est plus performante que les algorithmes actuels en terme de qualité d'image et de vitesse de calcul. Nous proposons également d'optimiser les transmissions des filtres et leur arrangement pour améliorer les résultats selon des métriques ou applications choisies.La méthode, basée sur la minimisation de l'erreur quadratique moyenne est linéaire et par conséquent rapide et applicable en temps réel. Finalement, pour défier la nature linéaire de notre algorithme, nous proposons un deuxième algorithme de démosaïçage par réseaux de neurones qui à des performances légèrement meilleures mais pour un coût de calcul supérieur. / To produce color images we need information of three primary colors (notably Red, Green and Blue) at each pixel point. To capture this information most digital cameras utilize a Color Filter Array (CFA), i.e. a mosaic arrangement of these colors is overlaid on the sensor such that only one color is sampled at one pixel.This arrangement is similar to the Human Visual System (HVS) wherein a mosaic of LMS cones (for sensitivity to Long, Medium and Short wavelength) forms the surface of the retina. For HVS, the arrangement is random and differs between individuals, whereas for cameras we use a regular arrangement of color filters. For digital cameras one needs to interpolate the missing colors to recover the full color image and this process is known as demosaicing. Due to regular or periodic arrangement of color filters the output demosaiced image is susceptible to false colors and artifacts. In literature, the demosaicing algorithms proposed so far cater mainly to regular CFAs.In this thesis, we propose an algorithm for demosaicing which can be used to demosaic any random or regular CFA by learning statistics of an image database. Further, we optimize and propose CFAs such that they outperform even the state of art algorithms on regular CFAs. At the same time the demosaiced images from proposed CFAs are free from false colors and artifacts.We extend our algorithm such that it is not limited to only three colors but can be used for any random arrangement of any number of spectral filters. Having more than three colors allows us to not only record an image but to record a spectral signature of the scene. These mosaics are known as Spectral Filter Arrays (SFAs). Recent technological advances give us greater flexibility in designing the spectral filters and by demosaicing them we can get more accurate colors and also do estimation of spectral radiance of the scene. We know that silicon is inherently sensitive to Near-Infrared radiation and therefore both Visible and NIR filters can be combined on the same mosaic. This is useful for low light night vision cameras which is a new challenge in digital imaging.We demonstrate the applicability of our algorithm on several state of the art cameras using these novel SFAs. In this thesis, we demonstrate that our method outperforms the state of art algorithms in image quality and computational efficiency. We propose a method to optimize filters and their arrangement such that it gives best results depending on metrics and application chosen.The method based on minimization of mean square error is linear in nature and therefore very fast and suitable for real time applications. Finally to challenge the linear nature of LMMSE we propose a demosaicing algorithm using Neural Networks training on a small database of images which is slightly better than the linear demosaicing however, it is computationally more expensive.
50

Analyse en composantes indépendantes par ondelettes

Barbedor, Pascal 05 December 2006 (has links) (PDF)
L'analyse en composantes indépendantes (ACI) est une forme d'analyse multivariée qui a émergée en tant que concept dans les années 1980-90. C'est un type de problème inverse où on observe une variable X dont les composantes sont les mélanges linéaires d'une variable S inobservable. Les composantes de S sont mutuellement indépendantes. La relation entre les deux variables s'exprime par X=AS, où A est une matrice de mixage inconnue .<br /><br />Le problème principal de l'ACI est d'estimer la matrice A, à partir de l'observation d'un échantillon i.i.d. de X, pour atteindre S qui constitue un système explicatif meilleur que X dans l'étude d'un phénomène particulier. Le problème se résout généralement par la minimisation d'un certain critère, issu d'une mesure de dépendance.<br /><br />L'ACI ressemble à l'analyse en composantes principales (ACP) dans la formulation du problème. Dans le cas de l'ACP on cherche des composantes non corrélées, c'est-à-dire indépendantes par paire à l'ordre 2 ; dans le cas de l'ACI on cherche des composantes mutuellement indépendantes, ce qui est beaucoup plus contraignant; dans le cas général, il n'existe plus de solution algébrique simple. Les principaux problèmes d'identification de A sont évités par un certain nombre de conventions adoptées dans le modèle ACI classique.<br /><br />L'approche qui est proposée dans cette thèse est du type non paramétrique. Sous des hypothèses de type Besov, on étudie plusieurs estimateurs d'un critère de dépendance exact donné par la norme L2 de la différence entre une densité et le produit de ses marges. Ce critère constitue une alternative à l'information mutuelle qui représentait jusqu'ici le critère exact de référence de la plupart des méthodes ACI.<br /><br />On donne une majoration de l'erreur en moyenne quadratique de différents estimateurs du contraste L2. Cette majoration prend en compte le biais d'approximation entre le Besov et l'espace de projection qui, ici, est issu d'une analyse multirésolution (AMR) générée par le produit tensoriel d'ondelettes de Daubechies. Ce type de majoration avec prise en compte du biais d'approximation est en général absent des méthodes non paramétriques récentes en ACI (méthodes kernel, information mutuelle).<br /><br />Le critère en norme L2 permet de se rapprocher de problèmes déjà connus dans la littérature statistique, estimation de l'intégrale de f au carré, tests d'homogénéité en norme L2, résultats de convergence d'estimateurs adoptant un seuillage par bloc. <br /><br />On propose des estimateurs du contraste L2 qui atteignent la vitesse minimax optimale du problème de intégrale de f au carré. Ces estimateurs de type U-statistique ont des complexités numériques quadratique en n, ce qui peut poser un problème pour la minimisation du contraste à suivre, en vue d'obtenir l'estimation concrète de la matrice A. En revanche, ces estimateurs admettent une forme de seuillage par bloc où la connaissance de la régularité s de la densité multivariée sous-jacente est inutile pour obtenir une vitesse optimale.<br /><br />On propose un estimateur de type plug-in dont la vitesse de convergence est sous-optimale mais qui est de complexité numérique linéaire en n. L'estimateur plug-in admet aussi une forme seuillée terme à terme, qui dégrade la vitesse de convergence mais permet d'obtenir un critère auto-adaptatif. Dans sa version linéaire, l'estimateur plug-in semble déjà quasiment auto-adaptatif dans les faits, c'est-à-dire que sous la contrainte 2^{jd} < n, où d est la dimension du problème et n le nombre d'observations, la majorité des résolutions j permettent d'estimer A après minimisation.<br /><br />Pour obtenir ces résultats on a été amené à développer une technique combinatoire spécifique permettant de majorer le moment d'ordre r d'une U-statistique ou d'une V-statistique. Les résultats classiques sur les U-statistiques ne sont en effet pas directement utilisables et pas facilement adaptables dans le contexte d'étude de la thèse. La méthode développée est utilisable dans d'autres contextes.<br /><br />La méthode par ondelettes s'appuie sur le paradigme usuel estimation d'un critère de dépendance, puis minimisation. On étudie donc dans la thèse les éléments permettant de faciliter la minimisation. On donne notamment des formulations du gradient et du hessien de l'estimateur du contraste qui se prêtent à un changement de résolution par simple filtrage et qui se calculent selon une complexité équivalente à celle de l'évaluation de l'estimateur lui même. <br /><br />Des simulations proposées dans la thèse confirment l'applicabilité de la méthode et donnent des résultats excellents. Tous les éléments nécessaires à l'implémentation de la méthode, et le code commenté des parties clefs de la programmation (notamment des algorithmes d-dimensionnels) figurent également dans le document.

Page generated in 0.075 seconds