• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 18
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 56
  • 28
  • 24
  • 20
  • 12
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Sur les opérateurs pseudo-différentiels à coefficients peu réguliers.

Bourdaud, Gérard. January 1900 (has links)
Th.--Sci. math.--Paris 11--Orsay, 1983. N°: 2771.
32

Étude du formalisme multifractal pour les fonctions

Ben Slimane, Mourad 20 September 1996 (has links) (PDF)
L'objet de cette thèse est l'analyse multifractale des fonctions autosimilaires et l'étude de la validité du formalisme multifractal. Il s'agit d'abord de déterminer la régularité Hölderienne ponctuelle exacte pour des fonctions dont le graphe localement est grossièrement une contraction du graphe complet, à une fonction erreur près ; ensuite de calculer les dimensions de Hausdorff des ensembles de points où la fonction présente la même singularité; et enfin de vérifier les conjectures de Frish et Parisi et celle d'Arneodo, Bacry et Muzy, qui relient ces dimensions à des quantités moyennes extraites de la fonction. Nous étudions plusieurs types d'autosimilarités, et montrons (en reformulant parfois) que l'analyse par ondelettes permet d'étudier la validité de ces relations.
33

Quelques résultats mathématiques sur les gaz à faible nombre de Mach

Liao, Xian, Liao, Xian 24 April 2013 (has links) (PDF)
Cette thèse est consacrée à l'étude de la dynamique des gaz à faible nombre de Mach. Le modèle étudié provient des équations de Navier-Stokes complètes lorsque le nombre de Mach tend vers zéro. On cherche à montrer que le problème de Cauchy correspondant est bien posé. Les cas visqueux et non visqueux sont tous deux considérés. Les coefficients physiques peuvent dépendre de la densité (ou de la température) inconnue. En particulier, nous prenons en compte les effets de conductivité thermique et on autorise de grandes variations d'entropie. Rappelons qu'en absence de diffusion thermique, la limite à faible nombre de Mach implique la condition d'incompressibilité. Dans le cadre étudié ici, en introduisant un nouveau champ de vitesses à divergence nulle, le système devient un couplage non linéaire entre une équation quasi-parabolique pour la densité et un système de type Navier-Stokes (ou Euler) pour la vitesse et la pression. Pour le cas avec viscosité, on établit le résultat classique, à savoir qu'il existe une solution forte existant localement (resp. globalement) en temps pour des données initiales grandes (resp. petites). On considère ici le problème de Cauchy avec données initiales dans des espaces de Besov critiques. Lorsque les coefficients physiques du système vérifient une relation spéciale, le système se simplifie considérablement, et on peut alors établir qu'il existe des solutions faibles globales en temps à énergie finie. Par un argument d'unicité fort-faible, on en déduit que les solutions fortes à énergie finie existent pour tous les temps positifs en dimension deux. Pour le cas sans viscosité, on montre d'abord le caractère bien posé dans des espaces de Besov limites, qui s'injectent dans l'espace des fonctions lipschitziennes. Des critères de prolongement et des estimations du temps de vie sont établis. Si l'on suppose la donnée initiale à énergie finie dans l'espace de Besov limite à exposant de Lebesgue infini, on a également un résultat d'existence locale. En dimension deux, le temps de vie tend vers l'infini quand la densité tend vers une constante positive. Des estimations de produits et de commutateurs, ainsi que des estimations a priori pour les équations paraboliques et pour le système de Stokes (ou d'Euler) à coefficients variables, se trouvent dans l'annexe. Ces estimations reposent sur la théorie de Littlewood-Paley et le calcul paradifférentiel
34

Analyse en composantes indépendantes par ondelettes

Barbedor, Pascal 05 December 2006 (has links) (PDF)
L'analyse en composantes indépendantes (ACI) est une forme d'analyse multivariée qui a émergée en tant que concept dans les années 1980-90. C'est un type de problème inverse où on observe une variable X dont les composantes sont les mélanges linéaires d'une variable S inobservable. Les composantes de S sont mutuellement indépendantes. La relation entre les deux variables s'exprime par X=AS, où A est une matrice de mixage inconnue .<br /><br />Le problème principal de l'ACI est d'estimer la matrice A, à partir de l'observation d'un échantillon i.i.d. de X, pour atteindre S qui constitue un système explicatif meilleur que X dans l'étude d'un phénomène particulier. Le problème se résout généralement par la minimisation d'un certain critère, issu d'une mesure de dépendance.<br /><br />L'ACI ressemble à l'analyse en composantes principales (ACP) dans la formulation du problème. Dans le cas de l'ACP on cherche des composantes non corrélées, c'est-à-dire indépendantes par paire à l'ordre 2 ; dans le cas de l'ACI on cherche des composantes mutuellement indépendantes, ce qui est beaucoup plus contraignant; dans le cas général, il n'existe plus de solution algébrique simple. Les principaux problèmes d'identification de A sont évités par un certain nombre de conventions adoptées dans le modèle ACI classique.<br /><br />L'approche qui est proposée dans cette thèse est du type non paramétrique. Sous des hypothèses de type Besov, on étudie plusieurs estimateurs d'un critère de dépendance exact donné par la norme L2 de la différence entre une densité et le produit de ses marges. Ce critère constitue une alternative à l'information mutuelle qui représentait jusqu'ici le critère exact de référence de la plupart des méthodes ACI.<br /><br />On donne une majoration de l'erreur en moyenne quadratique de différents estimateurs du contraste L2. Cette majoration prend en compte le biais d'approximation entre le Besov et l'espace de projection qui, ici, est issu d'une analyse multirésolution (AMR) générée par le produit tensoriel d'ondelettes de Daubechies. Ce type de majoration avec prise en compte du biais d'approximation est en général absent des méthodes non paramétriques récentes en ACI (méthodes kernel, information mutuelle).<br /><br />Le critère en norme L2 permet de se rapprocher de problèmes déjà connus dans la littérature statistique, estimation de l'intégrale de f au carré, tests d'homogénéité en norme L2, résultats de convergence d'estimateurs adoptant un seuillage par bloc. <br /><br />On propose des estimateurs du contraste L2 qui atteignent la vitesse minimax optimale du problème de intégrale de f au carré. Ces estimateurs de type U-statistique ont des complexités numériques quadratique en n, ce qui peut poser un problème pour la minimisation du contraste à suivre, en vue d'obtenir l'estimation concrète de la matrice A. En revanche, ces estimateurs admettent une forme de seuillage par bloc où la connaissance de la régularité s de la densité multivariée sous-jacente est inutile pour obtenir une vitesse optimale.<br /><br />On propose un estimateur de type plug-in dont la vitesse de convergence est sous-optimale mais qui est de complexité numérique linéaire en n. L'estimateur plug-in admet aussi une forme seuillée terme à terme, qui dégrade la vitesse de convergence mais permet d'obtenir un critère auto-adaptatif. Dans sa version linéaire, l'estimateur plug-in semble déjà quasiment auto-adaptatif dans les faits, c'est-à-dire que sous la contrainte 2^{jd} < n, où d est la dimension du problème et n le nombre d'observations, la majorité des résolutions j permettent d'estimer A après minimisation.<br /><br />Pour obtenir ces résultats on a été amené à développer une technique combinatoire spécifique permettant de majorer le moment d'ordre r d'une U-statistique ou d'une V-statistique. Les résultats classiques sur les U-statistiques ne sont en effet pas directement utilisables et pas facilement adaptables dans le contexte d'étude de la thèse. La méthode développée est utilisable dans d'autres contextes.<br /><br />La méthode par ondelettes s'appuie sur le paradigme usuel estimation d'un critère de dépendance, puis minimisation. On étudie donc dans la thèse les éléments permettant de faciliter la minimisation. On donne notamment des formulations du gradient et du hessien de l'estimateur du contraste qui se prêtent à un changement de résolution par simple filtrage et qui se calculent selon une complexité équivalente à celle de l'évaluation de l'estimateur lui même. <br /><br />Des simulations proposées dans la thèse confirment l'applicabilité de la méthode et donnent des résultats excellents. Tous les éléments nécessaires à l'implémentation de la méthode, et le code commenté des parties clefs de la programmation (notamment des algorithmes d-dimensionnels) figurent également dans le document.
35

Estimation adaptative par sélection de partitions en rectangles dyadiques

Akakpo, Nathalie 07 December 2009 (has links) (PDF)
Dans cette thèse, nous étudions divers problèmes d'estimation par sélection d'estimateurs constants ou polynomiaux par morceaux sur des partitions en intervalles ou rectangles dyadiques, en utilisant un critère de type moindres carrés pénalisé adéquat. Nos travaux portent sur trois sujets différents. Nous nous intéressons tout d'abord à l'estimation d'une loi de probabilité discrète, ainsi qu'à une application à la détection de ruptures multiples. Puis, nous proposons un cadre unifié pour l'estimation fonctionnelle basée sur des données éventuellement censurées. Enfin, nous étudions simultanément l'estimation de densité multivariée et de densité conditionnelle pour des données dépendantes. Le choix de la collection de partitions en intervalles ou rectangles dyadiques s'avère intéressant aussi bien en théorie qu'en pratique. En effet, notre estimateur pénalisé vérifie dans chacun des cadres une inégalité de type oracle non-asymptotique, pour une pénalité bien choisie. Il atteint également la vitesse minimax à constante près sur de nombreuses classes de fonctions, dont la régularité est éventuellement à la fois non homogène et non isotrope. Cette propriété, qui à notre connaissance n'a été démontrée pour aucun autre estimateur, repose sur des résultats d'approximation dont les preuves sont inspirées d'un article de DeVore et Yu. Par ailleurs, le calcul de notre estimateur dans un cadre univarié est basé sur un algorithme de plus court chemin dont la complexité est seulement linéaire en la taille de l'échantillon.
36

Contribution à l'analyse de textures en traitement d'images par méthodes variationnelles et équations aux dérivées partielles

Aujol, Jean-François 17 June 2004 (has links) (PDF)
Cette thèse est un travail en mathématiques appliquées. Elle aborde quelques problèmes en analyse d'images et utilise des outils mathématiques spécifiques.<br /><br />L'objectif des deux premières parties de cette thèse <br /> est de proposer un modèle pour décomposer une image f en trois composantes : f=u+v+w.<br />La première composante, u, contient l'information géométrique. On peut la considérer comme une esquisse de l'image originale f.<br />La seconde composante, v, contient l'information texture.<br />La troisième composante, w, contient le bruit présent dans l'image originale.<br />Notre approche repose sur l'utilisation d'espaces mathématiques <br />adaptés à chaque composante: l'espace BV des fonctions à variations bornées pour u, un espace G proche du dual de BV pour les textures, et un espace de Besov d'exposant négatif E pour le bruit.<br />Nous effectuons l'étude mathématique complète des différents modèles que nous proposons.<br />Nous illustrons notre approche par de nombreux exemples, et donnons deux applications concrètes : une première en restauration d'images RSO, et une seconde en compression d'images.<br /><br /><br />Dans la troisième et dernière partie de cette thèse, nous nous intéressons <br />spécifiquement à la composante texturée.<br />Nous proposons un algorithme de classification supervisée pour les images texturées. L'approche utilisée est basée sur l'utilisation de la méthode des contours actifs et d'un terme d'attache aux donnés spécifiques au textures. Ce dernier est construit à partir d'une transformée en paquets d'ondelettes. Nous obtenons ainsi une fonctionnelle, dont le minimum correspond à la classification cherchée. Nous résolvons numériquement ce problème à l'aide d'un système couplé d'EDP que nous plongeons dans un schéma dynamique. Nous illustrons notre démarche par de nombreux exemples numériques. Nous effectuons également l'étude théorique de la fonctionnelle de classification.
37

Restauration de signaux bruités observés sur des plans d'expérience aléatoires

Maxim, Voichita 03 October 2003 (has links) (PDF)
Cette thèse porte sur la restauration des signaux bruités observés sur des plans d'expérience aléatoires. Trois méthodes sont proposées. Dans les deux premières, on se ramène (soit par préconditionnement des données initiales, soit par régression polynomiale locale), à un problème de régression sur grille régulière. Des majorations asymptotiques de l'erreur d'estimation sont données pour les deux méthodes, sur des classes de fonctions holderiennes pour la première et sur des boules d'espaces de Besov pour la deuxième. La vitesse de décroissance de l'erreur est dans les deux cas très proche de la vitesse optimale. Un troisième algorithme concerne les plans d'expérience déterministes et utilise les ondelettes adaptées à la grille. Elles sont construites par des schémas de subdivision non réguliers, dont on étudie la convergence et les propriétés. Des nombreuses simulations et une étude comparative illustrent le comportement des trois algorithmes quand ils sont appliqués à des échantillons de taille finie.
38

Gaussian structures and orthogonal polynomials

Larsson-Cohn, Lars January 2002 (has links)
<p>This thesis consists of four papers on the following topics in analysis and probability: analysis on Wiener space, asymptotic properties of orthogonal polynomials, and convergence rates in the central limit theorem. The first paper gives lower bounds on the constants in the Meyer inequality from the Malliavin calculus. It is shown that both constants grow at least like <i>(p-1)</i><sup>-1</sup> or like <i>p</i> when <i>p</i> approaches 1 or ∞ respectively. This agrees with known upper bounds. In the second paper, an extremal problem on Wiener chaos motivates an investigation of the <i>L</i><sup>p</sup>-norms of Hermite polynomials. This is followed up by similar computations for Charlier polynomials in the third paper. In both cases, the <i>L</i><sup>p</sup>-norms present a peculiar behaviour with certain threshold values of p, where the growth rate and the dominating intervals undergo a rapid change. The fourth paper analyzes a connection between probability and numerical analysis. More precisely, known estimates on the convergence rate of finite difference equations are "translated" into results on convergence rates of certain functionals in the central limit theorem. These are also extended, using interpolation of Banach spaces as a main tool. Besov spaces play a central role in the emerging results.</p>
39

Gaussian structures and orthogonal polynomials

Larsson-Cohn, Lars January 2002 (has links)
This thesis consists of four papers on the following topics in analysis and probability: analysis on Wiener space, asymptotic properties of orthogonal polynomials, and convergence rates in the central limit theorem. The first paper gives lower bounds on the constants in the Meyer inequality from the Malliavin calculus. It is shown that both constants grow at least like (p-1)-1 or like p when p approaches 1 or ∞ respectively. This agrees with known upper bounds. In the second paper, an extremal problem on Wiener chaos motivates an investigation of the Lp-norms of Hermite polynomials. This is followed up by similar computations for Charlier polynomials in the third paper. In both cases, the Lp-norms present a peculiar behaviour with certain threshold values of p, where the growth rate and the dominating intervals undergo a rapid change. The fourth paper analyzes a connection between probability and numerical analysis. More precisely, known estimates on the convergence rate of finite difference equations are "translated" into results on convergence rates of certain functionals in the central limit theorem. These are also extended, using interpolation of Banach spaces as a main tool. Besov spaces play a central role in the emerging results.
40

Méthodes variationnelles en traitement d'image

Haddad, Ali 13 June 2005 (has links) (PDF)
L'objet de cette thèse est d'étudier les propriétés mathématiques de quelques modèles utilisés entraitement d'image. Suivant S. J. Osher, L. Rudin et E. Fameti, nous décomposons une image f de L² en une somme u+v où u appartient à un espace de Banach fonctionnel E et v appartient à L². L'espace E doit modéliser les objets contenus dans l'image et la décomposition optimale minimise l'énergie J(u)=||u||_E+\lambda||f-u||^2_2. La difficulté majeure est de choisir un espace E adapté. Les choix classiques sont E=\dot{B}^{1,1}_1(\R^2), qui conduit au célèbre "wavelet thresholding" de Donoho, ou E=BV(\R^2), l'espace des fonctions à variations bornées. Le dernier choix définit l'algorithme d'Osher-Rudin-Fatemi. Ces deux choix ont des défauts. Le premier efface les bords nets. Le second ne conduit pas à un seuillage des coefficients d'ondelettes. Nous proposons alors de prendre E=\B1inf(\R^2), qui conserve les bords nets et conduit à un seuillage des coefficients d'ondelette. Ce sont les deux premières parties de la thèse. Dans la troisième partie, nous étudions les propriétés mathématiques de l'algorithme 'Osher-Vese qui traite mieux les composantes texturées.

Page generated in 0.0264 seconds