• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 6
  • Tagged with
  • 12
  • 12
  • 8
  • 5
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Equations aux dérivées partielles elliptiques du quatrième ordre avec exposants critiques de Sobolev sur les variétés riemanniennes avec et sans bord

CARAFFA BERNARD, Daniela 23 April 2003 (has links) (PDF)
L'objet de cette thèse est l'étude, sur les variétés riemanniennes compactes $(V_n,g)$ de dimension $n>4$, de l'équation aux dérivées partielles elliptique de quatrième ordre $$(E)\; \Delta^2u+\nabla [a(x)\nabla u] +h(x)u= f(x)|u|^(N-2)u$$ où $a$, $h$, $f$ sont fonction $C^\infty $, avec $f(x)$ fonction constante ou partout positive et $N=(2n\over((n-4)))$ est l'exposant critique. En utilisant la méthode variationnelle on prouve dans le théorème principal que l'équation $(E)$ admet une solution $C^((5,\alpha))(V)$ $0<\alpha<1$ non nulle si une certaine condition qui dépend de la meilleure constante dans les inclusion de Sobolev ($H_2\subset L_(2n\over(n-4))$) est satisfaite. De plus on montre que si $a$ et $h$ sont des fonctions constantes bien précisées la solution de l'équation est positive et $C^\infty(V)$. Lorsque $n\geq 6$, on donne aussi des applications du théorème principal. Dans la dernière partie de cette thèse sur une variété riemannienne compacte à bord de dimension $n$, $(\overline(W)_n,g )$ nous nous intéressons au problème : $$ (P_N) \; \left\lbrace \begin(array)(c) \Delta^2 v+\nabla [a(x)\nabla u] +h(x) v= f(x)|v |^(N-2)v \; \hbox(sur)\; W \\ \Delta v =\delta \, , \, v = \eta \;\hbox(sur) \;\partial W \end(array)\right.$$ avec $\delta$,$\eta$,$f$ fonctions $C^\infty (\overline (W))$ avec $f(x)$ fonction partout positive et on démontre l'existence d'une solution non triviale pour le problème $(P_N)$.
12

Optimization framework for large-scale sparse blind source separation / Stratégies d'optimisation pour la séparation aveugle de sources parcimonieuses grande échelle

Kervazo, Christophe 04 October 2019 (has links)
Lors des dernières décennies, la Séparation Aveugle de Sources (BSS) est devenue un outil de premier plan pour le traitement de données multi-valuées. L’objectif de ce doctorat est cependant d’étudier les cas grande échelle, pour lesquels la plupart des algorithmes classiques obtiennent des performances dégradées. Ce document s’articule en quatre parties, traitant chacune un aspect du problème: i) l’introduction d’algorithmes robustes de BSS parcimonieuse ne nécessitant qu’un seul lancement (malgré un choix d’hyper-paramètres délicat) et fortement étayés mathématiquement; ii) la proposition d’une méthode permettant de maintenir une haute qualité de séparation malgré un nombre de sources important: iii) la modification d’un algorithme classique de BSS parcimonieuse pour l’application sur des données de grandes tailles; et iv) une extension au problème de BSS parcimonieuse non-linéaire. Les méthodes proposées ont été amplement testées, tant sur données simulées que réalistes, pour démontrer leur qualité. Des interprétations détaillées des résultats sont proposées. / During the last decades, Blind Source Separation (BSS) has become a key analysis tool to study multi-valued data. The objective of this thesis is however to focus on large-scale settings, for which most classical algorithms fail. More specifically, it is subdivided into four sub-problems taking their roots around the large-scale sparse BSS issue: i) introduce a mathematically sound robust sparse BSS algorithm which does not require any relaunch (despite a difficult hyper-parameter choice); ii) introduce a method being able to maintain high quality separations even when a large-number of sources needs to be estimated; iii) make a classical sparse BSS algorithm scalable to large-scale datasets; and iv) an extension to the non-linear sparse BSS problem. The methods we propose are extensively tested on both simulated and realistic experiments to demonstrate their quality. In-depth interpretations of the results are proposed.

Page generated in 0.0599 seconds