• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 169
  • 146
  • 1
  • 1
  • Tagged with
  • 490
  • 490
  • 482
  • 323
  • 320
  • 55
  • 45
  • 44
  • 41
  • 38
  • 35
  • 33
  • 33
  • 32
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Sur la pureté des fibres de Springer affines non-ramifiées pour GL4

Chen, Zongbin 05 December 2011 (has links) (PDF)
La thèse consiste de deux parties. Dans la première partie, on montre la pureté des fibres de Springer affines pour $\gl_{4}$ dans le cas non-ramifié. Plus précisément, on construit une famille de pavages non standard en espaces affines de la grassmannienne affine, qui induisent des pavages en espaces affines de la fibre de Springer affine. Dans la deuxième partie, on introduit une notion de $\xi$-stabilité sur la grassmannienne affine $\xx$ pour le groupe $\gl_{d}$, et on calcule le polynôme de Poincaré du quotient $\xx^{\xi}/T$ de la partie $\xi$-stable $\xxs$ par le tore maximal $T$ par une processus analogue de la réduction de Harder-Narasimhan.
42

Prévision non paramétrique de processus à valeurs fonctionnelles : application à la consommation d'électricité

Cugliari, Jairo 24 October 2011 (has links) (PDF)
Nous traitons dans cette thèse le problème de la prédiction d'un processus stochastique à valeurs fonctionnelles. Nous commençons par étudier le modèle proposé par Antoniadis et al. (2006) dans le cadre d'une application pratique -la demande d'énergie électrique en France- où l'hypothèse de stationnarité semble ne pas se vérifier. L'écart du cadre stationnaire est double: d'une part, le niveau moyen de la série semble changer dans le temps, d'autre part il existe groupes dans les données qui peuvent être vus comme des classes de stationnarité.Nous explorons corrections qui améliorent la performance de prédiction. Les corrections visent à prendre en compte la présence de ces caractéristiques non stationnaires. En particulier, pour traiter l'existence de groupes, nous avons contraint le modèle de prévision à n'utiliser que les données qui appartiennent au même groupe que celui de la dernière observation disponible. Si le regroupement est connu, un simple post-traitement suffit pour obtenir des meilleures performances de prédiction.Si le regroupement en blocs est inconnu, nous proposons de découvrir le regroupement en utilisant des algorithmes d'analyse de classification non supervisée. La dimension infinie des trajectoires, pas nécessairement stationnaires, doit être prise en compte par l'algorithme. Nous proposons deux stratégies pour ce faire, toutes les deux basées sur les transformées en ondelettes. La première se base dans l'extraction d'attributs associés à la transformée en ondelettes discrète. L'extraction est suivie par une sélection des caractéristiques le plus significatives pour l'algorithme de classification. La seconde stratégie classifie directement les trajectoires à l'aide d'une mesure de dissimilarité sur les spectres en ondelettes. La troisième partie de la thèse est consacrée à explorer un modèle de prédiction alternatif qui intègre de l'information exogène. A cet effet, nous utilisons le cadre des processus Autorégressifs Hilbertiens. Nous proposons une nouvelle classe de processus que nous appelons processus Conditionnels Autorégressifs Hilbertiens (CARH). Nous développons l'équivalent des estimateurs par projection et par résolvant pour prédire de tels processus.
43

Plusieurs approches en ondelettes pour la séparation et déconvolection de composantes. Application à des données astrophysiques.

Anthoine, Sandrine 05 August 2005 (has links) (PDF)
Cette thèse est consacree au problµeme de separation de composantes lorsque celles ci sont des images de structure differente et que l'on en observe un ou plusieurs melange(s) ou(s) et bruite(s). Les problµemes de deconvolution et de separation, traditionnellement etudies separement, sont ici traites simultanément. Une façon naturelle d'aborder le problµeme multicomposants/multiobservations est de generaliser les techniques de deconvolution d'une image unique. Le premier resultat presente est une etude mathematique d'un tel algorithme. Preuve est faite que celuici est convergent mais pas regularisant et une modification restaurant cette propriete est proposee. Le sujet principal est le developpement et la comparaison de deux methodes pour traiter la deconvolution et separation simultanees de composantes. La premiµere methode est basee sur les propriétes statistiques locales des composantes tandis que dans la seconde, ces signaux sont decrits par des espaces fonctionnels. Les deux methodes utilisent des transformees en ondelettes redondantes pour simplifier les donnees. Les performances des deux algorithmes sont evaluees et comparees dans le cadre d'un problµeme astrophysique : celui de l'extraction des amas de galaxies par l'effet Sunyaev-Zel'dovich dans les images multispectrales des anisotropies du fond cosmique. Des simulations realistes sont etudiees. On montre qu'µa haute resolution et niveau de bruit modere, les deux methodes permettent d'extraire des cartes d'amas de galaxies de qualite suffisante pour des etudes cosmologiques. Le niveau de bruit est un facteur limitant µa basse resolution et la methode statistique est robuste µa la presence de points sources.
44

Lissage multi-échelle sur GPU des images et volumes avec préservation des détails

Jibai, Nassim 24 May 2012 (has links) (PDF)
Les images et données volumiques sont devenues importantes dans notre vie quotidienne que ce soit sur le plan artistique, culturel, ou scientifique. Les données volumiques ont un intérêt important dans l'imagerie médicale, l'ingénierie, et l'analyse du patrimoine culturel. Ils sont créées en utilisant la reconstruction tomographique, une technique qui combine une large série de scans 2D capturés de plusieur points de vue. Chaque scan 2D est obtenu par des methodes de rayonnement : Rayons X pour les scanners CT, ondes radiofréquences pour les IRM, annihilation électron-positron pour les PET scans, etc. L'acquisition des images et données volumique est influencée par le bruit provoqué par différents facteurs. Le bruit dans les images peut être causée par un manque d'éclairage, des défauts électroniques, faible dose de rayonnement, et un mauvais positionnement de l'outil ou de l'objet. Le bruit dans les données volumique peut aussi provenir d'une variété de sources : le nombre limité de points de vue, le manque de sensibilité dans les capteurs, des contrastes élevé, les algorithmes de reconstruction employés, etc. L'acquisition de données non bruitée est iréalisable. Alors, il est souhaitable de réduire ou d'éliminer le bruit le plus tôt possible dans le pipeline. La suppression du bruit tout en préservant les caractéristiques fortes d'une image ou d'un objet volumique reste une tâche difficile. Nous proposons une méthode multi-échelle pour lisser des images 2D et des données tomographiques 3D tout en préservant les caractéristiques à l'échelle spécifiée. Notre algorithme est contrôlé par un seul paramètre - la taille des caractéristiques qui doivent être préservées. Toute variation qui est plus petite que l'échelle spécifiée est traitée comme bruit et lissée, tandis que les discontinuités telles que des coins, des bords et des détails à plus grande échelle sont conservés. Nous démontrons les données lissées produites par notre algorithme permettent d'obtenir des images nettes et des iso-surfaces plus propres. Nous comparons nos résultats avec ceux des methodes précédentes. Notre méthode est inspirée par la diffusion anisotrope. Nous calculons nos tenseurs de diffusion à partir des histogrammes continues locaux de gradients autour de chaque pixel dans les images et autour de chaque voxel dans des volumes. Comme notre méthode de lissage fonctionne entièrement sur GPU, il est extrêmement rapide.
45

Représentations de Weil pour les groupes de similitudes et changement de base

Wang, Chun Hui 03 July 2012 (has links) (PDF)
La présente thèse s'inscrit dans le cadre de travaux sur la représentation de Weil. Elle consiste en trois parties. Aux chapitres 2 et 3, on généralise la correspondance de Howe aux groupes de similitudes sur un corps local non archimédien de caractéristique résiduelle impaire. Aux chapitres 4 et 5, on répond dans beaucoup de cas à une question, soulevée par V. Drinfeld, sur la représentation de Weil de GSp8(F) de restreinte à un groupe GL2(A), où A est une algègre étale sur un corps local ou fini F. D'autre part, au chapitre 5, on montre que sur un corps fini, les représentations de Weil sont compatibles au changement de base au sens de Shintani-lift.
46

Fragmentation et propriétés algébriques des groupes d'homéomorphismes

Militon, Emmanuel 26 October 2012 (has links) (PDF)
Dans cette thèse, nous nous intéressons à diverses propriétés algébriques des groupes d'homéomorphismes et de difféomorphismes de variétés. On appelle fragmentation la possibilité d'écrire un homéomorphisme en tant que composé d'homéomorphismes supportés dans des boules. Tout d'abord, nous étudions la longueur des commutateurs sur le groupe des homéomorphismes du tore et de l'anneau, ainsi que la norme de fragmentation, qui associe à tout homéomorphisme le nombre minimal de facteurs nécessaires pour écrire cet homéomorphisme en tant que composé d'homéomorphismes supportés dans des boules. Dans une deuxième partie de la thèse, nous abordons una autre propriété algébrique des groupes d'homéomorphismes et de difféomorphismes : la distorsion. Celle-ci est reliée de manière surprenante à des propriétés de fragmentation des homéomorphismes.
47

Modèle de Hartree-Fock-Bogoliubov : une perspective théorique et numérique

Paul, Séverine 30 September 2012 (has links) (PDF)
Cette thèse est consacrée à l'étude mathématique et numérique du modèle de Hartree-Fock-Bogoliubov (HFB) pour les systèmes quantiques attractifs, qui est abondamment utilisé en physique nucléaire. Après avoir présenté le modèle et ses principales caractéristiques, nous expliquons comment le discrétiser et nous montrons des résultats de convergence. Nous examinons tout particulièrement l'algorithme de point fixe (parfois appelé Roothaan) et montrons qu'il converge ou alors oscille entre deux états dont aucun n'est solution du problème. Ceci généralise au cadre HFB des résultats de Cancès et Le Bris pour le modèle plus simple de Hartree-Fock dans le cas répulsif. Suivant ces mêmes auteurs, nous proposons un algorithme basé sur la contrainte relachée et pour lequel la convergence est garantie. Dans dernière partie de la thèse, nous illustrons le comportement de ces algorithmes par des simulations numériques pour plusieurs modèles. Dans un premier temps nous considérons un système purement gravitationnel où les particules interagissent avec le potentiel de Newton. Nos simulations montrent que la matrice d'appariement est toujours non nulle, un fait qui n'a pas encore pu être démontré rigoureusement. Nous étudions ensuite un modèle très simplifié pour la description de protons et neutrons dans le noyau atomique.
48

Problèmes aux limites dispersifs linéaires non homogènes, application au système d'Euler-Korteweg

Audiard, Corentin 01 December 2010 (has links) (PDF)
Le but principal de cette thèse est d'obtenir des résultats d'existence et d'unicité pour des équations aux dérivées partielles dispersives avec conditions aux limites non homogènes. L'approche privilégiée est l'adaptation de techniques issues de la théorie classique des problèmes aux limites hyperboliques (que l'on rappelle au chapitre 1, en améliorant légèrement un résultat). On met en évidence au chapitre 3 une classe d'équations linéaires qu'on peut qualifier de dispersives satisfaisant des critères "minimaux", et des résultats d'existence et d'unicité pour le problème aux limites associé à celles-ci sont obtenus au chapitre 4.Le fil rouge du mémoire est le modèle d'Euler-Korteweg, pour lequel on aborde l'analyse du problème aux limites sur une version linéarisée au chapitre 2. Toujours pour cette version linéarisée, on prouve un effet Kato-régularisant au chapitre 3. Enfin l'analyse numérique du modèle est abordée au chapitre 5. Pour cela, on commence par utiliser les résultats précédents pour décrire une manière simple d'obtenir les conditions aux limites dites transparentes dans le cadre des équations précédemment décrites puis on utilise ces conditions aux limites pour le modèle d'Euler-Korteweg semi-linéaire afin d'observer la stabilité/instabilité des solitons, ainsi qu'un phénomène d'explosion en temps fini.
49

Modèles et méthodes actuarielles pour l'évaluation quantitative des risques en environnement solvabilité II

Ben Dbabis, Makram 14 December 2012 (has links) (PDF)
Les nouvelles normes prudentielles Solvabilité II se penchent sur question du contrôle de la solvabilité des acteurs de marché d'assurance et de réassurance. Nous nous sommes proposé dans cette thèse de présenter les moyens techniques permettant la recherche des besoins de couverture de la solvabilité des assureurs se traduisant par la mise en œuvre d'une probabilité de ruine à moins de 0,5%, dans le cadre des modèles internes. La première partie, en mettant l'accent sur le problème de valorisation économique des passifs d'assurance vie lié aux options incluses dans les contrats d'assurance et donc d'obtention de la distribution de la situation nette à un 1 an et donc de son quantile d'ordre 0.5%, présentera les différentes approches de modélisation permettant de contourner ces problèmes :- Approche des simulations dans les simulations purement simulatoire et trop coûteuse en temps de calcul,- Algorithme d'accélération des simulations dans les simulations pour contourner les limites de la première approche,- Approche par portefeuille répliquant- Approche par fonction de perteDans une deuxième partie, l'accent sera mis sur la modélisation des risques techniques mal appréhendés par les assureurs en développant deux approches stochastiques pour modéliser, dans le cadre d'un modèle interne, les risques de longévité, de mortalité et aussi le risque dépendance. La troisième partie intéressera à l'optimisation du capital économique en mettant en œuvre la réassurance comme outil de gain en capital économique en proposant des approches de choix optimal en réassurance
50

Développement de schémas de découplage pour la résolution de systèmes dynamiques sur architecture de calcul distribuée

Pham, Duc Toan 30 September 2010 (has links) (PDF)
Nous nous intéressons dans ce mémoire à des méthodes de parallélisation par découplage du système dynamique. Plusieurs applications numériques de nos jours conduisent à des systèmes dynamiques de grande taille et nécessitent des méthodes de parallélisation en conséquence pour pouvoir être résolues sur les machines de calcul à plusieurs processeurs. Notre but est de trouver une méthode numérique à la fois consistante et stable pour réduire le temps de la résolution numérique. La première approche consiste à découpler le système dynamique en sous-systèmes contenant des sous-ensembles de variables indépendants et à remplacer les termes de couplage par l'extrapolation polynomiale. Une telle méthode a été introduite sous le nom de schéma C (p, q, j), nous améliorons ce schéma en introduisant la possibilité à utiliser des pas de temps adaptatifs. Cependant, notre étude montre que cette méthode de découplage ne peut satisfaire les propriétés numériques que sous des conditions très strictes et ne peut donc pas s'appliquer aux problèmes raides présentant des couplages forts entre les sous-systèmes. Afin de pouvoir répondre à cette problématique de découplage des systèmes fortement couplés, on introduit le deuxième axe de recherche, dont l'outil principal est la réduction d'ordre du modèle. L'idée est de remplacer le couplage entre les sous-ensembles de variables du système par leurs représentations sous forme réduite. Ces sous-systèmes peuvent être distribués sur une architecture de calcul parallèle. Notre analyse du schéma de découplage résultant nous conduit à définir un critère mathématique pour la mise à jour des bases réduites entre les sous-systèmes. La méthode de réduction d'ordre du modèle utilisée est fondée sur la décomposition orthogonale aux valeurs propres (POD). Cependant, ne disposant pas à priori des données requises pour la construction de la base réduite, nous proposons alors un algorithme de construction incrémentale de la base réduite permettant de représenter le maximum des dynamiques des solutions présentes dans l'intervalle de simulation. Nous avons appliqué la méthode proposée sur les différents systèmes dynamiques tels que l'exemple provenant d'une EDP et celui provenant de l'équation de Navier Stokes. La méthode proposée montre l'avantage de l'utilisation de l'algorithme de découplage basé sur la réduction d'ordre. Les solutions numériques sont obtenues avec une bonne précision comparées à celle obtenue par une méthode de résolution classique tout en restant très performante selon le nombre de sous-systèmes définis.

Page generated in 0.0919 seconds