• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 38
  • 22
  • 1
  • Tagged with
  • 174
  • 64
  • 51
  • 31
  • 28
  • 26
  • 25
  • 24
  • 23
  • 22
  • 20
  • 19
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Régression non-paramétrique et information spatialement inhomogène

Gaiffas, Stéphane 08 December 2005 (has links) (PDF)
Nous étudions l'estimation non-paramétrique d'un signal à partir de<br />données bruitées spatialement inhomogènes (données dont la quantité<br />varie sur le domaine d'estimation). Le prototype d'étude est le modèle<br />de régression avec design aléatoire. Notre objectif est de comprendre<br />les conséquences du caractère inhomogène des données sur le problème<br />d'estimation dans le cadre d'étude minimax. Nous adoptons deux points<br />de vue : local et global. Du point de vue local, nous nous intéressons<br />à l'estimation de la régression en un point avec peu ou beaucoup de<br />données. En traduisant cette propriété par différentes hypothèses sur<br />le comportement local de la densité du design, nous obtenons toute une<br />gamme de nouvelles vitesses minimax ponctuelles, comprenant des<br />vitesses très lentes et des vitesses très rapides. Puis, nous<br />construisons une procédure adaptative en la régularité de la<br />régression, et nous montrons qu'elle converge avec la vitesse minimax<br />à laquelle s'ajoute un coût minimal pour l'adaptation locale. Du point<br />de vue global, nous nous intéressons à l'estimation de la régression<br />en perte uniforme. Nous proposons des estimateurs qui convergent avec<br />des vitesses dépendantes de l'espace, lesquelles rendent compte du<br />caractère inhomogène de l'information dans le modèle. Nous montrons<br />l'optimalité spatiale de ces vitesses, qui consiste en un renforcement<br />de la borne inférieure minimax classique pour la perte uniforme. Nous<br />construisons notamment un estimateur asymptotiquement exact sur une<br />boule de Hölder de régularité quelconque, ainsi qu'une bande de<br />confiance dont la largeur s'adapte à la quantité locale de données.
122

Représentations des algèbres affinisées quantiques : q,t-caractères et produit de fusion

Hernandez, David 21 October 2004 (has links) (PDF)
Dans cette thèse nous proposons plusieurs contributions à l'étude des groupes quantiques et de leurs représentations. Dans le cadre de l'étude des représentations de dimension finie des algèbres affines quantiques, nous proposons une nouvelle construction algébrique générale des q,t-caractères (t-déformations des q-caractères de Frenkel-Reshetikhin), indépendante de la construction géométrique de Nakajima (cette dernière n'est valable que pour le cas ADE). Cela nous permet d'étendre la quantification de l'anneau de Grothendieck et la définition des analogues des polynômes de Kazhdan-Lusztig aux cas non simplement lacés. Par ailleurs nous établissons une décomposition triangulaire des affinisées quantiques générales (incluant les algèbres affines et toroïdales quantiques) et classifions leurs représentations intégrables de plus haut poids. Nous proposons une nouvelle construction d'un produit de fusion en définissant une déformation du ``nouveau coproduit de Drinfel'd''.
123

Calcul des invariants de groupes de permutations par transformee de fourier.

Borie, Nicolas 07 December 2011 (has links) (PDF)
Cette thèse porte sur trois problèmes en combinatoire algébrique effective et algorithmique.Les premières parties proposent une approche alternative aux bases de Gröbner pour le calcul des invariants secondaires des groupes de permutations, par évaluation en des points choisis de manière appropriée. Cette méthode permet de tirer parti des symétries du problème pour confiner les calculs dans un quotient de petite dimension, et ainsi d'obtenir un meilleur contrôle de la complexité algorithmique, en particulier pour les groupes de grande taille. L'étude théorique est illustrée par de nombreux bancs d'essais utilisant une implantation fine des algorithmes. Un prérequis important est la génération efficace de vecteurs d'entiers modulo l'action d'un groupe de permutation, dont l'algorithmique fait l'objet d'une partie préliminaire.La quatrième partie cherche à déterminer, pour un certain quotient naturel d'une algèbre de Hecke affine, quelles spécialisations des paramètres aux racines de l'unité donne un comportement non générique.Finalement, la dernière partie présente une conjecture sur la structure d'une certaine $q$-déformation des polynômes harmoniques diagonaux en plusieurs paquets de variables pour la famille infinie de groupes de réflexions complexes.Tous ces chapitres s'appuient fortement sur l'exploration informatique, et font l'objet de multiples contributions au logiciel Sage.
124

Représentation d'un polynôme par un circuit arithmétique et chaînes additives

Elias, Yara 04 1900 (has links)
Un circuit arithmétique dont les entrées sont des entiers ou une variable x et dont les portes calculent la somme ou le produit représente un polynôme univarié. On assimile la complexité de représentation d'un polynôme par un circuit arithmétique au nombre de portes multiplicatives minimal requis pour cette modélisation. Et l'on cherche à obtenir une borne inférieure à cette complexité, et cela en fonction du degré d du polynôme. A une chaîne additive pour d, correspond un circuit arithmétique pour le monôme de degré d. La conjecture de Strassen prétend que le nombre minimal de portes multiplicatives requis pour représenter un polynôme de degré d est au moins la longueur minimale d'une chaîne additive pour d. La conjecture de Strassen généralisée correspondrait à la même proposition lorsque les portes du circuit arithmétique ont degré entrant g au lieu de 2. Le mémoire consiste d'une part en une généralisation du concept de chaînes additives, et une étude approfondie de leur construction. On s'y intéresse d'autre part aux polynômes qui peuvent être représentés avec très peu de portes multiplicatives (les d-gems). On combine enfin les deux études en lien avec la conjecture de Strassen. On obtient en particulier de nouveaux cas de circuits vérifiant la conjecture. / An arithmetic circuit with inputs among x and the integers which has product gates and addition gates represents a univariate polynomial. We define the complexity of the representation of a polynomial by an arithmetic circuit as the minimal number of product gates required for this modelization. And we seek a lower bound to this complexity, with respect to the degree d of the polynomial. An addition chain for d corresponds to an arithmetic circuit computing the monomial of degree d. Strassen's conjecture states that the minimal number of product gates required to represent a polynomial of degree d is at least the minimal length of an addition chain for d. The generalized Strassen conjecture corresponds to the same statement where the indegree of the gates of the arithmetic circuit is g instead of 2. The thesis consists, on the one hand, of the generalization of the concept of addition chains, and a study of the subject. On the other hand, it is concerned with polynomials which can be represented with very few product gates (d-gems). Both studies related to Strassen's conjecture are combined. In particular, we get new classes of circuits verifying the conjecture.
125

Énumération de polyominos définis en terme d'évitement de motif ou de contraintes de convexité

Battaglino, Daniela 26 June 2014 (has links) (PDF)
Dans cette thèse nous étudions la caractérisation et l'énumération de polyominos définis par des contraintes de convexité et ou d'évitement de motifs. Nous nous intéressons à l'énumération des polyominos k-convexes selon le semi périmètre, qui n'était connue que pour k=1,2. Nous énumérons une sous classe, les polyominos k-parallélogrammes, grâce à une décomposition récursive dont nous déduisons la fonction génératrice qui est rationnelle. Cette fonction génératrice s'exprime à l'aide des polynômes de Fibonacci, ce qui nous permet d'en déduire une bijection avec les arbres planaires ayant une hauteur inférieure ou égale à k+2. Dans la deuxième partie, nous examinons la notion d'évitement de motif, qui a été essentiellement étudiée pour les permutations. Nous introduisons ce concept dans le contexte de matrices de permutations et de polyominos. Nous donnons des définitions analogues à celles données pour les permutations et nous explorons ses propriétés ainsi que celles du poste associé. Ces deux approches peuvent être utilisées pour traiter des problèmes ouverts sur les polyominos ou sur d'autres objets combinatoires.
126

Codes correcteurs avec les polynômes tordus

Chaussade, Lionel 22 November 2010 (has links) (PDF)
Les anneaux de polynômes sont l'un des outils privilégiés pour construire et étudier des familles de codes correcteurs. Nous nous proposons, dans cette thèse, d'utiliser des anneaux de Öre, qui sont des anneaux de polynômes non-commutatifs, afin de créer des codes correcteurs. Cette approche nous permet d'obtenir des familles de codes correcteurs plus larges que si l'on se restreint au cas commutatif mais qui conservent de nombreuses propriétés communes. Nous obtenons notamment un algorithme qui permet de fabriquer des codes correcteurs dont la distance de Hamming ou la distance rang est prescrite. C'est ainsi que nous avons exhibé deux codes qui améliorent la meilleure distance minimale connue pour un code de même longueur et de même dimension. L'un est de paramètres $[42,14,21]$ sur le corps $\mathbb{F}_8$ et l'autre de paramètres $[40,23,10]$ sur $\mathbb{F}_4$. La généralisation de cette étude au cas d'anneaux polynomiaux multivariés est également présentée; l'outil principal est alors la théorie des bases de Gröbner qui s'adapte dans ce cadre non-commutatif et permet de manipuler des idéaux pour créer de nouvelles familles de codes correcteurs.
127

Méthodes ensemblistes pour une localisation robuste de robots sous-marins

Sliwka, Jan 06 December 2011 (has links) (PDF)
Pour qu'un robot autonome puisse interagir proprement avec son milieu, ce dernier doit connaitre d'une part l'environnement dans lequel il évolue et d'autre part son état dans cet environnement. En particulier, un robot doit savoir où il est pour savoir où il doit aller. Depuis l'apparition du GPS, le problème de la localisation a été pratiquement résolu pour les robots terrestres. Le GPS ne fonctionne pas sous l'eau. Toutefois, le nombre d'opérations sous-marines augmente de manière significative chaque année. Dans notre école, nous développons un robot sous-marin pour tester des systèmes de localisation sous-marins. Le capteur principal que nous utilisons est un sonar sectoriel. Un sonar est un capteur acoustique qui positionne les objets acoustiquement réfléchissant. Par exemple, le sonar peut être utilisé pour détecter les parois d'un port. Ce capteur donne souvent des mesures aberrantes. Une telle mesure peut être due à une défaillance électrique du capteur ou d'un phénomène non pris en compte lors de la modélisation de l'environnement. Le nombre de mesures aberrantes est souvent inconnu et varie avec le temps. Le but de la thèse est de résoudre le problème de localisation avec de telles données. Un problème de localisation peut être formulé en tant que problème de satisfaction de contraintes (CSP en anglais). Un CSP est en gros un système d'équations (contraintes). Ici, l'inconnu est la pose du robot. Pour chaque mesure on obtient une contrainte reliant la pose, la mesure et l'environnement. La solution classique d'un CSP est l'ensemble des points (poses) qui satisfont toutes les contraintes. Toutefois, a cause des données aberrantes de tels points peuvent ne pas exister. Le nouveau problème consiste à trouver une solution d'un CSP lorsque une partie seulement de contraintes est satisfaite. Nous appelons ce problème un CSP relaxé. Une des contributions majeures à la thèse était de trouver plusieurs représentations de la solution d'un CSP relaxé ainsi que les algorithmes qui permettent de calculer ces solutions. La première représentation est sous la forme d'un polynôme dont les coefficients sont des ensembles que nous appelons polynômes ensemblistes. Chaque coefficient correspond à l'ensemble des points qui satisfont le nombre de contraintes égal au degré du coefficient dans le polynôme. Une telle représentation permet d'utiliser l'arithmétique des polynômes pour calculer le polynôme solution. Une deuxième représentation est sous la forme d'une fonction, qu'on appelle accumulateur, qui pour chaque élément de l'espace de recherche retourne le nombre de contraintes satisfaites. Un des obstacles à surmonter pour résoudre les problèmes de localisation est la représentation de la carte. En cas d'environnements structurés, il est possible de représenter la carte par un ensemble d'objets paramétrés tels que des segments, polygones ou des courbes. En cas d'environnements non structurées où en partie structurées tels que des cartes marines ou des cartes routières, l'idée est de représenter la carte (qui est en fait un ensemble de points) sous la forme d'une image binaire où les pixels d'intérêt (noir par exemple) représentent l'ensemble des points de la carte. Une des contributions majeures de la thèse était d'incorporer une telle représentation de la carte dans le formalisme d'un CSP ou d'un CSP relaxé sous la forme d'un contracteur appelé le contracteur sur l'image. L'utilité de ces deux contributions est montrée par un exemple de localisation d'un vrai robot dans une marina abandonnée. La thèse contient plusieurs autres contributions aux méthodes ensemblistes et la théorie des contracteurs.
128

Modèles non linéaires et prévision

Madkour, Jaouad 19 April 2013 (has links) (PDF)
L'intérêt des modèles non-linéaires réside, d'une part, dans une meilleure prise en compte des non-linéaritéscaractérisant les séries macroéconomiques et financières et, d'autre part, dans une prévision plus riche en information.A ce niveau, l'originalité des intervalles (asymétriques et/ou discontinus) et des densités de prévision (asymétriqueset/ou multimodales) offerts par cette nouvelle forme de modélisation suggère qu'une amélioration de la prévisionrelativement aux modèles linéaires est alors possible et qu'il faut disposer de tests d'évaluation assez puissants pourvérifier cette éventuelle amélioration. Ces tests reviennent généralement à vérifier des hypothèses distributionnellessur les processus des violations et des transformées probabilistes associés respectivement à chacune de ces formes deprévision. Dans cette thèse, nous avons adapté le cadre GMM fondé sur les polynômes orthonormaux conçu parBontemps et Meddahi (2005, 2012) pour tester l'adéquation à certaines lois de probabilité, une approche déjà initiéepar Candelon et al. (2011) dans le cadre de l'évaluation de la Value-at-Risk. Outre la simplicité et la robustesse de laméthode, les tests développés présentent de bonnes propriétés en termes de tailles et de puissances. L'utilisation denotre nouvelle approche dans la comparaison de modèles linéaires et de modèles non-linéaires lors d'une analyseempirique a confirmé l'idée selon laquelle les premiers sont préférés si l'objectif est le calcul de simples prévisionsponctuelles tandis que les derniers sont les plus appropriés pour rendre compte de l'incertitude autour de celles-ci.
129

Théorème de Kaplansky effectif et uniformisation locale des schémas quasi-excellents

San Saturnino, Jean-Christophe 02 July 2013 (has links) (PDF)
La résolution de singularités des courbes sur C est connue depuis longtemps et possède de nombreuses preuves. L'une d'entre elles consiste à utiliser le théorème de Newton-Puiseux pour obtenir l'uniformisation locale d'une valuation centrée sur l'anneau de départ. Ce théorème fournit une série de Puiseux permettant de paramétrer les branches de la courbe ainsi qu'un ensemble de polynômes décrivant complètement la valuation. Dans cette thèse, nous généralisons cette méthode à l'aide des polynômes-clés indexés sur un ensemble bien ordonné qui deviennent, après éclatements, des coordonnées. Notre premier résultat fournit une généralisation effective du théorème de Newton-Puiseux pour une valuation de rang 1, centrée sur un anneau local régulier et complet, ainsi que des résultats de dépendance intégrale sur les séries tronquées. Dans un second temps, nous montrons qu'il n'y a pas de polynômes-clés limites en caractéristique nulle et proposons une méthode pour obtenir l'uniformisation locale des schémas quasi-excellents. Cette méthode consiste à désingulariser l'idéal premier implicite, engendré par un polynôme, en monomialisant les polynômes-clés. Enfin, en caractéristique positive ou mixte, nous montrons que, pour obtenir l'uniformisation locale, il suffit, sous certaines conditions, de monomialiser le premier polynôme-clé limite.
130

Résolution de problème inverse et propagation d'incertitudes : application à la dynamique des gaz compressibles

Birolleau, Alexandre 30 April 2014 (has links) (PDF)
Cette thèse porte sur la propagation d'incertitudes et la résolution de problème inverse et leur accélération par Chaos Polynomial. L'objectif est de faire un état de l'art et une analyse numérique des méthodes spectrales de type Chaos Polynomial, d'en comprendre les avantages et les inconvénients afin de l'appliquer à l'étude probabiliste d'instabilités hydrodynamiques dans des expériences de tubes à choc de type Richtmyer-Meshkov. Le second chapitre fait un état de l'art illustré sur plusieurs exemples des méthodes de type Chaos Polynomial. Nous y effectuons son analyse numérique et mettons en évidence la possibilité d'améliorer la méthode, notamment sur des solutions irrégulières (en ayant en tête les difficultés liées aux problèmes hydrodynamiques), en introduisant le Chaos Polynomial généralisé itératif. Ce chapitre comporte également l'analyse numérique complète de cette nouvelle méthode. Le chapitre 3 a fait l'objet d'une publication dans Communication in Computational Physics, celle-ci a récemment été acceptée. Il fait l'état de l'art des méthodes d'inversion probabilistes et focalise sur l'inférence bayesienne. Il traite enfin de la possibilité d'accélérer la convergence de cette inférence en utilisant les méthodes spectrales décrites au chapitre précédent. La convergence théorique de la méthode d'accélération est démontrée et illustrée sur différents cas-test. Nous appliquons les méthodes et algorithmes des deux chapitres précédents à un problème complexe et ambitieux, un écoulement de gaz compressible physiquement instable (configuration tube à choc de Richtmyer-Meshkov) avec une analyse poussée des phénomènes physico-numériques en jeu. Enfin en annexe, nous présentons quelques pistes de recherche supplémentaires rapidement abordées au cours de cette thèse.

Page generated in 0.0397 seconds