• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 169
  • 146
  • 1
  • 1
  • Tagged with
  • 490
  • 490
  • 482
  • 323
  • 320
  • 55
  • 45
  • 44
  • 41
  • 38
  • 35
  • 33
  • 33
  • 32
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Formules de courant dans les systèmes mésoscopiques

Gianesello, Céline 11 November 2011 (has links) (PDF)
Le sujet principal de la thèse est le transport dans les systèmes mésoscopiques. Dans une première partie de lathèse, on étudie le cas d'un branchement adiabatique d'un biais de potentiel sur un système unidiensionnel sansrépartition initiale. On démontre que le courant complet est uniformément borné par rapport à la vitesse debranchement adiabatique, lorsque celle-ci tend vers zéro. On démontre l'existence de la partie linéaire de l'étatet du courant. La seconde partie de la thèse a donné lieu à a publication d'un article et elle consiste en l'étuded'un modèle discret, sans répartition initiale. On démontre que, dans ce système et après une perturbationélectrochimique, il existe un état stationnaire hors équilibre, et on retrouve la formule de Landauer-Büttikerpour ce modèle. La dernière partie de la thèse, qui a également donné lieu à un article, porte sur l'étude del'approximation des guides d'onde quantiques par des graphes quantiques. On s'intéresse à un guide d'ondelocalement torsadé. On étudie moins le Laplacien sur ce guide d'onde torsadé. Lorsque e diamètre du guidetend vers zéro et, simultanément, lorqsue le support de la courbure tend vers zéro, on démontre que le graphelimite est la ligne droite, et que l'opérateur limite est moins le Laplacien sur L2 (R) plus une condition deDirichlet à l'origine. Cette condition de Dirichlet est la conséquence des rétrécissements faits. En Annexe, ondonne des démonstrations et explications plus détaillées et utiles pour la compréhension de points clés de lathèse.
82

Courbure de Ricci grossière de processus markoviens

Veysseire, Laurent 16 July 2012 (has links) (PDF)
La courbure de Ricci grossière d'un processus markovien sur un espace polonais est définie comme un taux de contraction local de la distance de Wasserstein W1 entre les lois du processus partant de deux points distincts. La première partie de cette thèse traite de résultats valables dans le cas d'espaces polonais quelconques. On montre que l'infimum de la courbure de Ricci grossière est un taux de contraction global du semigroupe du processus pour la distance W1. Quoiqu'intuitif, ce résultat est difficile à démontrer en temps continu. La preuve de ce résultat, ses conséquences sur le trou spectral du générateur font l'objet du chapitre 1. Un autre résultat intéressant, faisant intervenir les valeurs de la courbure de Ricci grossière en différents points, et pas seulement son infimum, est un résultat de concentration des mesures d'équilibre, valable uniquement en temps discret. Il sera traité dans le chapitre 2. La seconde partie de cette thèse traite du cas particulier des diffusions sur les variétés riemanniennes. Une formule est donnée permettant d'obtenir la courbure de Ricci grossière à partir du générateur. Dans le cas où la métrique est adaptée à la diffusion, nous montrons l'existence d'un couplage entre les trajectoires tel que la courbure de Ricci grossière est exactement le taux de décroissance de la distance entre ces trajectoires. Le trou spectral du générateur de la diffusion est alors plus grand que la moyenne harmonique de la courbure de Ricci. Ce résultat peut être généralisé lorsque la métrique n'est pas celle induite par le générateur, mais il nécessite une hypothèse contraignante, et la courbure que l'on doit considérer est plus faible.
83

Complex boundaries for the Totally Asymmetric Simple Exclusion process

Sonigo, Nicky 02 November 2011 (has links) (PDF)
The simple exclusion process is formally defined as follows : each particle performs a simple random walk on a set of sites and interacts with other particles by never moving on occupied sites. Despite its simplicity, this process has properties that are found in many more complex statistical mechanics models. It is the combination of the simplicity of the process and the importance of the observed phenomena that make it one of the reference models in out of equilibrium statistical mechanics. In this thesis, I'm interested in the case of the totally asymmetric exclusion process (particles jump only to the right) on N to study its behavior according to the mechanism of particle creation : particles are created at site 0 with arate depending on the current configuration. Once this mechanism is no longer a Poisson process, the associated exclusion process does not admit a product invariant measure. As a consequence, classical computation methods with theinfinitesimal generator are rarely successful. So I used mainly the methods of coupling and second class particles.In the first part of the thesis, I'm interested in the model introduced by Grosskinsky for which I get the following result : if the maximum rate of creation and the initial density of particles are smaller than 12 and if the creation mechanism is of integrable range, there is no phase transition which means that there is only one invariant measure. In the second part of the thesis, my goal was to construct a process with finite and non-integrable range that has a phase transition. For this, I was inspired by methods developed for the process of specification of Bramson and Kalikow.
84

Fonctions de Lyapunov : une approche KAM faible

Pageault, Pierre 17 November 2011 (has links) (PDF)
Cette thèse est divisée en trois parties. Dans une première partie, on donne une description nouvelle des points récurrents par chaînes d'un système dynamique comme ensemble d'Aubry projeté d'une barrière ultramétrique. Cette approche permet de munir l'ensemble des composantes transitives par chaînes d'une structure d'espace ultramétrique expliquant leur topologie totalement discontinue, et de retrouver un théorème célèbre de Charles Conley concernant l'existence de fonctions de Lyapunov décroissant strictement le long des orbites non-récurrentes par chaînes. Dans une deuxième partie, on développe une théorie d'Aubry-Mather pour les homéomorphismes d'un espace métrique compact. On introduit dans ce cadre un ensemble d'Aubry métrique, puis topologique, ainsi qu'un ensemble de Mañé. Ces notions, plus fines que la récurrence par chaînes, permettent de mieux comprendre les fonctions de Lyapunov d'un tel système dynamique. Dans une dernière partie, on montre un résultat général de densité de certains contre-exemples au théorème de Sard pour lesquels l'ensemble des points critiques est un arc topologique et on donne des applications dynamiques de ce résultat. Celles-ci sont liées à des problèmes d'unicité, à constantes près, des solutions KAM faibles (ou solutions de viscosité) de certaines équations d'Hamilton-Jacobi.
85

Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles

Dubarry, Cyrille 09 October 2012 (has links) (PDF)
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles
86

Sur l'estimation semi paramétrique robuste pour statistique fonctionnelle

Attaoui, Said 10 December 2012 (has links) (PDF)
Dans cette thèse, nous nous proposons d'étudier quelques paramètres fonctionnels lorsque les données sont générées à partir d'un modèle de régression à indice simple. Nous étudions deux paramètres fonctionnels. Dans un premier temps nous supposons que la variable explicative est à valeurs dans un espace de Hilbert (dimension infinie) et nous considérons l'estimation de la densité conditionnelle par la méthode de noyau. Nous traitons les propriétés asymptotiques de cet estimateur dans les deux cas indépendant et dépendant. Pour le cas où les observations sont indépendantes identiquement distribuées (i.i.d.), nous obtenons la convergence ponctuelle et uniforme presque complète avec vitesse de l'estimateur construit. Comme application nous discutons l'impact de ce résultat en prévision non paramétrique fonctionnelle à partir de l'estimation de mode conditionnelle. La dépendance est modélisée via la corrélation quasi-associée. Dans ce contexte nous établissons la convergence presque complète ainsi que la normalité asymptotique de l'estimateur à noyau de la densité condtionnelle convenablement normalisée. Nous donnons de manière explicite la variance asymptotique. Notons que toutes ces propriétés asymptotiques ont été obtenues sous des conditions standard et elles mettent en évidence le phénomène de concentration de la mesure de probabilité de la variable fonctionnelle sur des petites boules. Dans un second temps, nous supposons que la variable explicative est vectorielle et nous nous intéressons à un modèle de prévision assez général qui est la régression robuste. A partir d'observations quasi-associées, on construit un estimateur à noyau pour ce paramètre fonctionnel. Comme résultat asymptotique on établit la vitesse de convergence presque complète uniforme de l'estimateur construit. Nous insistons sur le fait que les deux modèles étudiés dans cette thèse pourraient être utilisés pour l'estimation de l'indice simple lorsque ce dernier est inconnu, en utilisant la méthode d'M-estimation ou la méthode de pseudo-maximum de vraisemblance, qui est un cas particulier de la première méthode.
87

Algorithmes et généricité dans les groupes de tresses

Caruso, Sandrine 22 October 2013 (has links) (PDF)
La théorie des groupes de tresses s'inscrit au croisement de plusieurs domaines des mathématiques, en particulier, l'algèbre et la géométrie. La recherche actuelle s'étend dans chacune de ces directions, et de riches développements naissent du mariage de ces deux aspects. D'un point de vue géométrique, le groupe des tresses à n brins est vu comme le groupe modulaire d'un disque à n trous, avec composante de bord. On peut représenter une tresse par un diagramme de courbes, c'est-à-dire l'image d'une famille fixée d'arcs sur le disque, par l'élément correspondant du groupe modulaire. Dans cette thèse est présenté l'algorithme de relaxations par la droite, qui permet de retrouver, étant donné un diagramme de courbes, la tresse à partir de laquelle il a été obtenu. Cet algorithme aide à faire le lien entre des propriétés géométriques du diagramme de courbes, et des propriétés algébriques du mot de tresse, en permettant de repérer de grandes puissances d'un générateur sous forme de spirales dans le diagramme de courbes. D'un point de vue algébrique, le groupe de tresses est l'exemple classique de groupe de Garside. L'un des objectifs actuels des recherches en théorie de Garside est d'obtenir un algorithme de résolution en temps polynomial du problème de conjugaison dans les groupes de tresses. À cette fin, on cherche à exploiter les propriétés de certains ensembles finis de conjugués d'une tresse, qui sont des invariants de conjugaison. L'un des résultats de cette thèse concerne la taille d'un de ces invariants, l'ensemble super-sommital : on exhibe une famille de tresses pseudo-anosoviennes dont l'ensemble super-sommital est de taille exponentielle. González-Meneses avait déjà établi le résultat similaire pour une famille de tresses réductibles. La conséquence de ces résultats est qu'on ne peut pas espérer résoudre le problème de conjugaison en temps polynomial au moyen de cet ensemble, et qu'il vaut mieux chercher à exploiter des invariants plus petits. Dans le cas des tresses pseudo-anosoviennes, des espoirs résident actuellement en l'ensemble des circuits glissants. Dans cette thèse, un algorithme en temps polynomial s'appuyant sur ce dernier ensemble résout génériquement le problème de conjugaison, c'est-à-dire qu'il le résout pour une proportion de tresses tendant exponentiellement vite vers 1 lorsque la longueur de la tresse tend vers l'infini. On montre également que, dans une boule du graphe de Cayley avec pour générateurs les tresses simples, une tresse générique est pseudo-anosovienne, ce qui était une conjecture bien connue des spécialistes de la théorie de Garside.
88

Contributions à l'étude de la dérivation des expressions rationnelles et à l'étude des systèmes de numération abstraits

Angrand, Pierre-Yves 08 March 2012 (has links) (PDF)
Les travaux de cette thèse s'inscrivent dans la théorie des automates et des langages formels. ils peuvent se diviser en deux parties qui donnent également deux visions différentes de manipuler les langages dans la théorie des automates. La première partie s'intéresse à la notion de dérivation des expressions qui permet de faire passer le formalisme des quotients de langages au niveau des expressions rationnelles. en particulier cette thèse étudie les termes dérivés cassés d'une expression rationnelle. ces termes dérivés cassés permettent, sous certaines circonstances, et à l'aide d'autres opérations, une réversibilité de la transformation d'un automate en une expression rationnelle. Dans la seconde partie, la théorie des automates est utilisée pour traiter des problèmes sur les systèmes de numération. les systèmes de numération représentent des nombres par des mots. il est possible d'utiliser des automates et des transducteurs afin d'être capable de 'compter' sur un langage rationnel représentant les entiers. plus précisément ces automates sont étudiés pour le cas des systèmes de numération abstraits qui associent à chaque entier un mot d'un langage rationnel, ordonné par l'ordre radiciel. dans un tel système, la fonction qui permet de calculer le mot suivant est une fonction co-séquentielle par morceaux, c'est-à-dire qu'il suffit de lire deux fois le mot d'entrée de la droite vers la gauche pour qu'une machine calcule son image.
89

Convex optimization for cosegmentation

Joulin, Armand 17 December 2012 (has links) (PDF)
La simplicité apparente avec laquelle un humain perçoit ce qui l'entoure suggère que le processus impliqué est en partie mécanique, donc ne nécessite pas un haut degré de réflexion. Cette observation suggère que notre perception visuelle du monde peut être simulée sur un ordinateur. La vision par ordinateur est le domaine de recherche consacré au problème de la création d'une forme de perception visuelle pour des ordinateurs. La puissance de calcul des ordinateurs des années 50 ne permettait pas de traiter et d'analyser les données visuelles nécessaires à l'élaboration d'une perception visuelle virtuelle. Depuis peu, la puissance de calcul et la capacité de stockage ont permis à ce domaine de vraiment émerger. En deux décennies, la vision par ordinateur a permis de répondre à problèmes pratiques ou industrielles comme la détection des visages, de personnes au comportement suspect dans une foule ou de défauts de fabrication dans des chaînes de production. En revanche, en ce qui concerne l'émergence d'une perception visuelle virtuelle non spécifique à une tâche donnée, peu de progrès ont été réalisés et la communauté est toujours confrontée à des problèmes fondamentaux. Un de ces problèmes est de segmenter un stimuli optique ou une image en régions porteuses de sens, en objets ou actions. La segmentation de scène est naturelle pour les humains, mais aussi essentielle pour comprendre pleinement son environnement. Malheureusement elle est aussi extrêmement difficile à reproduire sur un ordinateur car il n'existe pas de définition claire de la région "significative''. En effet, en fonction de la scène ou de la situation, une région peut avoir des interprétations différentes. Etant donnée une scène se passant dans la rue, on peut considérer que distinguer un piéton est important dans cette situation, par contre ses vêtements ne le semblent pas nécessairement. Si maintenant nous considérons une scène ayant lieu pendant un défilé de mode, un vêtement devient un élément important, donc une région significative. Ici, nous nous concentrons sur ce problème de segmentation et nous l'abordons sous un angle particulier pour éviter cette difficulté fondamentale. Nous considérerons la segmentation comme un problème d'apprentissage faiblement supervisé, c'est-à-dire qu'au lieu de segmenter des images selon une certaine définition prédéfinie de régions "significatives'', nous développons des méthodes permettant de segmenter simultanément un ensemble d'images en régions qui apparaissent régulièrement. Nous définissons donc une région "significative'' d'un point de vue statistique: Ce sont les régions qui apparaissent régulièrement dans l'ensemble des images données. Pour cela nous concevons des modèles ayant une portée qui va au-delà de l'application à la vision. Notre approche prend ses racines dans l'apprentissage statistique, dont l'objectif est de concevoir des méthodes efficaces pour extraire et/ou apprendre des motifs récurrents dans des jeux de données. Ce domaine a récemment connu une forte popularité en raison de l'augmentation du nombre et de la taille des bases de données disponibles. Nous nous concentrons ici sur des méthodes conçues pour découvrir l'information "cachée'' dans une base à partir d'annotations incomplètes ou inexistantes. Enfin, nos travaux prennent racine dans le domaine de l'optimisation numérique afin d'élaborer des algorithmes efficaces et adaptés à nos problèmes. En particulier, nous utilisons et adaptons des outils récemment développés afin de relaxer des problèmes combinatoires complexes en des problèmes convexes pour lesquels il est garanti de trouver la solution optimale. Nous illustrons la qualité de nos formulations et algorithmes aussi sur des problèmes tirés de domaines autres que la vision par ordinateur. En particulier, nous montrons que nos travaux peuvent être utilisés dans la classification de texte et en biologie cellulaire.
90

Analysis of geometric and functional shapes with extensions of currents : applications to registration and atlas estimation

Charon, Nicolas 14 November 2013 (has links) (PDF)
This thesis addresses several questions related to the recent field of computational anatomy. Broadly speaking, computational anatomy intends to analyse shape variability among populations of anatomical structures. In this work, we are focused, in the first place, on the case of datasets of curves, surfaces and more generally submanifolds. Our goal is to provide a mathematical and numerical setting to build relevant data attachment terms between those objects in the purpose of embedding it into the large diffeomorphic metric mapping (LDDMM) model for shape registration. Previous approaches have been relying on the concept of currents that represents oriented submanifolds. We first propose an extension of these methods to the situation of non-oriented shapes by adapting the concept of varifolds from geometric measure theory. In the second place, we focus on the study of geometrico-functional structures we call 'functional shapes' (or fshapes), which combine varying geometries across individuals with signal functions defined on these shapes. We introduce the new notion of fshape metamorphosis to generalize the idea of deformation groups in the pure geometrical case. In addition, we define the extended setting of 'functional currents' to quantify dissimilarity between fshapes and thus perform geometrico-functional registration between such objects. Finally, in the last part of the thesis, we move on to the issue of analyzing entire groups of individuals (shapes or fshapes) together. In that perspective, we introduce an atlas estimation variational formulation that we prove to be mathematically well-posed and build algorithms to estimate templates and atlases from populations, as well as tools to perform statistical analysis and classification. All these methods are evaluated on several applications to synthetic datasets on the one hand and real datasets from biomedical imaging on the other.

Page generated in 0.0929 seconds