• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 5
  • 2
  • Tagged with
  • 12
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Uniform domains of higher order /

Alestalo, Pekka. January 1994 (has links)
Thesis--University of Helsinki, 1994. / N° de "Annales Academiae scientiarum Fennicae. Series A1, Mathematica. Dissertationes", ISSN 0355-0087, (1994)94. Bibliogr. p. 46-48.
2

Fonction de corrélation à 3 champs grâce à l'OPE dans l'espace de plongement

Khalfoun, Meriem 01 March 2024 (has links)
Titre de l'écran-titre (visionné le 29 février 2024) / La théorie quantique des champs (QFT), née de la combinaison entre la mécanique quantique et de la relativité restreinte, est aujourd'hui l'approche la plus fondamentale utilisée en physique théorique. Les théories conformes des champs (CFTs) sont des cas particuliers de QFTs qui possèdent des symétries conformes supplémentaires qui sont très intéressantes puisqu'elles nous permettent de résoudre des CFTs sans avoir recours à leur lagrangien. En effet, elles permettent de fixer complètement la forme des fonctions de corrélation à 2 et 3 points. Pour les fonctions de corrélations à 4 points et plus, le développement en produit d'opérateurs (OPE) est l'un des outils les plus importants, qui nous permet de réécrire le produit de deux champs en une somme d'un champ sur lequel s'applique un opérateur différentiel. L'OPE nous permet de réduire les fonctions de corrélation à plusieurs points en une somme de fonctions de corrélation plus petites dont nous connaissons la forme. Cependant, l'opérateur différentiel apparaissant dans l'OPE est plus facilement utilisable dans l'espace de plongement, qui est un espace à d+2 dimensions, dans lequel l'algèbre conforme vit naturellement et qui simplifie grandement les calculs impliquant l'OPE. Pourtant, il existe peu de résultats analytiques utilisant l'OPE directement dans l'espace de plongement pour calculer les fonctions de corrélations à 4 points non scalaires. Le but de mon projet est de calculer les fonctions de corrélation à 3 points en utilisant l'OPE directement dans l'espace de plongement, afin de mieux comprendre la base de l'OPE dans l'espace de plongement pour éventuellement calculer les fonctions de corrélations à 4 points. Nous avons alors trouvé que les fonctions de corrélations à 3 points s'écrivent comme une somme de fonctions de Gegenbauer, ce qui était effectivement ce à quoi on s'attendait. Cela est la première étape pour trouver la meilleure base de l'OPE pour les fonctions de corrélation à 3 points qui nous permettrait de diagonaliser un ensemble complet d'opérateurs qui commutent puis d'éventuellement obtenir une base d'OPE pour toutes les fonctions de corrélation de théories conformes des champs. / Quantum field theory (QFT), born from the combination of quantum mechanics and special relativity, is today the most fundamental approach used in theoretical physics. Conformal field theories (CFTs) are special cases of QFTs which have additional conformal symmetries which are very interesting since they allow us to solve CFTs without resorting to their Lagrangian. Indeed, they make it possible to completely fix the form of the correlation functions at 2 and 3 points. For correlation functions with 4 points and more, operator product expansion (OPE) is one of the most important tools, which allows us to rewrite the product of two fields into a sum of a field over which applies a differential operator. OPE allows us to reduce multipoint correlation functions to a sum of smaller correlation functions whose form we know. However, the differential operator appearing in the OPE is more easily usable in the embedding space, which is a (d + 2)-dimensional space, in which conformal algebra naturally lives and which greatly simplifies calculations involving the OPE. However, there are few analytical results using the OPE directly in the embedding space to compute nonscalar 4-point correlation functions. The goal of my project is to compute the 3-point correlation functions using the OPE directly in the embedding space, in order to better understand the basis of the OPE in the embedding space to eventually compute the 4-point correlation functions. We have found that the 3-point correlation functions are expressible as a sum of Gegenbauer functions, which was indeed what we expected. This is the first step in finding the best basis of the OPE for the 3-point correlation functions which would allow us to diagonalize a complete set of commuting operators and then eventually obtain a basis of the OPE for all the functions of correlation of conformal field theories.
3

Un théorème de point fixe pour les L-plongements

Corriveau la Grenade, Antoine 20 April 2018 (has links)
En 2008, Losert [3] résout le fameux problème de dérivation, resté ouvert depuis les années 1960. Le raisonnement de Losert s'articule autour d'un résultat central pour lequel Bader, Gelander et Monod [1] arrivent à trouver une courte preuve en 2012. Celle-ci découle d'un nouveau théorème de point fixe qui, outre son rôle dans la résolution du problème de dérivation, est intéressant en soi car il ne fait intervenir que les propriétés géométriques de l'espace ambiant, et non un argument de compacité ou un quelconque principe de contraction. Le présent mémoire donne une démonstration détaillée de ce nouveau théorème, tout en rappelant préalablement les bases topologiques et algébriques sur lesquelles il repose.
4

Neural machine translation architectures and applications / Traduction neuronale : architectures et applications

Bérard, Alexandre 15 June 2018 (has links)
Cette thèse est centrée sur deux principaux objectifs : l'adaptation de techniques de traduction neuronale à de nouvelles tâches, et la reproduction de travaux de recherche existants. Nos efforts pour la reproductibilité ont résulté en la création de deux ressources : MultiVec, un outil permettant l'utilisation de plusieurs techniques liées au word embeddings; ainsi qu'un outil proposant plusieurs modèles pour la traduction automatique et d’autres tâches similaires (par ex. post-édition automatique). Nous travaillons ensuite sur plusieurs tâches liées à la traduction : la Traduction Automatique (TA), Traduction Automatique de la Parole, et la Post-Édition Automatique. Pour la tâche de TA, nous répliquons des travaux fondateurs basés sur les réseaux de neurones, et effectuons une étude sur des TED Talks, où nous avançons l'état de l'art. La tâche suivante consiste à traduire la parole dans une langue vers le texte dans une autre langue. Dans cette thèse, nous nous concentrons sur le problème inexploré de traduction dite « end-to-end », qui ne passe pas par une transcription intermédiaire dans la langue source. Nous proposons le premier modèle end-to-end, et l'évaluons sur deux problèmes : la traduction de livres audio, et d'expressions de voyage. Notre tâche finale est la post-édition automatique, qui consiste à corriger les sorties d'un système de traduction dans un scénario « boîte noire », en apprenant à partir de données produites par des post-éditeurs humains. Nous étendons des résultats publiés dans le cadre des tâches de WMT 2016 et 2017, et proposons de nouveaux modèles pour la post-édition automatique dans un scénario avec peu de données. / This thesis is centered on two main objectives: adaptation of Neural Machine Translation techniques to new tasks and research replication. Our efforts towards research replication have led to the production of two resources: MultiVec, a framework that facilitates the use of several techniques related to word embeddings (Word2vec, Bivec and Paragraph Vector); and a framework for Neural Machine Translation that implements several architectures and can be used for regular MT, Automatic Post-Editing, and Speech Recognition or Translation. These two resources are publicly available and now extensively used by the research community. We extend our NMT framework to work on three related tasks: Machine Translation (MT), Automatic Speech Translation (AST) and Automatic Post-Editing (APE). For the machine translation task, we replicate pioneer neural-based work, and do a case study on TED talks where we advance the state-of-the-art. Automatic speech translation consists in translating speech from one language to text in another language. In this thesis, we focus on the unexplored problem of end-to-end speech translation, which does not use an intermediate source-language text transcription. We propose the first model for end-to-end AST and apply it on two benchmarks: translation of audiobooks and of basic travel expressions. Our final task is automatic post-editing, which consists in automatically correcting the outputs of an MT system in a black-box scenario, by training on data that was produced by human post-editors. We replicate and extend published results on the WMT 2016 and 2017 tasks, and propose new neural architectures for low-resource automatic post-editing.
5

Autour de problèmes de plongements de graphes

Beaudou, Laurent 22 June 2009 (has links) (PDF)
Cette thèse s'articule autour de la notion de plongement de graphe. Un plongement de graphe consiste à envoyer les sommets d'un graphe dans une autre structure par une application qui conserve certaines propriétés à déterminer. Nous pouvons distinguer deux grandes familles de plongements. D'une part les plongements purement combinatoires qui envoient les éléments d'un graphe G dans un autre graphe H. La propriété la plus naturelle à conserver est la notion d'adjacence entre les sommets. Nous nous intéressons à la conservation d'une propriété supplémentaire : la distance entre les sommets. Nous caractérisons plusieurs familles de graphes se plongeant de cette façon dans les hypercubes ou les graphes de Hamming. Les plongements topologiques visent à représenter un graphe G sur une surface quelconque. Les sommets sont envoyés vers des points d'une surface et les arêtes vers des courbes continues entre ces points. Comment représenter un graphe afin de minimiser le nombre de croisements d'arêtes ? Nous nous posons ces questions à travers l'étude de la planarité et des nombres de croisements de certains graphes.
6

Problèmes de plongements en géométrie symplectique

Opshtein, Emmanuel 03 July 2014 (has links) (PDF)
Ce mémoire concerne les phénomènes de rigidité/flexibilité liés aux plongements et leurs applications en topologie symplectique. Les deux grands thèmes abordés sont les plongements symplectiques équidimensionnels en dimension 4 et la géometrie symplectique C^0.
7

Neural Methods for Event Extraction / Méthodes neuronales pour l'extraction d'événements

Boroş, Emanuela 27 September 2018 (has links)
Du point de vue du traitement automatique des langues (TAL), l’extraction des événements dans les textes est la forme la plus complexe des processus d’extraction d’information, qui recouvrent de façon plus générale l’extraction des entités nommées et des relations qui les lient dans les textes. Le cas des événements est particulièrement ardu car un événement peut être assimilé à une relation n-aire ou à une configuration de relations. Alors que la recherche en extraction d’information a largement bénéficié des jeux de données étiquetés manuellement pour apprendre des modèles permettant l’analyse des textes, la disponibilité de ces ressources reste un problème important. En outre, de nombreuses approches en extraction d’information fondées sur l’apprentissage automatique reposent sur la possibilité d’extraire à partir des textes de larges en sembles de traits définis manuellement grâce à des outils de TAL élaborés. De ce fait, l’adaptation à un nouveau domaine constitue un défi supplémentaire. Cette thèse présente plusieurs stratégies pour améliorer la performance d’un système d’extraction d’événements en utilisant des approches fondées sur les réseaux de neurones et en exploitant les propriétés morphologiques, syntaxiques et sémantiques des plongements de mots. Ceux-ci ont en effet l’avantage de ne pas nécessiter une modélisation a priori des connaissances du domaine et de générer automatiquement un ensemble de traits beaucoup plus vaste pour apprendre un modèle. Nous avons proposé plus spécifiquement différents modèles d’apprentissage profond pour les deux sous-tâches liées à l’extraction d’événements : la détection d’événements et la détection d’arguments. La détection d’événements est considérée comme une sous-tâche importante de l’extraction d’événements dans la mesure où la détection d’arguments est très directement dépendante de son résultat. La détection d’événements consiste plus précisément à identifier des instances d’événements dans les textes et à les classer en types d’événements précis. En préalable à l’introduction de nos nouveaux modèles, nous commençons par présenter en détail le modèle de l’état de l’art qui en constitue la base. Des expériences approfondies sont menées sur l’utilisation de différents types de plongements de mots et sur l’influence des différents hyperparamètres du modèle en nous appuyant sur le cadre d’évaluation ACE 2005, standard d’évaluation pour cette tâche. Nous proposons ensuite deux nouveaux modèles permettant d’améliorer un système de détection d’événements. L’un permet d’augmenter le contexte pris en compte lors de la prédiction d’une instance d’événement (déclencheur d’événement) en utilisant un contexte phrastique, tandis que l’autre exploite la structure interne des mots en profitant de connaissances morphologiques en apparence moins nécessaires mais dans les faits importantes. Nous proposons enfin de reconsidérer la détection des arguments comme une extraction de relation d’ordre supérieur et nous analysons la dépendance de cette détection vis-à-vis de la détection d’événements. / With the increasing amount of data and the exploding number data sources, the extraction of information about events, whether from the perspective of acquiring knowledge or from a more directly operational perspective, becomes a more and more obvious need. This extraction nevertheless comes up against a recurring difficulty: most of the information is present in documents in a textual form, thus unstructured and difficult to be grasped by the machine. From the point of view of Natural Language Processing (NLP), the extraction of events from texts is the most complex form of Information Extraction (IE) techniques, which more generally encompasses the extraction of named entities and relationships that bind them in the texts. The event extraction task can be represented as a complex combination of relations linked to a set of empirical observations from texts. Compared to relations involving only two entities, there is, therefore, a new dimension that often requires going beyond the scope of the sentence, which constitutes an additional difficulty. In practice, an event is described by a trigger and a set of participants in that event whose values are text excerpts. While IE research has benefited significantly from manually annotated datasets to learn patterns for text analysis, the availability of these resources remains a significant problem. These datasets are often obtained through the sustained efforts of research communities, potentially complemented by crowdsourcing. In addition, many machine learning-based IE approaches rely on the ability to extract large sets of manually defined features from text using sophisticated NLP tools. As a result, adaptation to a new domain is an additional challenge. This thesis presents several strategies for improving the performance of an Event Extraction (EE) system using neural-based approaches exploiting morphological, syntactic, and semantic properties of word embeddings. These have the advantage of not requiring a priori modeling domain knowledge and automatically generate a much larger set of features to learn a model. More specifically, we proposed different deep learning models for two sub-tasks related to EE: event detection and argument detection and classification. Event Detection (ED) is considered an important subtask of event extraction since the detection of arguments is very directly dependent on its outcome. ED specifically involves identifying instances of events in texts and classifying them into specific event types. Classically, the same event may appear as different expressions and these expressions may themselves represent different events in different contexts, hence the difficulty of the task. The detection of the arguments is based on the detection of the expression considered as triggering the event and ensures the recognition of the participants of the event. Among the difficulties to take into account, it should be noted that an argument can be common to several events and that it does not necessarily identify with an easily recognizable named entity. As a preliminary to the introduction of our proposed models, we begin by presenting in detail a state-of-the-art model which constitutes the baseline. In-depth experiments are conducted on the use of different types of word embeddings and the influence of the different hyperparameters of the model using the ACE 2005 evaluation framework, a standard evaluation for this task. We then propose two new models to improve an event detection system. One allows increasing the context taken into account when predicting an event instance by using a sentential context, while the other exploits the internal structure of words by taking advantage of seemingly less obvious but essentially important morphological knowledge. We also reconsider the detection of arguments as a high-order relation extraction and we analyze the dependence of arguments on the ED task.
8

Plongements des espaces métriques dans les espaces de Banach.

Baudier, Florent 02 February 2009 (has links) (PDF)
Le thème central de cette thèse est le plongement des espaces métriques dans les espaces de Banach. Les principaux plongements étudiés sont les plongements grossiers, uniformes ou Lipschitziens. On considère des questions concernant le plongement Lipschitzien de certaines classes d'espaces métriques, notamment les espaces métriques localement finis ou plus généralement les sous-ensembles localement finis des espaces de Banach Lp, avec 1<= p <= [infini]. Ces questions sont étroitement liées à la classification Lipschitzienne des espaces de Banach. Les plongements grossiers sont un outil clé pour l'étude de plusieurs conjectures célèbres (conjecture de Baum-Connes grossière, conjecture de Novikov grossière...). On mène alors une étude détaillée du plongement grossier, mais aussi uniforme, des espaces métriques propres dans les espaces de Banach sans cotype. Un troisième thème concerne ce qui est appelé le “programme de Ribe” par Manor Mendel et Assaf Naor. Cela consiste en la recherche d'invariants métriques qui caractérisent des propriétés locales des espaces de Banach. Dans cette optique on étudie le plongement de certains arbres.
9

Communications structurées dans les réseaux

Marlin, Nausica 16 June 2000 (has links) (PDF)
Cette thèse est divisée en deux parties. La première partie concerne la commutation rapide des informations dans les réseaux ATM. Dans le chapitre 2, nous décrivons la technologie ATM. Dans le chapitre 3, nous modélisons le problème du positionnement des chemins virtuels et définissons les deux paramètres étudiés, charge et nombre de sauts d'un VPL. Nous discutons l'orientation du modèle, la complexité du problème, puis proposons une synthèse des résultats de la littérature. Les démonstrations des résultats originaux se trouvent dans les chapitres 4 et 5. La seconde partie concerne l'échange total dans les réseaux d'interconnexion entre processeurs. Dans le chapitre 6, nous introduisons les notions de théorie des groupes nécessaires ainsi que la motivation du problème. L'objet du chapitre 7 est de caractériser les graphes de Cayley admettant un certain automorphisme de graphe (appelé rotation complète) permettant de construire d'une manière simple un protocole d'échange total optimal. Nous mettons en évidence des conditions nécessaires sur le groupe pour que le graphe admette une rotation complète. Nous donnons la liste exhaustive des graphes de Cayley admettant une rotation complète parmi les graphes de Cayley engendrés par des transpositions.
10

Uncertainty quantification on pareto fronts and high-dimensional strategies in bayesian optimization, with applications in multi-objective automotive design / Quantification d’incertitude sur fronts de Pareto et stratégies pour l’optimisation bayésienne en grande dimension, avec applications en conception automobile

Binois, Mickaël 03 December 2015 (has links)
Cette thèse traite de l’optimisation multiobjectif de fonctions coûteuses, aboutissant à laconstruction d’un front de Pareto représentant l’ensemble des compromis optimaux. En conception automobile, le budget d’évaluations est fortement limité par les temps de simulation numérique des phénomènes physiques considérés. Dans ce contexte, il est courant d’avoir recours à des « métamodèles » (ou modèles de modèles) des simulateurs numériques, en se basant notamment sur des processus gaussiens. Ils permettent d’ajouter séquentiellement des observations en conciliant recherche locale et exploration. En complément des critères d’optimisation existants tels que des versions multiobjectifs du critère d’amélioration espérée, nous proposons d’estimer la position de l’ensemble du front de Pareto avec une quantification de l’incertitude associée, à partir de simulations conditionnelles de processus gaussiens. Une deuxième contribution reprend ce problème à partir de copules. Pour pouvoir traiter le cas d’un grand nombre de variables d’entrées, nous nous basons sur l’algorithme REMBO. Par un tirage aléatoire directionnel, défini par une matrice, il permet de trouver un optimum rapidement lorsque seules quelques variables sont réellement influentes (mais inconnues). Plusieurs améliorations sont proposées, elles comprennent un noyau de covariance dédié, une sélection du domaine de petite dimension et des directions aléatoires mais aussi l’extension au casmultiobjectif. Enfin, un cas d’application industriel en crash a permis d’obtenir des gainssignificatifs en performance et en nombre de calculs requis, ainsi que de tester le package R GPareto développé dans le cadre de cette thèse. / This dissertation deals with optimizing expensive or time-consuming black-box functionsto obtain the set of all optimal compromise solutions, i.e. the Pareto front. In automotivedesign, the evaluation budget is severely limited by numerical simulation times of the considered physical phenomena. In this context, it is common to resort to “metamodels” (models of models) of the numerical simulators, especially using Gaussian processes. They enable adding sequentially new observations while balancing local search and exploration. Complementing existing multi-objective Expected Improvement criteria, we propose to estimate the position of the whole Pareto front along with a quantification of the associated uncertainty, from conditional simulations of Gaussian processes. A second contribution addresses this problem from a different angle, using copulas to model the multi-variate cumulative distribution function. To cope with a possibly high number of variables, we adopt the REMBO algorithm. From a randomly selected direction, defined by a matrix, it allows a fast optimization when only a few number of variables are actually influential, but unknown. Several improvements are proposed, such as a dedicated covariance kernel, a selection procedure for the low dimensional domain and of the random directions, as well as an extension to the multi-objective setup. Finally, an industrial application in car crash-worthiness demonstrates significant benefits in terms of performance and number of simulations required. It has also been used to test the R package GPareto developed during this thesis.

Page generated in 0.0769 seconds