• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 11
  • 1
  • Tagged with
  • 28
  • 14
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Extraction et analyse de la néologie des technologies langagières dans deux revues traductologiques

Morel, Jean-Benoit 04 1900 (has links)
Dans la présente étude, nous avons pour objectifs d’extraire et d’analyser les néologismes des technologies langagières du point de vue de la traductologie et de ses domaines connexes, d’utiliser ces néologismes comme fenêtre sur l’évolution des connaissances relatives aux technologies langagières, et de mettre à l’épreuve la méthodologie élaborée dans le cadre de l’étude. Les technologies langagières occupent une place centrale en traductologie. Pour l’extraction et l’analyse, nous utilisons alors un corpus diachronique composé d’articles publiés en français et en anglais, de 1966 à 2019, dans les revues traductologiques Meta : journal des traducteurs et TTR : traduction, terminologie et rédaction. Nous proposons une méthodologie innovatrice en terminologie pour l’extraction et l’analyse des néologismes, qui combine l’utilisation d’un corpus d’exclusion, d’un calcul des fréquences et des plongements lexicaux diachroniques. Enfin, nous validons et analysons les néologismes sur la base de leur concordance et selon la typologie de Rondeau (1984). Nous visons plus précisément les termes d’un lexique bilingue des technologies langagières que nous avons compilé à partir d’ouvrages spécialisés. Les résultats nous permettent de faire état de la néologie, en anglais et en français, des technologies langagières utilisées en traductologie et dans ses domaines connexes. Les données recueillies évoquent une variété de domaines, d’événements et de thématiques que nous analysons et qui représentent de nouvelles avenues à explorer. De plus, elles signalent la similarité de la néologie du domaine dans les deux langues et nous permettent d’observer la popularité, la trajectoire et l’instabilité des néologismes au sein du corpus. Ainsi, nous offrons une perspective novatrice sur les technologies langagières et sa terminologie pour les spécialistes de la traductologie et de ses domaines connexes. / In this study, we aim to extract and analyze language technologies neologisms from the point of view of translation studies and its related fields, to use these neologisms as a window on the evolution of knowledge about language technologies, and to put the methodology developed as part of the study to the test. Language technologies hold an important place in translation studies. For the extraction and analysis, we then use a diachronic corpus built from articles published in French and English, from 1966 to 2019, in two translation studies journals, Meta: translators’ journal and TTR: traduction, terminologie et rédaction. We develop an innovative methodology in terminology for the extraction and analysis of neologisms combining the use of an exclusion corpus, a frequency analysis and diachronic word embeddings. Finally, we validate and analyze neologisms based on their concordance and according to Rondeau’s typology (1984). We focus on terms that are part of a bilingual glossary of language technologies that we compiled for this study from specialized works. The results enable us to describe the neology, in French and English, of language technologies used in translation studies and its related fields. Collected data relate to a variety of fields, events and themes that we analyze, and which provide leads for further analysis. Also, the data point to the similarity of the domain’s neology in both languages and enable us to observe the popularity, trajectory, and stability of neologisms within the corpus. In this way, we offer an innovative perspective on language technologies and its terminology to translation studies and related fields experts.
22

Étude de peacocks sous l'hypothèse de monotonie conditionnelle et de positivité totale / A study of Peacocks under the assumptions of conditional monotonicity and total positivity

Bogso, Antoine Marie 23 October 2012 (has links)
Cette thèse porte sur les processus croissants pour l'ordre convexe que nous désignons sous le nom de peacocks. Un résultat remarquable dû à Kellerer stipule qu'un processus stochastique à valeurs réelles est un peacock si et seulement s'il possède les mêmes marginales unidimensionnelles qu'une martingale. Une telle martingale est dite associée à ce processus. Mais dans son article, Kellerer ne donne ni d'exemple de peacock, ni d'idée précise sur la construction d'une martingale associée pour un peacock donné. Ainsi, comme d'autres travaux sur les peacocks, notre étude vise deux objectifs. Il s'agit d'exhiber de nouvelles familles de peacocks et de construire des martingales associées pour certains peacocks. Dans les trois premiers chapitres, nous exhibons diverses classes de peacocks en utilisant successivement les notions de monotonie conditionnelle, de peacock très fort et de positivité totale d'ordre 2. En particulier, nous fournissons plusieurs extensions du résultat de Carr-Ewald-Xiao selon lequel la moyenne arithmétique du mouvement brownien géométrique, encore appelée "option asiatique" est un peacock. L'objet du dernier chapitre est de construire des martingales associées pour une classe de peacocks. Pour cela, nous utilisons les plongements d'Azéma-Yor et de Bertoin-Le Jan. L'originalité de ce chapitre est l'utilisation de la positivité totale d'ordre 2 dans l'étude du plongement d'Azéma-Yor / This thesis deals with real valued stochastic processes which increase in the convex order. We call them peacocks. A remarkable result due to Kellerer states that a real valued process is a peacock if and only if it has the same one-dimensional marginals as a martingale. Such a martingale is said to be associated to this process. But in his article, Kellerer provides neither an example of peacock nor a concrete idea to construct an associated martingale to a given peacock. Hence, as other investigations on peacocks, our study has two purposes. We first exhibit new families of peacocks and then, we contruct associated martingales to certain of them. In the first three chapters, we exhibit several classes of peacocks using successively the notions of conditional monotonicity, very strong peacock and total positivity of order 2. In particular, we provide many extensions of Carr-Ewald-Xiao result which states that the arithmetic mean of geometric Brownian motion, also called "Asian option" is a peacock. The purpose of the last chapter is to construct associated martingales to certain peacocks. To this end, we use Azéma-Yor and Bertoin-Le Jan embedding algorithms. The originality of this chapter is the use of total positivity of order 2 in the study of Azéma-Yor embedding algorithm
23

Agrégation de ressources avec contrainte de distance : applications aux plateformes de grande échelle / Resource clustering with distance constraint : applications to large scale platforms

Larchevêque, Hubert 27 September 2010 (has links)
Durant cette thèse, nous avons introduit les problèmes de Bin Covering avec Contrainte de Distance (BCCD) et de Bin Packing avec Contrainte de Distance (BPCD), qui trouvent leur application dans les réseaux de grande échelle, tel Internet. L'étude de ces problèmes que nous effectuons dans des espaces métriques quelconques montre qu'il est impossible de travailler dans un tel cadre sans avoir recours à de l'augmentation de ressources, un procédé qui permet d'élaborer des algorithmes construisant des solutions moins contraintes que la solution optimale à laquelle elles sont comparées. En plus de résultats d'approximation intéressants, nous prouvons la difficulté de ces problèmes si ce procédé n'est pas utilisé. Par ailleurs, de nombreux outils ont pour objectif de plonger les grands réseaux qui nous intéressent dans des espaces métriques bien décrits. Nous avons alors étudié nos problèmes dans plusieurs espaces métriques spécifiques, et, en particulier, ceux générés par certains de ces outils, comme Vivaldi et Sequoia. / During this Ph.D we introduced Bin Covering under Distance Constraint (BCCD in French) and Bin Packing under Distance Constraint (BPCD in French). Those two problems find their applications in the context of large scale networks, like Internet. We studied those problems in general metric spaces, and proved that using resource augmentation is mandatory. Resource augmentation allows to build algorithms working on solutions with less constraints than the optimal solution to which it is compared to. We found interesting approximations algorithms using this relaxation, and proved the necessity of this resource augmentation. However many tools are used to embed large networks we are interested in in specific metric spaces. Thus we studied those problems in different specific metric spaces, in particular those generated by the use of Vivaldi and Sequoia, two of those tools.
24

Prediction of Alzheimer's disease and semantic dementia from scene description: toward better language and topic generalization

Ivensky, Ilya 05 1900 (has links)
La segmentation des données par la langue et le thème des tests psycholinguistiques devient de plus en plus un obstacle important à la généralisation des modèles de prédiction. Cela limite notre capacité à comprendre le cœur du dysfonctionnement linguistique et cognitif, car les modèles sont surajustés pour les détails d'une langue ou d'un sujet particulier. Dans ce travail, nous étudions les approches potentielles pour surmonter ces limitations. Nous discutons des propriétés de divers modèles de plonjement de mots FastText pour l'anglais et le français et proposons un ensemble des caractéristiques, dérivées de ces propriétés. Nous montrons que malgré les différences dans les langues et les algorithmes de plonjement, un ensemble universel de caractéristiques de vecteurs de mots indépendantes de la langage est capable de capturer le dysfonctionnement cognitif. Nous soutenons que dans le contexte de données rares, les caractéristiques de vecteur de mots fabriquées à la main sont une alternative raisonnable pour l'apprentissage des caractéristiques, ce qui nous permet de généraliser sur les limites de la langue et du sujet. / Data segmentation by the language and the topic of psycholinguistic tests increasingly becomes a significant obstacle for generalization of predicting models. It limits our ability to understand the core of linguistic and cognitive dysfunction because the models overfit the details of a particular language or topic. In this work, we study potential approaches to overcome such limitations. We discuss the properties of various FastText word embedding models for English and French and propose a set of features derived from these properties. We show that despite the differences in the languages and the embedding algorithms, a universal language-agnostic set of word-vector features can capture cognitive dysfunction. We argue that in the context of scarce data, the hand-crafted word-vector features is a reasonable alternative for feature learning, which allows us to generalize over the language and topic boundaries.
25

Learning to compare nodes in branch and bound with graph neural networks

Labassi, Abdel Ghani 08 1900 (has links)
En informatique, la résolution de problèmes NP-difficiles en un temps raisonnable est d’une grande importance : optimisation de la chaîne d’approvisionnement, planification, routage, alignement de séquences biologiques multiples, inference dans les modèles graphiques pro- babilistes, et même certains problèmes de cryptographie sont tous des examples de la classe NP-complet. En pratique, nous modélisons beaucoup d’entre eux comme un problème d’op- timisation en nombre entier, que nous résolvons à l’aide de la méthodologie séparation et évaluation. Un algorithme de ce style divise un espace de recherche pour l’explorer récursi- vement (séparation), et obtient des bornes d’optimalité en résolvant des relaxations linéaires sur les sous-espaces (évaluation). Pour spécifier un algorithme, il faut définir plusieurs pa- ramètres, tel que la manière d’explorer les espaces de recherche, de diviser une recherche l’espace une fois exploré, ou de renforcer les relaxations linéaires. Ces politiques peuvent influencer considérablement la performance de résolution. Ce travail se concentre sur une nouvelle manière de dériver politique de recherche, c’est à dire le choix du prochain sous-espace à séparer étant donné une partition en cours, en nous servant de l’apprentissage automatique profond. Premièrement, nous collectons des données résumant, sur une collection de problèmes donnés, quels sous-espaces contiennent l’optimum et quels ne le contiennent pas. En représentant ces sous-espaces sous forme de graphes bipartis qui capturent leurs caractéristiques, nous entraînons un réseau de neurones graphiques à déterminer la probabilité qu’un sous-espace contienne la solution optimale par apprentissage supervisé. Le choix d’un tel modèle est particulièrement utile car il peut s’adapter à des problèmes de différente taille sans modifications. Nous montrons que notre approche bat celle de nos concurrents, consistant à des modèles d’apprentissage automatique plus simples entraînés à partir des statistiques du solveur, ainsi que la politique par défaut de SCIP, un solveur open-source compétitif, sur trois familles NP-dures: des problèmes de recherche de stables de taille maximum, de flots de réseau multicommodité à charge fixe, et de satisfiabilité maximum. / In computer science, solving NP-hard problems in a reasonable time is of great importance, such as in supply chain optimization, scheduling, routing, multiple biological sequence align- ment, inference in probabilistic graphical models, and even some problems in cryptography. In practice, we model many of them as a mixed integer linear optimization problem, which we solve using the branch and bound framework. An algorithm of this style divides a search space to explore it recursively (branch) and obtains optimality bounds by solving linear relaxations in such sub-spaces (bound). To specify an algorithm, one must set several pa- rameters, such as how to explore search spaces, how to divide a search space once it has been explored, or how to tighten these linear relaxations. These policies can significantly influence resolution performance. This work focuses on a novel method for deriving a search policy, that is, a rule for select- ing the next sub-space to explore given a current partitioning, using deep machine learning. First, we collect data summarizing which subspaces contain the optimum, and which do not. By representing these sub-spaces as bipartite graphs encoding their characteristics, we train a graph neural network to determine the probability that a subspace contains the optimal so- lution by supervised learning. The choice of such design is particularly useful as the machine learning model can automatically adapt to problems of different sizes without modifications. We show that our approach beats the one of our competitors, consisting of simpler machine learning models trained from solver statistics, as well as the default policy of SCIP, a state- of-the-art open-source solver, on three NP-hard benchmarks: generalized independent set, fixed-charge multicommodity network flow, and maximum satisfiability problems.
26

Evaluating approaches to solving proportional sentence analogies

Blain-Montesano, Yves 02 1900 (has links)
L'analogie, c'est-à-dire une correspondance entre deux entités, est considérée une capacité de raisonnement importante. L'analogie proportionnelle, écrite $a:b::c:d$ et qui se lit ``$a$ est à $b$ ce que $c$ est à $d$'', en est un cas particulier où la correspondance tient de par la relation entre les éléments de deux paires d'objets. Le mémoire évalue certaines méthodes issues de l'usage de représentations distributionnelles vectorielles dans la résolution d'analogies proportionnelles verbales et les mène à leur prolongement naturel, la phrase. Nous ciblons la compétence de modèles de langue et des représentations qui peuvent en être extraites à la résolution d'analogies proportionnelles formées sur la base de relations syntaxiques, sémantiques, ou de connaissance encyclopédique. Peu d'ensembles de données existent pour les analogies de phrase et sinon comprennent pour la plupart des analogies au niveau de la forme, composées de phrases construites à partir de gabarits, ou bien variant peu dans les relations sémantiques qui tiennent entre les phrases. Nous construisons donc un ensemble de données contenant des phrases en paires relationnelles qui nous permet de construire des analogies en appariant deux paires. Nous essayons différentes variations de méthodes qui comportent un objectif de recouvrement par un modèle vectoriel. D'autres méthodes de résolution d'analogies proportionnelles sont explorées par voie de génération de texte. Nous expérimentons par le peaufinement du modèle de langue Flan-T5, pré-entraîné sur des paires instruction-réponse, sur nos analogies par une tâche séquence à séquence, ainsi que par l'incitation avec peu d'exemples en utilisant des versions de ce modèle en variant la capacité jusque dans la gamme des milliards de paramètres. En somme, la performance observée est faible pour toutes les tâches. Nous concluons, de l'utilisation de plongements de phrase, quelques mises en garde similaires à celles que l'on trouve avec la résolution d'analogies verbales par plongements lexicaux. Nos expérimentations génératives démontrent l'importance de données à la fois de bonne qualité et de bonne quantité, ainsi que le potentiel de l'apprentissage en contexte. Nous ajoutons à cela un aperçu qualitatif de la disparité entre l'habileté de modèles probabilistes entraînés pour prédire, à partir d'une instruction, la séquence correcte, et celle d'un modèle peaufiné par la méthode d'apprentissage par renforcement avec commentaires humains, à savoir ChatGPT. / Analogy, the correspondence between two things, has been hailed as an important reasoning capability. Proportional analogy, denoted $a:b::c:d$, read ``$a$ is to $b$ as $c$ is to $d$'' is a special case of this where a correspondence is made in the relation that holds between the elements of two pairs. This thesis evaluates methods originating in the recent use of distributional vector representations for solving four-part word analogies, bringing them to their natural extension, sentences. Few datasets of proportional sentence analogies exist, typically comprising purely formal analogies or sentences constructed by templates, and where semantic relations are typically limited in the variety we would hope to capture. Thus, for the purposes of our experiments, we curate a dataset of pairs of sentences for which a given relation holds and from which analogies can be constructed by matching pairs within a relation together. We target the analogy-solving ability of language models and representations derived therefrom, specifically as regards proportional sentence analogies formed on the basis of syntax, semantics, or encyclopedic knowledge. Different variations on previous methods are explored, all based on retrieval of the solution in a vector space model. Other methods of solving proportional sentence analogies by generation are attempted. We experiment with finetuning the instruction-trained Flan-T5 language model on sentence analogies as a sequence-to-sequence task, as well as prompting model checkpoints up into the billion-parameter range with few-shot examples. Overall performance at the task is poor in both settings. We find that similar caveats which apply to analogical reasoning with word vectors apply to sentence embeddings as well. Our generative experiments show the importance of data of suitable quality and quantity, as well the potential of in-context learning. Some qualitative insights are shown as to the disparity in task ability of instruction-trained probabilistic language models and one finetuned by reinforcement learning with human feedback, namely ChatGPT.
27

Géométrie et arithmétique explicites des variétés abéliennes et applications à la cryptographie

Arène, Christophe 27 September 2011 (has links)
Les principaux objets étudiés dans cette thèse sont les équations décrivant le morphisme de groupe sur une variété abélienne, plongée dans un espace projectif, et leurs applications en cryptographie. Notons g sa dimension et k son corps de définition. Ce mémoire est composé de deux parties. La première porte sur l'étude des courbes d'Edwards, un modèle pour les courbes elliptiques possédant un sous-groupe de points k-rationnels cyclique d'ordre 4, connues en cryptographie pour l'efficacité de leur loi d'addition et la possibilité qu'elle soit définie pour toute paire de points k-rationnels (loi d'addition k-complète). Nous en donnons une interprétation géométrique et en déduisons des formules explicites pour le calcul du couplage de Tate réduit sur courbes d'Edwards tordues, dont l'efficacité rivalise avec les modèles elliptiques couramment utilisés. Cette partie se conclut par la génération, spécifique au calcul de couplages, de courbes d'Edwards dont les tailles correspondent aux standards cryptographiques actuellement en vigueur. Dans la seconde partie nous nous intéressons à la notion de complétude introduite ci-dessus. Cette propriété est cryptographiquement importante car elle permet d'éviter des attaques physiques, comme les attaques par canaux cachés, sur des cryptosystèmes basés sur les courbes elliptiques ou hyperelliptiques. Un précédent travail de Lange et Ruppert, basé sur la cohomologie des fibrés en droite, permet une approche théorique des lois d'addition. Nous présentons trois résultats importants : tout d'abord nous généralisons un résultat de Bosma et Lenstra en démontrant que le morphisme de groupe ne peut être décrit par strictement moins de g+1 lois d'addition sur la clôture algébrique de k. Ensuite nous démontrons que si le groupe de Galois absolu de k est infini, alors toute variété abélienne peut être plongée dans un espace projectif de manière à ce qu'il existe une loi d'addition k-complète. De plus, l'utilisation des variétés abéliennes nous limitant à celles de dimension un ou deux, nous démontrons qu'une telle loi existe pour leur plongement projectif usuel. Finalement, nous développons un algorithme, basé sur la théorie des fonctions thêta, calculant celle-ci dans P^15 sur la jacobienne d'une courbe de genre deux donnée par sa forme de Rosenhain. Il est désormais intégré au package AVIsogenies de Magma. / The main objects we study in this PhD thesis are the equations describing the group morphism on an abelian variety, embedded in a projective space, and their applications in cryptograhy. We denote by g its dimension and k its field of definition. This thesis is built in two parts. The first one is concerned by the study of Edwards curves, a model for elliptic curves having a cyclic subgroup of k-rational points of order 4, known in cryptography for the efficiency of their addition law and the fact that it can be defined for any couple of k-rational points (k-complete addition law). We give the corresponding geometric interpretation and deduce explicit formulae to calculate the reduced Tate pairing on twisted Edwards curves, whose efficiency compete with currently used elliptic models. The part ends with the generation, specific to pairing computation, of Edwards curves with today's cryptographic standard sizes. In the second part, we are interested in the notion of completeness introduced above. This property is cryptographically significant, indeed it permits to avoid physical attacks as side channel attacks, on elliptic -- or hyperelliptic -- curves cryptosystems. A preceeding work of Lange and Ruppert, based on cohomology of line bundles, brings a theoretic approach of addition laws. We present three important results: first of all we generalize a result of Bosma and Lenstra by proving that the group morphism can not be described by less than g+1 addition laws on the algebraic closure of k. Next, we prove that if the absolute Galois group of k is infinite, then any abelian variety can be projectively embedded together with a k-complete addition law. Moreover, a cryptographic use of abelian varieties restricting us to the dimension one and two cases, we prove that such a law exists for their classical projective embedding. Finally, we develop an algorithm, based on the theory of theta functions, computing this addition law in P^15 on the Jacobian of a genus two curve given in Rosenhain form. It is now included in AVIsogenies, a Magma package.
28

Classes de Steinitz, codes cycliques de Hamming et classes galoisiennes réalisables d'extensions non abéliennes de degré p³ / Steinitz classes, cyclic Hamming codes and realizable Galois module classes of nonabelian extensions of degree p³

Khalil, Maya 21 June 2016 (has links)
Le résumé n'est pas disponible. / Le résumé n'est pas disponible.

Page generated in 0.0891 seconds