• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 49
  • 18
  • 1
  • Tagged with
  • 119
  • 78
  • 24
  • 21
  • 20
  • 20
  • 18
  • 15
  • 15
  • 15
  • 15
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Jugement éthique pour la décision et la coopération dans les systèmes multi-agents / Ethical Judgment for decision and cooperation in multiagent systems

Cointe, Nicolas 18 December 2017 (has links)
L’usage croissant des systèmes multi-agents dans divers domaines d’application soulève la nécessité de concevoir des agents capables de prendre des décisions s’appuyant sur des principes éthiques. Notre objectif est d’équiper les agents de capacités de raisonnement éthique pour permettre la mise en place de coopérations fondées sur l’éthique. Ce travail propose un modèle de jugement éthique pour les agents autonomes artificiels dans les systèmes multi-agents permettantde guider leurs décisions afin d’influencer leur comportement individuel d’une part, et de décrire un cadre de coopération fondée sur l’éthique d’autre part. Les éléments de ce modèle reposent sur une distinction entre la morale (ou théorie du bien), décrivant le caractère bon ou mauvais des actions d’un agent en faisant appel à la définition de valeurs morales et de règles morales, et l’éthique (ou théorie du juste), permettant de juger de l’action qu’il est juste d’effectuer dans une situation au regard d’un ensemble ordonné de principes éthiques et des actions moralement évaluées. L’agent, en employant ce modèle de jugement comme un processus décisionnel, adopte alors un comportement éthique du point de vue des théories du bien et du juste qui lui sont confiées. Il lui est également possible d’employer ce modèle pour juger le comportement des autres agents et tenir compte de ce jugement dans son propre comportement vis-à-vis des agents jugés.La présentation de ce modèle est accompagnée d’expérimentations illustrant son utilisation dans un domaine applicatif rséaliste de gestion éthique d’actifs financiers permettant d’éprouver l’influence du jugement sur le comportement des agents. / The increasing use of multiagent systems in various fields raises the need of autonomous agents able to take into account such ethical principles in their decisions. More and more propositions are published, but they are often agent-centered and they don’t consider the issues raised by the interactions between artificial agents and possibly humans, potentially using another ethics. Our goal is to give the agents the ability to reason on ethics to enable an ethics-based cooperation in multiagent systems. This work presents a model of ethical judgment for artificial autonomous agents in multiagent systems both useful to influence their decisions and behaviors, and describes an ethics-based cooperation framework. This model distinguishes the morality (or theory of the good), describing the goodness of actions in a context regarding a set of moral values and moral rules, and ethics (or theory of the right), describing the rightness of an action regarding a set of ethical principles. The use of this model in the decision process generates a conform behavior regarding the chosen theories of good and right. An agent may also use this model to judge the observed behavior of the other agents and employ this judgment to adapt its own behavior towards the judged agents. The detailed presentation of this model is followed by some experimentations to show the use of this model in a realistic application based on an ethical asset management scenario. The results show how the behaviors of the agents might be impacted and the efficiency of this model to discriminate the behaviors of the others.
22

La chimie computationnelle appliquée à l'étude de la réactivité et de la sélectivité de mécanismes réactionnels en chimie organique

Moutounet, Odile January 2018 (has links)
Grâce à la chimie computationnelle, nous avons pu étudier la réactivité et la sélectivité de trois familles de réactions en chimie organique. Nous avons utilisé la méthode DFT avec la fonctionnelle M06-2X pour l’ensemble de nos projets. Les réactions promues par l’iode hypervalent étudiées dans cette thèse sont en rapport direct avec les travaux réalisés au sein de notre laboratoire de recherche. La collaboration réalisée sur les BACs et les NHCs est un travail pionnier dans l’étude mécanistique détaillée de ces catalyseurs. Dans le premier chapitre nous nous sommes intéressés à des réactions de cyclisation et de SN2 promue par l’iode hypervalent. Cette étude avait pour but de prédire l’influence de différents groupements sur la préférence entre ces deux réactions, dans le but de favoriser la création d’une liaison carbone-carbone. Nous avons pu démontrer que la présence de certains groupements permet d’envisager la formation de cycles à cinq membres. Le second chapitre porte sur la réaction d’αhydrolyse oxydante de chloroalcènes, impliquant le réactif de Koser. Nos calculs ont permis de rationaliser les résultats expérimentaux de l’observation de la migration interne du phényle. Nous avons également confirmé que l’intermédiaire provenant de l’addition d’une molécule d’’eau permet de favoriser la migration interne du chlore. Enfin, nous avons appuyé la possibilité d’un mécanisme « release-and-catch » proposé à la suite d’une expérience de mélange réalisée au sein du laboratoire. Finalement, nous avons pu réaliser une collaboration avec le Professeur Michel Gravel sur la réactivité et la sélectivité de la réaction de Stetter catalysée par un BAC ou un NHC. Nous avons été en mesure de déterminer que la différence de réactivité observée dépend essentiellement de la nature de l’étape déterminante. La sélectivité observée expérimentalement a également pu être rationnalisée grâce aux calculs. Pour finir, les premières conclusions concernant la condensation de benzoïne ont été établies.
23

Analysis of geometric and functional shapes with extensions of currents : applications to registration and atlas estimation / Analyse de formes géométriques et fonctionnelles via des extensions de la notion de courant : applications au recalage difféomorphique et à l'estimation d'atlas en anatomie numérique

Charon, Nicolas 14 November 2013 (has links)
Cette thèse s'articule autour de problématiques liées au domaine récent de l'anatomie numérique dont l'objet est de fournir des cadres à la fois mathématiques et numériques pour estimer la variabilité statistique au sein de populations de formes géométriques. Dans ce travail, on s'intéresse dans un premier temps au cas d'ensemble de courbes, de surfaces ou sous-variétés avec pour premier objectif de définir une représentation et des termes d'attache aux données adéquats pour les problèmes de recalage par grande déformation (LDDMM). Les précédentes approches reposant sur le cadre des courants qui traite le cas d'objets orientés, nous proposons une extension pour des formes géométriques non-orientées via la représentation des varifolds issue de la théorie géométrique de la mesure. Dans un second temps, ce travail se penche sur l'étude d'objets géométrico-fonctionnels aussi baptisés 'formes fonctionnelles', c'est à dire de fonctions ou de signaux définis sur des supports géométriques variables entre les individus. On définit notamment la notion de métamorphoses géométrico-fonctionnelles pour généraliser celle de déformation à ce contexte ainsi que la notion de courant fonctionnel pour mesurer la dissimilarité entre deux formes fonctionnelles. Ceci débouche assez naturellement sur un tout nouveau cadre mathématique et algorithmique permettant d'étendre les outils usuels de recalage difféomorphique. Enfin, on s'intéresse à la situation plus générale de l'estimation et l'analyse d'atlas pour des ensembles de telles structures en proposant en particulier une formulation mathématique bien posée pour de tels problèmes ainsi qu'un algorithme d'estimation simultanée géométrie/fonction puis des outils pour l'analyse statistique et la classification. Ces méthodes sont illustrées sur quelques jeux de données synthétiques et d'autres issues de l'imagerie biomédicale. / This thesis addresses several questions related to the recent field of computational anatomy. Broadly speaking, computational anatomy intends to analyse shape variability among populations of anatomical structures. In this work, we are focused, in the first place, on the case of datasets of curves, surfaces and more generally submanifolds. Our goal is to provide a mathematical and numerical setting to build relevant data attachment terms between those objects in the purpose of embedding it into the large diffeomorphic metric mapping (LDDMM) model for shape registration. Previous approaches have been relying on the concept of currents that represents oriented submanifolds. We first propose an extension of these methods to the situation of non-oriented shapes by adapting the concept of varifolds from geometric measure theory. In the second place, we focus on the study of geometrico-functional structures we call 'functional shapes' (or fshapes), which combine varying geometries across individuals with signal functions defined on these shapes. We introduce the new notion of fshape metamorphosis to generalize the idea of deformation groups in the pure geometrical case. In addition, we define the extended setting of 'functional currents' to quantify dissimilarity between fshapes and thus perform geometrico-functional registration between such objects. Finally, in the last part of the thesis, we move on to the issue of analyzing entire groups of individuals (shapes or fshapes) together. In that perspective, we introduce an atlas estimation variational formulation that we prove to be mathematically well-posed and build algorithms to estimate templates and atlases from populations, as well as tools to perform statistical analysis and classification. All these methods are evaluated on several applications to synthetic datasets on the one hand and real datasets from biomedical imaging on the other.
24

Modélisation mathématique de la différenciation précoce des lymphocytes T auxiliaires / Mathematical modeling of the early differentiation of helper T cells

Robert, Philippe A. 20 February 2017 (has links)
Les Lymphocytes T auxiliaires sont nécessaires pour la production de cytokines adaptées au type d'infection. Différentes sous-populations ont été décrites, parmi lesquelles les Th1, Th2, et Th17, pro-inflammatoires et les iTregs, anti-inflammatoires, exprimant Foxp3. La décision prise par une cellules T naïve de se différentier en l'une de ces populations est étudiée ici.Des découvertes récentes ont montré que les nutriments peuvent modifier la différentiation, mais elles ont négligé la glutamine en dépit de son importance comme source principale d'azote. Dans cette étude, un manque de glutamine induit une expression ectopique de Foxp3 en cours de différentiation en Th1 mais pas en Th2, tout en altérant la différentiation des Th1 et Th17. Cela suggère que, dans des environnements métaboliquement pauvres comme au sein de tumeurs solides, le manque de glutamine pourrait supporter une réponse anti-inflammatoire et donc néfaste.Dans l'optique de comprendre comment la détection de la glutamine influence le réseau de régulation de la différentiation des lymphocytes auxiliaires, une approche de modélisation mathématique a été suivie, consistant d'équation différentielles, et conçue pour capturer les propriétés de cette différentiation. Pour la phase d'apprentissage du modèle, les cinétiques d'expression des principaux facteurs de transcription et cytokines ont été mesurées in vitro en conditions normales, en présence de glutamine. Ces données ont décelé des retards majeurs en terme de transcription, traduction et sécrétion des cytokines, qui à leur tour façonnent l'ordre des évènements qui décident l'issue de la différentiation. Le modèle a reproduit avec succès la dynamique des différentiation 'canoniques', montrant que celles-ci peuvent être expliquées par un réseau de régulation relativement simple. Cependant, le modèle n'a reproduit qu'une partie des propriétés de plasticité des lymphocytes T, et a besoin d'être affiné. Ce n'est qu'alors qu'il pourra être utilisé pour comparer différentes hypothèses mécanistiques sur l'impact de la glutamine sur la différentiation. / T helper cells are required to produce cytokines adapted to the type of infection. Several subsets have been defined, including pro-inflammatory Th1, Th2, Th17; and anti-inflammatory, Foxp3+ iTreg cells. The fate-determining decision of a naive T cell to differentiate into a defined subset was investigated here.Recent findings showed that metabolic constituents impact T cell differentiation, but so far the influence of glutamine on T cell differentiation has been neglected although being the main source of nitrogen. In this study, deprivation of glutamine induced an abnormal expression of Foxp3 under Th1 but not under Th2 condition, while impairing Th1 and Th17 differentiation. Thus, in poor metabolic micro-environments like solid tumours, a lack of glutamine would initiate a detrimental anti-inflammatory response.A mathematical modelling approach using Ordinary Differential Equations was chosen to capture the properties of T cell differentiation, first in normal conditions with glutamine. In order to train the model, kinetics of the master transcription factors and cytokines expression were measured under different T cell differentiation polarizing conditions. The in vitro data revealed major delays in transcription, translation and secretion of cytokines, which shaped the order of fate decision events. The model could successfully reproduce the dynamics of differentiation, confirming that the 'canonical' differentiation in vitro can be explained by a simple regulatory network. However, it only partially reproduced the plastic behaviour of T cells. The mathematical model will be utilized to compare different mechanistic hypotheses linking glutamine sensing to differentiation.
25

Computational approaches toward protein design / Approches computationnelles pour le design de protéines

Traore, Seydou 23 October 2014 (has links)
Le Design computationnel de protéines, en anglais « Computational Protein Design » (CPD), est un champ derecherche récent qui vise à fournir des outils de prédiction pour compléter l'ingénierie des protéines. En effet,outre la compréhension théorique des propriétés physico-chimiques fondamentales et fonctionnelles desprotéines, l’ingénierie des protéines a d’importantes applications dans un large éventail de domaines, y comprisdans la biomédecine, la biotechnologie, la nanobiotechnologie et la conception de composés respectueux del’environnement. Le CPD cherche ainsi à accélérer le design de protéines dotées des propriétés désirées enpermettant le traitement d’espaces de séquences de large taille tout en limitant les coûts financier et humain auniveau expérimental.Pour atteindre cet objectif, le CPD requière trois ingrédients conçus de manière appropriée: 1) une modélisationréaliste du système à remodeler; 2) une définition précise des fonctions objectives permettant de caractériser lafonction biochimique ou la propriété physico-chimique cible; 3) et enfin des méthodes d'optimisation efficacespour gérer de grandes tailles de combinatoire.Dans cette thèse, nous avons abordé le CPD avec une attention particulière portée sur l’optimisationcombinatoire. Dans une première série d'études, nous avons appliqué pour la première fois les méthodesd'optimisation de réseaux de fonctions de coût à la résolution de problèmes de CPD. Nous avons constaté qu’encomparaison des autres méthodes existantes, nos approches apportent une accélération du temps de calcul parplusieurs ordres de grandeur sur un large éventail de cas réels de CPD comprenant le design de la stabilité deprotéines ainsi que de complexes protéine-protéine et protéine-ligand. Un critère pour définir l'espace demutations des résidus a également été introduit afin de biaiser les séquences vers celles attendues par uneévolution naturelle en prenant en compte des propriétés structurales des acides aminés. Les méthodesdéveloppées ont été intégrées dans un logiciel dédié au CPD afin de les rendre plus facilement accessibles à lacommunauté scientifique. / Computational Protein Design (CPD) is a very young research field which aims at providing predictive tools to complementprotein engineering. Indeed, in addition to the theoretical understanding of fundamental properties and function of proteins,protein engineering has important applications in a broad range of fields, including biomedical applications, biotechnology,nanobiotechnology and the design of green reagents. CPD seeks at accelerating the design of proteins with wanted propertiesby enabling the exploration of larger sequence space while limiting the financial and human costs at experimental level.To succeed this endeavor, CPD requires three ingredients to be appropriately conceived: 1) a realistic modeling of the designsystem; 2) an accurate definition of objective functions for the target biochemical function or physico-chemical property; 3)and finally an efficient optimization framework to handle large combinatorial sizes.In this thesis, we addressed CPD problems with a special focus on combinatorial optimization. In a first series of studies, weapplied for the first time the Cost Function Network optimization framework to solve CPD problems and found that incomparison to other existing methods, it brings several orders of magnitude speedup on a wide range of real CPD instancesthat include the stability design of proteins, protein-protein and protein-ligand complexes. A tailored criterion to define themutation space of residues was also introduced in order to constrain output sequences to those expected by natural evolutionthrough the integration of some structural properties of amino acids in the protein environment. The developed methods werefinally integrated into a CPD-dedicated software in order to facilitate its accessibility to the scientific community.
26

Différences individuelles dans les processus de contrôle attentionnel chez des personnes jeunes et âgées : approches expérimentale et computationnelle / Individual differences in attentional control processes in people young and old : experimental and computational approaches

Deline, Stéphane 19 December 2011 (has links)
L’effet du vieillissement sur les fonctions cognitives de haut niveau demeure encore relativement incompris. Cette recherche vise à mieux comprendre les différences interindividuelles de performances entre les individus jeunes et âgés par l’étude des processus de contrôle attentionnel mis en jeu dans les tâches de commutation attentionnelle. Dans unpremier temps, deux tâches d’alternance de type séries alternées ont été administrées à des adultes jeunes et âgés. Les résultats n’indiquent pas d’effet de l’âge sur les coûts d’alternance mesurés mais en revanche un coût d’alternance symétrique (étude 1) et des coûts d’alternance locaux et globaux différents selon les individus (étude 1 et 2). Dans un second temps, un travail de modélisation du fonctionnement cognitif à l’aide de l’architecture cognitive ACT-R a été réalisé. Il permet de tester la plausibilité des hypothèses de diminution de la vitesse de traitement (VT) et de diminution de la capacité de la mémoire de travail (CMT), à pouvoir reproduire les différences de performances entre jeunes et âgés. Lesrésultats des tests d’hypothèse pour les deux études réalisées indiquent que ces hypothèses ne reproduisent pas assez les effets empiriquement observés ce qui suppose que les hypothèses de diminution de la VT ou de la CMT sont insuffisantes pour expliquer les différences de performances individuelles observées. Cette étude met en évidence l’intérêt de la modélisation cognitive computationnelle dans la compréhension des processus sous-jacent le fonctionnement cognitif humain / The effect of aging on high level cognitive functions is still relatively misunderstood. The aim of this research is to better understand individual performance differences between young and elderly individuals, by studying the attentional control processes involved in task switching. Initially, two switching tasks were administered to young and elderly adults. The results indicate no age effect on the switching cost but show an asymmetric switching cost (Study 1) and differentlocal and global switching costs between individuals (study 1 and 2). In a second step, a computational cognitive modeling of cognitive functioning is built using the ACT-R architecture. It enables to test the veracity of the assumptions of reduced processing speed (VT) and reduced capacity of working memory (WCL), to reproduce the observed performance differences between young and old individuals. The results of the hypothesis tests for both studies indicate that these assumptions do not reproduce adequately the empirically observed effects, which implies that the assumptions of decreased VT or CMT are insufficient to explain the individual performance differences observed. This study highlights the interest of computational cognitive modeling in the understanding of the processes underlying human cognitive functioning
27

Unified computational frameworks bridging low to high frequency simulations : fast and high fidelity modelling from brain to radio-frequency scenarios / Systèmes computationnel unifiés pour simulations de basse à haute fréquence : modélisations rapides et haute-fidélité pour des applications du cerveau aux radiofréquences

Merlini, Adrien 31 January 2019 (has links)
Dans le domaine de l’électromagnétisme computationnel, les équations intégrales de frontière sont très largement utilisées pour résoudre certains des plus grands problèmes directs, grâce à leur grande efficacité. Cependant les équations intégrales du champ électrique et du champ combiné (EFIE et CFIE), deux des formulations les plus employées, souffrent d’instabilités à basse fréquence et à haute discrétisation, ce qui limite leur versatilité. Dans cette thèse différentes approches sont présentées pour obtenir des algorithmes applicables aussi bien à des problèmes de compatibilité électromagnétique qu’à des applications radar. Les solutions présentées incluent (i) l’extension des projecteurs dit quasi-Helmholtz (qH) aux modélisations d’ordre supérieur ; (ii) l’utilisation de ces projecteurs pour stabiliser l’équation intégrale du champ magnétique et former une CFIE extrêmement précise, augmentée par des techniques de type Calderón, qui ne souffre de problèmes ni à basse fréquence ni à haute discrétisation et qui n’est pas sujette aux résonances artificielles ; (iii) le développement d’une EFIE filaire, basée sur des B-splines linéaires et les projecteurs qH, stable aux deux extrémités du spectre. Ces travaux ont été suivis de l’ouverture d’un nouvel axe de recherche visant l’amélioration des techniques de résolution des problèmes inverses en électromagnétique, avec pour objectif principal l’augmentation des performances des interfaces cerveau machine (BCIs). Les premiers résultats obtenus incluent le développement de l’un des premiers systèmes libres de simulation de bout en bout de session de BCI ayant été publié après revue par les pairs. / In computational electromagnetics, boundary integral equations are the scheme of choice for solving extremely large forward electromagnetic problems due to their high efficiency. However, two of the most used of these formulations, the electric and combined field integral equations (EFIE and CFIE), suffer from stability issues at low frequency and dense discretization, limiting their applicability at both ends of the spectrum. This thesis focusses on remedying these issues to obtain full-wave solvers stable from low to high frequencies, capable of handling scenarios ranging from electromagnetic compatibility to radar applications. The solutions presented include (i) extending the quasi-Helmholtz (qH) projectors to higher order modeling thus combining stability with high order convergence rates; (ii) leveraging on the qH projectors to numerically stabilize the magnetic field integral equation and obtain a highly accurate and provably resonance-free Calderón-augmented CFIE immune to both of the aforementioned problems; and(iii) introducing a new low frequency and dense discretization stable wire EFIE based on projectors and linear B-splines. In addition, a research axis focused on enhancing Brain Computer Interface (BCIs) with high resolution electromagnetic modeling of the brain has been opened ; a particular attention is dedicated to the inverse problem of electromagnetics and the associated integral equation-based forward problem. The first results of this new line of investigations include the development of one of the first peer-reviewed, freely available framework for end-to-end simulation of BCI experiments.
28

Geometrical Growth Models for Computational Anatomy / Modèles géométriques de croissance en anatomie computationnelle

Kaltenmark, Irène 10 October 2016 (has links)
Dans le domaine de l'anatomie, à l'investissement massif dans la constitution de base de données collectant des données d'imagerie médicale, doit répondre le développement de techniques numériques modernes pour une quantification de la façon dont les pathologies affectent et modifie les structures biologiques. Le développement d'approches géométriques via les espaces homogènes et la géométrie riemannienne en dimension infinie, initialisé il y a une dizaine d'années par Christensen et Miller, et simultanément Trouvé et Younes, et mettant en œuvre des idées originales de d'Arcy Thompson, a permis de construire ces dernières années un cadre conceptuel extrêmement efficace pour attaquer le problème de la modélisation et de l'analyse de la variabilité de populations de formes. Néanmoins, à l'intégration de l'analyse longitudinale des données, ont émergé des phénomènes biologiques de croissance ou de dégénérescence se manifestant via des déformations spécifiques de nature non difféomorphique. On peut en effet observer lors de la croissance d'un composant organique, une apparition progressive de matière qui ne s'apparente pas à un simple étirement du tissu initial. Face à cette observation, nous proposons de garder l'esprit géométrique qui fait la puissance des approches difféomorphiques dans les espaces de formes mais en introduisant un concept assez général de déploiement où l'on modélise les phénomènes de croissance comme le déploiement optimal progressif d'un modèle préalablement replié dans une région de l'espace. Nous présentons donc une généralisation des méthodes difféomorphiques classiques pour modéliser plus fidèlement l'évolution de chaque individu d'une population et saisir l'ensemble de la dynamique de croissance. Nous nous appuyons sur l'exemple concret de la croissance des cornes animales. La considération d'un a priori sur la dynamique de croissance de la corne, nous permet de construire un chemin continu dans un espace de formes, modélisant l'évolution de la corne de sa naissance, d'un état réduit à un point (comme l'état d'embryon pour un humain ou de graine pour une plante) à un âge adulte quelconque de corne bien déployée. Au lieu d'étirer la corne, nous anticipons l'arrivée matière nouvelle en des endroits prédéfinis. Pour cela, nous définissons une forme mère indépendante du temps dans un espace virtuel, qui est progressivement plongée dans l'espace ambiant en fonction d'un marqueur temporel prédéfini sur la forme mère. Finalement, nous aboutissons à un nouveau problème de contrôle optimal pour l'assimilation de données de surfaces évoluant dans le temps, conduisant à un problème intéressant dans le domaine du calcul des variations où le choix pour la représentation des données, courant ou varifold, joue un rôle inattendu. / The Large Deformation Diffeomorphic Metric Mapping (LDDMM) framework has proved to be highly efficient for addressing the problem of modelling and analysis of the variability of populations of shapes, allowing for the direct comparison and quantization of diffeomorphic morphometric changes. However, the analysis of medical imaging data also requires the processing of more complex changes, which especially appear during growth or aging phenomena. The observed organisms are subject to transformations over the time which are no longer diffeomorphic, at least in a biological sense. One reason might be a gradual creation of new material uncorrelated to the preexisting one. For this purpose, we offer to extend the LDDMM framework to address the problem of non diffeomorphic structural variations in longitudinal scenarios during a growth or degenerative process. We keep the geometric central concept of a group of deformations acting on a shape space. However, the shapes will be encoded by a new enriched mathematical object allowing through partial mappings an intrinsic evolution dissociated from external deformations. We focus on the specific case of the growth of animal horns.Ultimately, we integrate these growth priors into a new optimal control problem for assimilation of time-varying surface data, leading to an interesting problem in the field of the calculus of variations where the choice of the attachment term on the data, current or varifold, plays an unexpected role.
29

La synthèse automatique de paraphrases comme outil de vérification des dictionnaires et grammaires de type sens-texte

Lareau, François January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
30

Création automatique d'un dictionnaire des régimes des verbes du français

Hassert, Naïma 06 1900 (has links)
Les dictionnaires de valence sont utiles dans plusieurs tâches en traitement automatique des langues. Or, les dictionnaires de qualité de ce type sont créés au moins en partie manuellement; ils nécessitent donc beaucoup de ressources et sont difficiles à mettre à jour. De plus, plusieurs de ces ressources ne prennent pas en compte les différents sens des lemmes, qui sont pourtant importants puisque les arguments sélectionnés ont tendance à varier selon le sens du verbe. Dans ce mémoire, nous créons automatiquement un dictionnaire de valence des verbes du français qui tient compte de la polysémie. Nous extrayons 20 000 exemples de phrases pour chacun des 2 000 verbes les plus fréquents du franc¸ais. Nous obtenons ensuite les plongements lexicaux de ces verbes en contexte à l’aide d’un modèle de langue monolingue et de deux modèles de langue multilingues. Puis, nous utilisons des algorithmes de regroupement pour induire les différents sens de ces verbes. Enfin, nous analysons automatiquement les phrases à l’aide de différents analyseurs syntaxiques afin de trouver leurs arguments. Nous déterminons que la combinaison du modèle de langue français CamemBERT et d’un algorithme de regroupement agglomératif offre les meilleurs résultats dans la tâche d’induction de sens (58,19% de F1 B3), et que pour l’analyse syntaxique, Stanza est l’outil qui a les meilleures performances (83,29% de F1). En filtrant les cadres syntaxiques obtenus à l’aide d’une estimation de la vraisemblance maximale, une méthode statistique très simple qui permet de trouver les paramètres les plus vraisemblables d’un modèle de probabilité qui explique nos données, nous construisons un dictionnaire de valence qui se passe presque complètement d’intervention humaine. Notre procédé est ici utilisé pour le français, mais peut être utilisé pour n’importe quelle autre langue pour laquelle il existe suffisamment de données écrites. / Valency dictionaries are useful for many tasks in automatic language processing. However, quality dictionaries of this type are created at least in part manually; they are therefore resource-intensive and difficult to update. In addition, many of these resources do not take into account the different meanings of lemmas, which are important because the arguments selected tend to vary according to the meaning of the verb. In this thesis, we automatically create a French verb valency dictionary that takes polysemy into account. We extract 20 000 example sentences for each of the 2 000 most frequent French verbs. We then obtain the lexical embeddings of these verbs in context using a monolingual and two multilingual language models. Then, we use clustering algorithms to induce the different meanings of these verbs. Finally, we automatically parse the sentences using different parsers to find their arguments. We determine that the combination of the French language model CamemBERT and an agglomerative clustering algorithm offers the best results in the sense induction task (58.19% of F1 B3), and that for syntactic parsing, Stanza is the tool with the best performance (83.29% of F1). By filtering the syntactic frames obtained using maximum likelihood estimation, a very simple statistical method for finding the most likely parameters of a probability model that explains our data, we build a valency dictionary that almost completely dispenses with human intervention. Our procedure is used here for French, but can be used for any other language for which sufficient written data exists.

Page generated in 0.082 seconds