• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 6
  • 3
  • Tagged with
  • 25
  • 16
  • 11
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reaching Agreement in Multiagent Systems

Maudet, Nicolas 13 December 2010 (has links) (PDF)
Les systèmes multi-agents mettent en jeu des entités artificielles, conçues par des utilisateurs potentiellement différents, devant se coordonner pour atteindre leur but. La problématique générale est donc l'atteinte d'états "satisfaisants" en dépit de contraintes liées à la distribution des entités qui prennent part à la décision collective, et du caractère non nécessairement coopératifs de ces agents. Je discute de problèmes de vote dans le cas où les profils représentant les préférences des agents prenant part à la décision ne sont pas complètement spécifiés (à cause, par exemple, de la perte de messages du fait de la distribution, ou encore de l'impossibilité de spécifier parfaitement un profil portant sur un nombre rédhibitoire d'alternatives, comme dans le cas de domaines combinatoires). Les questions que nous abordons sont par exemple celles de la taille minimale nécessaire à encoder le profil partiel tout en restant capable de déterminer de manière certaine l'alternative choisie après complétion des votes, ou encore de la difficulté (algorithmique) liée à la détermination des alternatives que l'on peut exclure sans craindre de regretter ce choix plus tard, même si d'autres alternatives peuvent apparaîtrent. J'aborde également des procédures complètement décentralisées d'allocation de ressources. Ici on suppose que les agents débutent avec une allocation initiale et modifient de manière itérative cette allocation par le biais de contrats, c'est-à-dire de réallocation locale de ressources entre eux. En posant la contrainte que chacun de ces contrats doit être individuellement rationnel on se penche sur les garanties de convergence de tels systèmes vers de états efficaces et/ou équitables (au sens par exemple de l'égalitarisme ou l'absence d'envie). J'envisage enfin un processus de prise de décision collective plus délibératif, au sens où les agents peuvent échanger des arguments et contre-arguments, pour (éventuellement) modifier le point de vue des autres. Dans un premier temps je discute d'un cadre où les agents coopèrent en vue d'établir un diagnostic commun d'une situation, alors que les agents ne percoivent que localement leur environnement et ne disposent que de possibilités restreintes de communication. Chaque agent construit (sur la base d'informations partielles) une hypothèse qui pourra être par la suite réfutée par d'autres agents, nous sommes en présence d'un raisonnement de type non-monotone. Je présente enfin brièvement le cadre non-coopératif d'une argumentation multi-partite, où les agents peuvent avoir des opinions réellement contradictoires. Un protocole simple est proposé, qui contraint minimalement la pertinence des arguments échangés, et quelques phénomènes liés au comportement statégique des agents sont illustrés.
2

Modélisation de la cognition dans le domaine des arts visuels

Leclerc, Jude January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Contribution d'un modèle computationnel de sélection de stratégies de navigation aux hypothèses relatives à l'apprentissage spatial

Dollé, Laurent 29 October 2010 (has links) (PDF)
De nombreuses expériences montrent la capacité des mammifères, particulièrement étudiée chez le rat, à pouvoir utiliser plusieurs types de navigation pour rejoindre un but. Ces stratégies seraient utilisées en fonction de la disponibilité de différents types d'amers présents dans l'environnement, situés à la proximité ou loin du but (resp. amers proximaux et distaux), ainsi que d'autres facteurs, comme la motivation, l'expérience ou le stress. Les études ont notamment porté ces dernières décennies sur les systèmes de mémoires engagés dans l'utilisation de ces stratégies, l'hypothèse dominante étant que des modules apprennent en parallèle des types distincts de stratégies, reposant ou non sur la construction d'une représentation interne de l'environnement. Les unes, reposant sur l'utilisation d'amers visibles, seraient apprises de manière relativement inflexible (apprentissage procédural) et impliqueraient notamment le striatum dorso-latéral. D'autres impliqueraient la formation hippocampique et reposeraient sur la construction préalable d'une "carte cognitive" de l'environnement (apprentissage déclaratif), en intégrant de manière redondante les amers disponibles. Cette carte, apprise indépendamment de la position du but, confèrerait une flexibilité importante à ce type de stratégies puisqu'elle aurait la capacité de repositionner rapidement le but, si celui-ci venait à être déplacé. L'hypothèse d'une telle représentation spatiale (théorie dite "cognitive") et de systèmes parallèles ayant des capacités différentes d'apprentissage est supportée par des comparaisons entre animaux intacts et animaux ayant des lésions des structures nerveuses concernées, de même que des expériences impliquant des manipulations de l'environnement (e.g., déplacement d'amers). Cette hypothèse est toutefois remise en question par la nature de l'apprentissage impliqué : la construction d'une représentation spatiale et son utilisation est contraire à nombre d'observations tendant à montrer que le comportement spatial est avant tout dirigé par une compétition entre les amers disponibles, résultant du même apprentissage procédural que celui mis en oeuvre dans un conditionnement opérant (théorie dite "associative"). Des expériences démontrent en effet que certains amers peuvent être occultés ou bloqués par d'autres selon qu'ils sont appris parallèlement ou séquentiellement, et remettent ainsi en question la possibilité d'intégrer ces amers de manière redondante. Selon les tenants de cette théorie, la navigation serait donc avant tout apprise et gérée de manière unitaire, empêchant ainsi l'émergence de plusieurs stratégies apprises en parallèle. Nous adoptons ici l'hypothèse, déjà formulée par d'autres neurobiologistes, que ces deux points de vue antagonistes pourraient s'expliquer par une gestion modulaire de la navigation, permettant des apprentissages différenciés et parallèles de plusieurs stratégies, et dont le mécanisme de sélection pourrait favoriser soit les compétitions entre amers, soit la nécessité de leur intégration. Cette thèse vise à concevoir un modèle computationnel de sélection de stratégies de navigation qui concilie les deux théories ou, a minima, y apporte des éléments de débats. La conception du modèle computationnel proposé dans ce travail et sous-tendu par cette hypothèse a nécessité de fait la mise en place d'une règle de sélection ne dépendant pas de la nature de l'apprentissage des stratégies et pouvant privilégier soit certains amers, soit l'utilisation d'une représentation spatiale construite avec plusieurs amers. Ce modèle sélectionne en ligne des stratégies apprises par des algorithmes d'apprentissage procéduraux (apprentissage par renforcement) et déclaratifs (recherche de graphe). Ces acquisitions s'effectuent en parallèle et peuvent favoriser une coopération entre les stratégies, car chacune peut apprendre des comportements de l'autre. Le module de sélection de ces stratégies peut inciter des interactions compétitives, car il effectue ses choix sur la base d'un apprentissage de type associatif. L'existence d'un tel module de sélection, indépendant des systèmes d'apprentissage des stratégies, est corroboré par certains travaux récents démontrant l'implication de structures du cortex préfrontal et des ganglions de la base dans cette fonction. Le dispositif expérimental utilisé est la piscine de Morris, dans laquelle le comportement spatial de rats a été étudié de façon approfondie depuis une trentaine d'années. Nous avons limité nos analyses, d'une part, aux interactions entre stratégies de guidage (utilisant directement des indices visuels) et stratégies de lieu (utilisant une représentation spatiale construite à partir de cellules de lieu simulées par un modèle d'hippocampe intégré au modèle) et, d'autre part, à la recherche d'un seul but, dépendant d'un seul système motivationnel. Après avoir démontré le comportement du modèle dans des situations où seuls certains types d'amers (proximaux ou distaux) sont présents, nous avons reproduit diverses expériences dans lesquelles l'influence de l'interaction de ces types d'amers a donné lieu à des interprétations issues de l'une ou de l'autre des deux théories antagonistes. Nous y apportons un corpus d'explications, conciliant à la fois les données neurobiologiques et comportementales, ainsi que des prédictions comportementales qui permettront aux neurobiologistes d'estimer l'utilité de ce modèle. Nous avançons notamment que l'utilisation d'une stratégie fondée sur une carte cognitive (intégration d'amers) ne peut pas être écartée, car elle se révèle indispensable pour expliquer certains effets de blocage ou d'occultation caractéristiques de la théorie associative. Nous suggérons aussi que l'existence de deux stratégies de guidage, l'une ayant un cadre de référence égocentré (apprenant les trajets conduisant au but en fonction de l'orientation du corps), l'autre un cadre de référence allocentré (apprenant une direction générale conduisant au but en fonction d'un repère absolu) doit nécessairement être prise en compte pour générer certaines interactions compétitives ou coopératives observées entre systèmes de navigation. Nous montrons aussi qu'une intégration d'amers n'est pas forcément utilisée par les animaux car une stratégie de guidage allocentrée, même fondée sur une compétition d'amers, peut être suffisante dans certains contextes pour expliquer leur comportement. En résumé, ce modèle de navigation, associant des systèmes parallèles d'apprentissage procéduraux et déclaratifs et sélectionnés par un mécanisme procédural, est en mesure de proposer une architecture computationnelle qui pourrait concilier les hypothèses issues des théories associative et cognitive du comportement spatial. Ce travail a également une retombée dans le domaine de la robotique, proposant par cette architecture une augmentation de l'autonomie dans la navigation d'un système artificiel, pouvant sélectionner en ligne les stratégies les plus efficaces pour atteindre ses ressources.
4

Apprentissage et contrôle cognitif : une théorie computationnelle de la fonction exécutive préfontale humaine

Collins, Anne 05 January 2010 (has links) (PDF)
Le contrôle cognitif est la capacité à réagir à des stimuli de manière adaptée au contexte présent ou aux indices passés, en tenant compte de nos buts internes. Le contrôle cognitif et l'apprentissage entretiennent des liens profonds et réciproques. D'un côté, le contrôle cognitif requiert que nous ayons appris un répertoire de comportements ainsi que leur valeur dans différentes conditions, afin de les utiliser à bon escient. D'un autre côté, l'apprentissage d'un répertoire de comportements nécessite du contrôle cognitif, notamment pour réguler l'équilibre entre exploration et exploitation, mais également pour généraliser, décider d'un switch, induire une structure dans un problème, etc.. . . Le contrôle cognitif et l'apprentissage sont donc indissociablement liés dans la flexibilité qui carac- térise la fonction exécutive préfrontale humaine. Cependant, ce lien est actuellement mal compris et peu de travaux de psychologie ou neurosciences cognitives intègrent ces deux aspects. De même, les modèles computationnels d'apprentissage ou de décision existants ne rendent pas compte de leur interaction. Dans ce travail de thèse, nous proposons une théorie mathématique reposant sur des mécanismes d'apprentissage par renforcement et d'inférence bayésienne, qui intègre l'apprentissage de répertoires de comportements (task-sets) dans un milieu incertain et le contrôle cognitif (task-switching) en présence ou en l'absence d'information contextuelle. Cette théorie permet de faire des prédictions spécifiques que nous avons testées dans le cadre de deux expériences comportementales. Celles-ci ont permis de valider les prédictions de la théorie et d'invalider d'autres modèles existants. De plus, la théorie proposée permet d'avancer un facteur explicatif des différences qualitatives de stratégies d'exploration observées entre différents individus. La théorie proposée caractérise de façon intrinsèque des notions essentielles telles que le comporte- ment par défaut, le switch et l'exploration. Elle permet de faire émerger naturellement un mécanisme de contrôle du compromis exploitation - exploration, ainsi que son facteur de pondération. Enfin, les résultats empiriques valident les prédictions et confirment les hypothèses du modèle. Celui-ci pourra être utilisé pour comprendre les computations effectuées par le cerveau dans des études d'imagerie fonctionnelle, avec le cortex préfrontal, les ganglions de la base et des neuromodulateurs (dopamine et norépinephrine) comme centres d'intérêt principaux.
5

Expliquer et comprendre dans les sciences empiriques : les modèles scientifiques et le tournant computationnel / Explanation and understanding in the empirical sciences : scientific models and the computational turn

Jebeile, Julie 11 December 2013 (has links)
Comprendre les phénomènes consiste souvent a interroger les modèles mathématiques des systèmes considérés. En particulier. il s'agit d'obtenir par leur intermédiaire des réponses fiables aux questions de type « pourquoi'? ». Nous y réussissons dès lors que les modèles sont acceptables et intelligibles: c'est l'idée directrice de la thèse. Ce double réquisit est ainsi étudié; d'abord dans l'analyse des modèles analytiques puis dans celle des modèles de simulation. Cela a permis dans un premier temps de mettre en lumière le rôle positif des idéalisations dans la compréhension par les modèles analytiques. Puis, dans un second temps, il a été possible d'identifier les conséquences du tournant computationnel. Il demeure en effet un fossé entre le modèle computationnel et ses résultats, il cause, notamment de l'opacité épistémologique des simulations numériques. Or ce fossé semble doublement entraver notre compréhension des phénomènes simulés. En effet, d'une part, certaines difficultés d'ordre épistémologique, qui sont propre à la justification et a l'utilisation des modèles de simulation, contreviennent il leur acceptabilité. D'autre part, puisque la simulation ne peut pas faire l'objet d'une inspection directe, il est difficile pour l'utilisateur de faire la relation entre les résultats de cette simulation et le contenu du modèle : celui-ci devenant par là-même inintelligible. Néanmoins. les représentations visuelles semblent jouer un rôle fondamental en permettant de surmonter le problème de l'opacité des simulations et ainsi d'assurer une fonction explicative. / Understanding phenomena often requires using mathematical models of the target systems. ln particular, this requires obtaining. through them. reliable answers to why-questions. In this context, we achieve understanding once the models are acceptable and intelligible; this is the central assumption in this thesis. This double requirement is thus studied first in the analysis of analytical models. and then in the analysis of simulation models. This study first allowed us to highlight the positive role of idealizations in understanding through analytical models. Next, it allowed for an identification of the consequences of the computational turn. There is in fact a gap between a computational model and its results. partly because of the epistemic opacity of computer simulations. This gap seems to doubly hinder our understanding of simulated phenomena. On the one hand, some epistemological difficulties arise which are specific to the justification and the use of simulation models. These difficulties contravene their acceptability. On the other hand, since simulation is not open to direct inspection. it seems difficult for a user to make the relation between the model content and its results. Nevertheless, visual representations seem to play a fundamental function in allowing us to overcome the opacity issue. and thus to provide us with explanatory elements to our why-questions.
6

Défis algorithmiques pour les simulations biomoléculaires et la conception de protéines / Algorithmic challenges for biomolecular simulations and protein design

Druart, Karen 05 December 2016 (has links)
Le dessin computationnel de protéine, ou CPD, est une technique qui permet de modifier les protéines pour leur conférer de nouvelles propriétés, en exploitant leurs structures 3D et une modélisation moléculaire. Pour rendre la méthode de plus en plus prédictive, les modèles employés doivent constamment progresser. Dans cette thèse, nous avons abordé le problème de la représentation explicite de la flexibilité du squelette protéique. Nous avons développé une méthode de dessin "multi-états", qui se base sur une bibliothèque discrète de conformations du squelette, établie à l'avance. Dans un contexte de simulation Monte Carlo, le paysage énergétique d'une protéine étant rugueux, les changements de squelettes ne peuvent etre acceptés que moyennant certaines précautions. Aussi, pour explorer ces conformations, en même temps que des mutations et des mouvements de chaînes latérales, nous avons introduit un nouveau type de déplacement dans une méthode Monte Carlo existante. Il s'agit d'un déplacement "hybride", où un changement de squelette est suivi d'une courte relaxation Monte Carlo des chaînes latérales seules, après laquelle un test d'acceptation est effectué. Pour respecter une distribution de Boltzmann des états, la probabilité doit avoir une forme précise, qui contient une intégrale de chemin, difficile à calculer en pratique. Deux approximations sont explorées en détail: une basée sur un seul chemin de relaxation, ou chemin "générateur" (Single Path Approximation, ou SPA), et une plus complexe basée sur un ensemble de chemins, obtenus en permutant les étapes élémentaires du chemin générateur (Permuted Path Approximation, ou PPA). Ces deux approximations sont étudiées et comparées sur deux protéines. En particulier, nous calculons les énergies relatives des conformations du squelette en utilisant trois méthodes différentes, qui passent réversiblement d'une conformation à l'autre en empruntent des chemins très différents. Le bon accord entre les méthodes, obtenu avec de nombreuses paramétrisations différentes, montre que l'énergie libre se comporte bien comme une fonction d'état, suggérant que les états sont bien échantillonnés selon la distribution de Boltzmann. La méthode d'échantillonnage est ensuite appliquée à une boucle dans le site actif de la tyrosyl-ARNt synthétase, permettant d'identifier des séquences qui favorisent une conformation, soit ouverte, soit fermée de la boucle, permettant en principe de contrôler ou redessiner sa conformation. Nous décrivons enfin un travail préliminaire visant à augmenter encore la flexibilité du squelette, en explorant un espace de conformations continu et non plus discret. Ce changement d'espace oblige à restructurer complètement le calcul des énergies et le déroulement des simulations, augmente considérable le coût des calculs, et nécessite une parallélisation beaucoup plus agressive du logiciel de simulation. / Computational protein design is a method to modify proteins and obtain new properties, using their 3D structure and molecular modelling. To make the method more predictive, the models need continued improvement. In this thesis, we addressed the problem of explicitly representing the flexibility of the protein backbone. We developed a "multi-state" design approach, based on a small library of backbone conformations, defined ahead of time. In a Monte Carlo framework, given the rugged protein energy landscape, large backbone motions can only be accepted if precautions are taken. Thus, to explore these conformations, along with sidechain mutations and motions, we have introduced a new type of Monte Carlo move. The move is a "hybrid" one, where the backbone changes its conformation, then a short Monte Carlo relaxation of the sidechains is done, followed by an acceptation test. To obtain a Boltzmann sampling of states, the acceptation probability should have a specific form, which involves a path integral that is difficult to calculate. Two approximate forms are explored: the first is based on a single relaxation path, or "generating path" (Single Path Approximation or SPA). The second is more complex and relies on a collection of paths, obtained by shuffling the elementary steps of the generating path (Permuted Path Approximation or PPA). These approximations are tested in depth and compared on two proteins. Free energy differences between the backbone conformations are computed using three different approaches, which move the system reversibly from one conformation to another, but follow very different routes. Good agreement is obtained between the methods and a wide range of parameterizations, indicating that the free energy behaves as a state function, as it should, and strongly suggesting that Boltzmann sampling is verified. The sampling method is applied to the tyrosyl-tRNA synthetase enzyme, allowing us to identify sequences that prefer either an open or a closed conformation of an active site loop, so that in principle we can control, or design the loop conformation. Finally, we describe preliminary work to make the protein backbone fully flexible, moving within a continuous and not a discrete space. This new conformational space requires a complete reorganization of the energy calculation and Monte Carlo simulation scheme, increases simulation cost substantially, and requires a much more aggressive parallelization of our software.
7

Data-driven computational modelling for some of the implications of dopamine in the brain : From subcellular signalling to area networks / Modélisation computationnelle de certaines implications de la dopamine dans le cerveau à partir de données expérimentales : De la signalisation sub-cellulaire aux réseaux

Foncelle, Alexandre 05 April 2018 (has links)
Dans le cerveau, il est difficile de mettre au point des expériences avec un niveau de contrôle approprié à cause du haut niveau de connectivité. Pour traiter ce problème, les modèles mathématiques sont utilisés pour représenter le cerveau d’une façon plus compréhensible. En effet, les modèles mathématiques peuvent être plus pratiques que les expériences pour tester des hypothèses et chercher à extraire l’essence même du principe étudié, en le simplifiant. De plus, la modélisation computationnelle forme une branche spécifique de la modélisation mathématique, permettant de résoudre de gros calculs numériques. Dans cette thèse, j’ai utilisé la modélisation computationnelle à travers différentes approches pour étudier certaines régions cérébrales. Nous avons collaboré avec des neurobiologistes en appliquant nos modèles à des données expérimentales pour contribuer à mieux comprendre l’action de la dopamine, un neuromodulateur. J’ai étudié la diversité de l’action de la dopamine à trois échelles: la région cérébrale, le niveau cellulaire et le niveau moléculaire. La dopamine a un gros impact sur le cerveau et elle est principalement connue pour son implication dans le système de récompense. En effet, c’est une molécule associée à la prédiction de récompense et de punition. Peu de régions produisent de la dopamine et ces régions sont altérées par la maladie de Parkinson ou perturbées par la dépression. Pour la maladie de Parkinson, j’ai conçu un modèle de type taux de décharge pour reproduire l’activité neuronale des ganglions de la base. Ce modèle montre des réponses neuronales significativement différentes, entre la condition témoin et la condition parkinsonienne. Par ailleurs, avec un modèle de type Hodgin-Huxley prenant en compte la dynamique de l’ion potassium, j’ai pu appuyer l’hypothèse que la région cérébrale appelée l’habenula, lorsqu’elle est hyperactive, induirait la dépression. Cette dépression serait due à un déséquilibre de la concentration en potassium à cause d’une dysfonction de l’astrocyte (surexpression des canaux Kir4.1). Enfin, la dopamine est aussi impliquée dans la plasticité synaptique, un phénomène à la base de la mémoire. Je l’ai étudié avec un troisième modèle, prenant en compte plusieurs résultats expérimentaux relatifs à la plasticité en fonction du timing des potentiels d’action et de sa modulation. / In the brain, the high connectivity level makes it difficult to set up experiments with an appropriate level of control. To address that issue, mathematical models are used to represent the brain in a more comprehensive way. Easier than experiments to test hypotheses, mathematical models can extend them closer to reality and aim to extract the studied principle essence, by simplifying it. Computational modelling is a specific branch of mathematical modelling allowing to solve large numerical calculations. In this thesis, I used computational modelling to study brain parts through different approaches, all in collaboration with neurobiologists and applied to experimental data. A common framework is given by the goal of contributing to a picture of the action of the neuromodulator dopamine. I studied the diversity of dopamine's action at three different scales: the brain region, the cellular level and the molecular level. Dopamine has a large impact on the brain and it is mainly known for its rewarding dimension, it is, indeed, the molecule associated with reward prediction and punishment. Few regions in the brain produce dopamine and these regions are impaired in Parkinson's disease or disrupted in major depressive disorders. Concerning Parkinson's disease, I designed a firing-rate model to fit experimental basal ganglia neural activity, which disclosed significant changes of the neural response between control and Parkinsonian condition. Furthermore, with a Hodgkin-Huxley model accounting for the dynamics of the potassium ion, I could support the hypothesis that the brain region called lateral habenula hyper-activates and induces major depressive disorders because of unbalanced potassium concentration due to astrocyte dysfunction (Kir4.1 channels overexpression). Dopamine is also involved in synaptic plasticity, a phenomenon at the basis of memory that I explored with a third model accounting for several experimental results pertaining to spike-timing-dependent plasticity and its modulation.
8

Design computationnel de protéines pour la prédiction de structure

Sedano-Pelzer, Audrey 23 April 2013 (has links) (PDF)
Grâce aux récents progrès technologiques et à l'arrivée des séquenceurs de nouvelle génération, la quantité de données génomiques croît exponentiellement, alors que l'écart avec le nombre de structures résolues se creuse. Dans l'idéal, on aimerait pouvoir prédire par informatique la structure 3D de n'importe quelle protéine à partir de l'information de séquence seule, même en l'absence d'homologie. En effet, en dessous de 30% d'identité de séquence, les mesures de similarité de séquences ne sont plus suffisantes pour détecter l'homologie. Il faut donc mettre en place d'autres méthodes afin de venir à bout de cette zone d'ombre. Pour une structure donnée (et donc une fonction biologique), on ne dispose souvent que d'une petite quantité de séquences natives y correspondant, et parfois assez peu identiques. Il est alors difficile de construire un profil de recherche d'homologues pour retrouver ces séquences dont on ne connaîtrait pas la structure. Alors comment disposer de bases de données de séquences plus conséquentes pour chaque structure ? Ainsi, le design computationnel de protéine (CPD) tente de répondre à cette problématique : si l'on connaît un repliement, est-il possible de retrouver l'ensemble des séquences qui lui correspondent ? Le principe du CPD consiste à identifier parmi toutes les séquences compatibles avec le repliement d'intérêt, celles qui vont conférer à la protéine, la fonction désirée. La procédure générale est réalisée en deux étapes. La première consiste à calculer une matrice d'énergie contenant les énergies d'interactions entre toutes les paires de résidus de la protéine en autorisant successivement tous les types d'acides aminés dans toutes leurs conformations possibles. La seconde étape, ou "phase d'optimisation", consiste à explorer simultanément l'espace des séquences et des conformations afin de déterminer la combinaison optimale d'acides aminés étant donné le repliement de départ. Une première phase d'analyse de covariances de positions d'alignements de séquences théoriques a été menée. Nous avons ainsi pu mettre au point une méthode statistique pour repérer des ensembles de positions qui muteraient ensemble pour une structure donnée. La construction d'un profil avec toutes ces séquences théoriques moyennant trop l'information en acides aminés, nous avons pu améliorer la recherche d'homologues en construisant plusieurs profils à partir de groupes de séquences classées grâce à des motifs sur ces positions considérées comme covariantes. Pour mieux appréhender la qualité de ces prédictions de séquences théoriques, il fallait mettre en place un protocole de sélection des meilleurs protéines mutantes afin de les tester in vivo. Mais comment déterminer qu'une séquence théorique est meilleure qu'une autre? Sur quels critères se baser pour les caractériser? Aussi, un ensemble de descripteurs a été choisi, permettant de trier sur plusieurs critères les séquences théoriques pour n'en choisir qu'une vingtaine. Ensuite, ces protéines mutantes ont été soumises à des simulations de dynamique moléculaire afin d'évaluer leur stabilité théorique. Pour quelques protéines mutantes plus prometteuses, nous avons réalisé des expériences de sur-expression, de purification et de détermination structurale, tentant d'obtenir une validation biologique du modèle de CPD. Ces protocoles d'analyse et de validation semblent être de bons moyens permettront à notre équipe de tester d'autres protéines mutantes dans l'avenir. Ils pourront ainsi modifier des paramètres lors de la génération par CPD et s'appuyer sur des résultats expérimentaux pour les ajuster.
9

Un modèle computationnel d'intelligence culturelle ouvert et extensible

Wu, Zhao Xin 02 1900 (has links) (PDF)
Avec le phénomène de la globalisation qui prend de l'ampleur, les différences culturelles, dans les communications interculturelles, amènent leur lot de problèmes inévitables. Geet Hofstede a exprimé de manière représentative ce phénomène : "Culture is more often a source of conflict than of synergy. Cultural differences are a nuisance at best and often a disaster." (Geert Hofstede, Emeritus Professor, Maastricht University.) Dans la revue de la littérature, jusqu'à ce jour, les recherches relatives à l'intelligence culturelle (IC) utilisent les méthodes traditionnelles pour mesurer l'IC et trouver des solutions aux problèmes relatifs à l'IC. Ces méthodes dépendent essentiellement de questionnaires évaluant des aspects distincts, de documents (Ng et Earley, 2006) et d'évaluations variées, guidées par les connaissances spécialisées et des qualités psychologiques d'experts de l'IC. Ces façons de faire réduisent le nombre de solutions possibles. À notre connaissance, aucune recherche au sujet de l'IC n'a été empiriquement informatisée jusqu'à maintenant. En conséquence, l'intégration de l'IC dans le domaine de l'intelligence artificielle (IA) reste absente. L'objectif principal de la recherche est donc de créer un modèle computationnel de l'IC et de l'implémenter dans un système expert. Ce système se nomme Système Expert Neuro-Flou d'Intelligence Culturelle (SENFIC). Il intègre l'expertise d'experts de l'IC en intégrant le fruit des études à propos des quatre dimensions de l'IC comme un tout intégré et s'influençant les unes des autres. Il devrait permettre éventuellement d'atteindre un meilleur niveau de performance que celui des experts de l'IC. Comme un système intelligent efficace, il fournit une recommandation globale au problème et une forme de système de règles permettant l'adaptabilité des individus et des organisations à un environnement interculturel. C'est dans ce contexte que le SENFIC a vu le jour. Nous combinons deux techniques intelligentes dans le cadre du système. La technique d'hybride neuro-floue intégrant la logique floue et le réseau de neurones artificiels, et la technique du système expert. La technique de logique floue est une bonne solution pour exprimer des problèmes originalement en langue imprécise et naturelle, comme ceux soulevés dans les recherches relatives à l'IC. La technique du réseau de neurones artificiels aide le système à atteindre un niveau d'autorégulation, d'auto-adaptation et d'autoapprentissage. Le système expert utilise des connaissances et des procédures d'inférence dans le but de résoudre des problèmes difficiles, requérant normalement une expertise humaine dans le domaine d'IC. Ainsi, le SENFIC exprime des connaissances sous une forme facilement comprise par les utilisateurs, et traite les demandes simples en langage naturel plutôt qu'en langage de programmation. En utilisant une nouvelle approche pour la technique de soft-computing en concevant la technique hybride comme le cœur du système, notre SENFIC devient alors capable de raisonner et d'apprendre dans un environnement culturel incertain et imprécis. Ce SENFIC est ouvert et extensible, autant au niveau interne qu'externe. Au niveau interne, le modèle computationnel de l'IC fournit une interface standard pouvant faciliter le développement secondaire et la mise en pratique du système. Au niveau externe, le SENFIC a la capacité de se présenter comme un agent d'extension permettant l'intégration à n'importe quel système intelligent existant, pour que ce système devienne culturellement intelligent. Le SENFIC est « conscient de l'intelligence culturelle ». Cela représente une percée amenant son lot de contributions dans les domaines de l'IC et de l'IA. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : intelligence culturelle, logique floue, réseaux de neurones artificiels, soft-computing, hybride neuro-floue, système expert
10

Construction et évaluation pour la TA d'un corpus journalistique bilingue : application au français-somali / Building and evaluating for MT a bilingual corpus : Application ton French-Somali

Ahmed Assowe, Houssein 29 May 2019 (has links)
Dans le cadre des travaux en cours pour informatiser un grand nombre de langues « peu dotées », en particulier celles de l’espace francophone, nous avons créé un système de traduction automatique français-somali dédié à un sous-langage journalistique, permettant d’obtenir des traductions de qualité, à partir d’un corpus bilingue construit par post-édition des résultats de Google Translate (GT), à destination des populations somalophones et non francophones de la Corne de l’Afrique. Pour cela, nous avons constitué le tout premier corpus parallèle français-somali de qualité, comprenant à ce jour 98 912 mots (environ 400 pages standard) et 10 669 segments. Ce dernier constitue’est un corpus aligné, et de très bonne qualité, car nous l’avons construit en post-éditant les pré-traductions de GT, qui combine pour cela avec une combinaison de lason système de TA français-anglais et système de TA anglais-somali. Il Ce corpus a également fait l’objet d’une évaluation de la part depar 9 annotateurs bilingues qui ont donné une note score de qualité à chaque segment du corpus, et corrigé éventuellement notre post-édition. À partir de ce corpus, en croissance, nous avons construit plusieurs versions successives d’un système de Traduction Automatique à base de fragments (PBMT), MosesLIG-fr-so, qui s’est révélé meilleur que GoogleTranslate GT sur ce couple de langues et ce sous-langage, en termes de mesure BLEU et du temps de post-édition. Nous avons fait également une première expérience de traduction automatique neuronale français-somali en utilisant OpenNMT, de façon à améliorer les résultats de la TA sans aboutir à des temps de calcul prohibitifs, tant durant l’entraînement que durant le décodage.D’autre part, nous avons mis en place une iMAG (passerelle interactive d’accès multilingue) qui permet à des internautes somaliens non francophones du continent d’accéder en somali à l’édition en ligne du journal « La Nation de Djibouti ». Les segments (phrases ou titres) prétraduits automatiquement par notre un système de TA fr-so en ligne disponible peuvent être post-édités et notés (sur sur une échelle de 1 à 20) par les lecteurs eux-mêmes, de façon à améliorer le système par apprentissage incrémental, de la même façon que ce qui a été fait pour le système français-chinois (PBMT) créé par [Wang, 2015]. / As part of ongoing work to computerize a large number of "poorly endowed" languages, especially those in the French-speaking world, we have created a French-Somali machine translation system dedicated to a journalistic sub-language, allowing to obtain quality translations from a bilingual body built by post-editing of GoogleTranslate results for the Somali and non-French speaking populations of the Horn of Africa. For this, we have created the very first quality French-Somali parallel corpus, comprising to date 98,912 words (about 400 standard pages) and 10,669 segments. The latter is an aligned corpus of very good quality, because we built in by post-editions editing pre-translations of produced by GT, which uses with a combination of the its French-English and English-Somali MT language pairs. It That corpus was also evaluated by 9 bilingual annotators who gave assigned a quality note score to each segment of the corpus and corrected our post-editing. From Using this growing body corpus as training corpusof work, we have built several successive versions of a MosesLIG-fr-so fragmented statistical Phrase-Based Automatic Machine Translation System (PBMT), which has proven to be better than GoogleTranslate on this language pair and this sub-language, in terms BLEU and of post-editing time. We also did used OpenNMT to build a first French-Somali neural automatic translationMT system and experiment it.in order to improve the results of TA without leading to prohibitive calculation times, both during training and during decoding.On the other hand, we have set up an iMAG (multilingual interactive access gateway) that allows non-French-speaking Somali surfers on the continent to access the online edition of the newspaper "La Nation de Djibouti" in Somali. The segments (sentences or titles), pre- automatically translated automatically by our any available fr-so MT system, can be post-edited and rated (out on a 1 to of 20scale) by the readers themselves, so as to improve the system by incremental learning, in the same way as the has been done before for the French-Chinese PBMT system. (PBMT) created by [Wang, 2015].

Page generated in 0.4621 seconds