• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 300
  • 123
  • 4
  • 3
  • Tagged with
  • 889
  • 889
  • 546
  • 331
  • 326
  • 294
  • 278
  • 263
  • 242
  • 217
  • 208
  • 206
  • 202
  • 201
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Système intelligent de détection et diagnostic de fautes en tomographie d'émission par positrons

Charest, Jonathan January 2017 (has links)
La tomographie d'émission par positrons (TEP) est un outil de choix en imagerie moléculaire grâce à sa capacité à quantifier certains métabolismes et à porter des diagnostics précis sur l'évolution de pathologies. Cependant, la qualité du diagnostic est dépendante de la qualité de l'image obtenue. La complexité des appareils TEP fait en sorte que ceux-ci nécessitent des calibrations fréquentes demandant un professionnel qualifié dans le domaine que très peu de laboratoires pourvus d'un scanner possèdent. Conséquemment, ce projet vise à concevoir un système intelligent pouvant détecter des fautes et porter un diagnostic sur un scanner TEP de façon automatique dans le but de maximiser la qualité des images produites. Le système intelligent développé permettra alors de pallier à la surcharge ou à l'absence d'un professionnel en laboratoire puisqu'il automatisera le contrôle de qualité de l'appareil. Le projet englobe donc: l'identification de données permettant de détecter et diagnostiquer les fautes, l'implantation de système intelligent par module et de façon hiérarchique, la validation de l'exactitude des diagnostics et finalement l'évaluation de l'impact du système sur la qualité des images produites par le scanner. Pour arriver à son but, le système intelligent met en oeuvre différentes méthodes d'intelligence artificielle comprenant des réseaux de neurones artificiels, un système expert à base de règles et diverses méthodes de traitement de signal. Ce projet se penche plus spécifiquement sur le scanner LabPET, un scanner TEP pour petits animaux développé à Sherbrooke. LabPET est un bon candidat car il comporte un nombre élevé de canaux non interdépendants accentuant ainsi les bénéfices de la parallélisation apportés par le système proposé. Ainsi, les travaux ont permis de réaliser un système ayant une efficacité de détection et une exactitude de diagnostic dépassant les attentes et, une étude de l'impact du système sur la qualité des images a démontré une amélioration significative des paramètres de qualité d'image. Il en découle que le système est bien en mesure d'aider les professionnels dans l'entretien du scanner LabPET. Les résultats devraient permettre de promouvoir le développement de systèmes intelligents de détection et de diagnostic de fautes d'appareils TEP. Des systèmes similaires seront certainement nécessaires au bon fonctionnement des prochaines générations d'appareils TEP, et les résultats de ce projet pourront alors servir de référence.
332

Bioinformatic inference of a prognostic epigenetic signature of immunity in breast cancers

Bizet, Martin 10 January 2018 (has links)
L’altération des marques épigénétiques est de plus en plus reconnue comme une caractéristique fondamentale des cancers. Dans cette thèse, nous avons utilisé des profils de méthylation de l’ADN en vue d’améliorer la classification des patients atteints du cancer du sein grâce à une approche basée sur l’apprentissage automatique. L’objectif à long terme est le développement d’outils cliniques de médecine personnalisée. Les données de méthylation de l’ADN furent acquises à l’aide d’une puce à ADN dédiée à la méthylation, appelée Infinium. Cette technologie est récente comparée, par exemple, aux puces d’expression génique et son prétraitement n’est pas encore standardisé. La première partie de cette thèse fut donc consacrée à l’évaluation des méthodes de normalisation par comparaison des données normalisées avec d’autres technologies (pyroséquençage et RRBS) pour les deux technologies Infinium les plus récentes (450k et 850k). Nous avons également évalué la couverture de régions biologiquement relevantes (promoteurs et amplificateurs) par les deux technologies. Ensuite, nous avons utilisé les données Infinium (correctement prétraitées) pour développer un score, appelé MeTIL score, qui présente une valeur pronostique et prédictive dans les cancers du sein. Nous avons profité de la capacité de la méthylation de l’ADN à refléter la composition cellulaire pour extraire une signature de méthylation (c’est-à-dire un ensemble de positions de l’ADN où la méthylation varie) qui reflète la présence de lymphocytes dans l’échantillon tumoral. Après une sélection de sites présentant une méthylation spécifique aux lymphocytes, nous avons développé une approche basée sur l’apprentissage automatique pour obtenir une signature d’une tailleoptimale réduite à cinq sites permettant potentiellement une utilisation en clinique. Après conversion de cette signature en un score, nous avons montré sa spécificité pour les lymphocytes à l’aide de données externes et de simulations informatiques. Puis, nous avons montré la capacité du MeTIL score à prédire la réponse à la chimiothérapie ainsi que son pouvoir pronostique dans des cohortes indépendantes de cancer du sein et, même, dans d’autres cancers. / Epigenetic alterations are increasingly recognised as an hallmark of cancers. In this thesis, we used a machine-learning-based approach to improve breast cancer patients’ classification using DNA methylation profiling with the long term aim to make treatment more personalised. The DNA methylation data were acquired using a high density DNA methylation array called Infinium. This technology is recent compared to expression arrays and its preprocessing is not yet standardised. So, the first part of this thesis was to evaluate the normalisation methods by comparing normalised data against other technologies (pyrosequencing and RRBS) for the two most recent Infinium arrays (450k and 850k).We also went deeper into the evaluation of these arrays by assessing their coverage of biologically relevant regions like promoters and enhancers. Then, we used accurately preprocessed Infinium data to develop a score, called MeTIL score, which shows prognostic and predictive value in breast cancers. We took advantage that DNA methylation can mirror the cell composition to extract a DNA methylation signature (i.e. a set of DNA methylation sites) that reflects presence of lymphocytes within the tumour. After an initial selection of lymphocyte-specific sites we developed a machine-learning-based framework which reduced the predictive set to an optimal size of five methylation sites making it potentially suitable to use in clinics. After conversion of this signature to a score, we showed its specificity to lymphocytes using external datasets and simulations. Then, we showed its ability predict response to chemotherapy and, finally, its prognostic value in independent breast cancer cohorts and even in other cancers. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
333

Approche évolutionnaire et agrégation de variables : application à la prévision de risques hydrologiques / Evolutionary approach and variable aggregation : application to hydrological risks forecasting

Segretier, Wilfried 10 December 2013 (has links)
Les travaux de recherche présentés dans ce mémoire s'inscrivent dans la lignée des approches de modélisation hydrologiques prédictives dirigées par les données. Nous avons particulièrement développé leur application sur le contexte difficile des phénomènes de crue éclairs caractéristiques des bassins versants de la région Caraïbe qui pose un dé fi sé.curi taire. En envisageant le problème de la prévision de crues comme un problème d'optimisation combinatoire difficile nous proposons d'utiliser la notion de métaneuristiques, à travers les algorithmes évolutionnaire notamment pour leur capacité à parcourir efficacement de grands espaces de recherche et fi fournir des solutions de bOlIDe qualité en des temps d'exécution raisonnables. Nous avons présenté l'approche de prédiction AV2D : Aggregate Variable Data Driven dom le concept central est la notion de variable agrégée. L'idée sous-jacente à ce concept est de considérer le pouvoir prédictif de nouvelles variables définies comme le résultat de fonctions tatistiques, dites d'agrégation calculées sur de donnée' correspondant à des périodes de temps précédent uo événem nt à prédire. Ces variable sont caractérisées par des ensembles de paramètres correspondant a leur pJ:opriétés. Nous avons imroduitle variables agrégées hydrométéorologiques permettant de répondre au problème de la classification d événements hydrologiques. La complexité du parcours de l'espace de recherche engendré par les paramètres définissant ces variables a été prise en compte grâce à la njse en oeuvre d'un algorithme évolutionnaire particulier dont les composants ont été spécifiquement définis pour ce problème. Nous avons montré, à travers une étude comparative avec d'autres approches de modélisation dirigées par les données, menée sur deux cas d'études de bassins versant caribéens, que l'approche AV2D est particulièrement bien adaptée à leur contexte. Nous étudions par la suite les bénéfices offerts par les approches de modélisation hydrologiques modulaires dirigées par les données, en définissant un procédé de division en sous-processus prenant en compte les caractéristiques paniculières des bassins versants auxquels nous nous intéressons. Nou avons proposé une extension des travaux précédents à travers la définition d'une approche de modélisation modulaire M2D: Spatial Modular Data Driven, consistant à considérer des sous-processus en divisant l'ensemble des exemples à classifier en sous-ensembles correspondant à des comportements hydrologiques homogènes. Nous avons montré à travers une étude comparative avec d autres approches dU'igées par les données mises en oeuvre sur les mêmes sous-ensembles de données que celte approche permet d améliorer les résultats de prédiction particulièrement à coun Lenne. Nous avons enfin proposé la modélisation d un outil de pi / The work presented in this thesis is in the area of data-driven hydrological modeling approaches. We particularly investigared their application on the difficult problem of flash flood phenomena typically observed in Caribbean watersheds. By considering the problem of flood prediction as a combinatorial optimization problem, we propose to use the notion of Oleraheuristics, through evolutionary algorithms, especially for their capacity ta visit effjciently large search space and to provide good solutions in reasonable execution times. We proposed the hydrological prediction approach AV2D: Aggregate Variable Data Driven which central concept is the notion of aggregate variable. The underlying idea of this [concept is to consider the predictive power of new variables defined as the results of statistical functions, called aggregation functions, computed on data corresponding ta time periods before an event ta predict. These variables are characterized by sets of parameters corresponding ta their specifications. We introduced hydro-meteorological aggregate variables allowing ta address the classification problem of hydrological events. We showed through a comparative study on two typical caribbean watersheds, using several common data driven modelling techniques that the AV2D approach is panicul.rly weil fitted ta the studied context. We also study the benefits offered by modulaI' approaches through the definition of the SM2D: Spatial Modular DataDriven approach, consisting in considering sub-processes partly defined by spatial criteria. We showed that the results obtained by the AV2D on these sub-processes allows to increase the performances particularly for short term prediction. Finally we proposed the modelization of a generic control tool for hydro-meteorological prediction systems, H2FCT: Hydro-meteorological Flood Forecasting Control 1'001
334

Formal methods for the design and analysis of robot swarms

Brambilla, Manuele 28 April 2014 (has links)
In my doctoral dissertation, I tackled two of the main open problems in swarm robotics: design and verification. I did so by using model checking.<p>Designing and developing individual-level behaviors to obtain a desired swarm-level goal is, in general, very difficult, as it is difficult to predict and thus design the non-linear interactions of tens or hundreds individual robots that result in the desired collective behavior. In my dissertation, I presented my novel contribution to the top-down design of robot swarms: property-driven design. Property-driven design is based on prescriptive modeling and model checking. Using property-driven design it is possible to design robot swarms in a systematic way, realizing systems that are "correct by design". I demonstrated property-driven design on two case-studies: aggregation and foraging.<p>Developing techniques to analyze and verify a robot swarm is also a necessary step in order to employ swarm robotics in real-world applications. In my dissertation, I explored the use of model checking to analyze and verify the properties of robot swarms. Model checking allows us to formally describe a set of desired properties of a system, in a more powerful and precise way compared to other mathematical approaches, and verify whether a given model of a system satisfies them. I explored two different approaches: the first based on Bio-PEPA and the second based on KLAIM. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
335

Décomposition des problèmes de planification de tâches basée sur les landmarks / Planning problem decomposition using landmarks

Vernhes, Simon 12 December 2014 (has links)
Les algorithmes permettant la création de stratégies efficaces pour la résolution d’ensemble de problèmeshétéroclites ont toujours été un des piliers de la recherche en Intelligence Artificielle. Dans cette optique,la planification de tâches a pour objectif de fournir à un système la capacité de raisonner pour interagiravec son environnement de façon autonome afin d’atteindre les buts qui lui ont été assignés. À partir d’unedescription de l’état initial du monde, des actions que le système peut exécuter, et des buts qu’il doit atteindre,un planificateur calcule une séquence d’actions dont l’exécution permet de faire passer l’état du monde danslequel évolue le système vers un état qui satisfait les buts qu’on lui a fixés. Le problème de planification esten général difficile à résoudre (PSPACE-difficile), cependant certaines propriétés des problèmes peuvent êtreautomatiquement extraites permettant ainsi une résolution efficace.Dans un premier temps, nous avons développé l’algorithme LMBFS (Landmark-based Meta Best-First Search).À contre-courant des planificateurs state-of-the-art, basés sur la recherche heuristique dans l’espace d’états,LMBFS est un algorithme qui réactualise la technique de décomposition des problèmes de planification baséssur les landmarks. Un landmark est un fluent qui doit être vrai à un certain moment durant l’exécutionde n’importe quel plan solution. L’algorithme LMBFS découpe le problème principal en un ensemble desous-problèmes et essaie de trouver une solution globale grâce aux solutions trouvées pour ces sous-problèmes.Dans un second temps, nous avons adapté un ensemble de techniques pour améliorer les performances del’algorithme. Enfin, nous avons testé et comparé chacune de ces méthodes permettant ainsi la création d’unplanificateur efficace. / The algorithms allowing on-the-fly computation of efficient strategies solving aheterogeneous set of problems has always been one of the greatest challengesfaced by research in Artificial Intelligence. To this end, classical planningprovides to a system reasoning capacities, in order to help it to interact with itsenvironment autonomously. Given a description of the world current state, theactions the system is able to perform, and the goal it is supposed to reach, a plannercan compute an action sequence yielding a state satisfying the predefined goal. Theplanning problem is usually intractable (PSPACE-hard), however some propertiesof the problems can be automatically extracted allowing the design of efficientsolvers.Firstly, we have developed the Landmark-based Meta Best-First Search (LMBFS)algorithm. Unlike state-of-the-art planners, usually based on state-space heuristicsearch, LMBFS reenacts landmark-based planning problem decomposition. Alandmark is a fluent appearing in each and every solution plan. The LMBFSalgorithm splits the global problem in a set of subproblems and tries to find aglobal solution using the solutions found for these subproblems. Secondly, wehave adapted classical planning techniques to enhance the performance of ourbase algorithm, making LMBFS a competitive planner. Finally, we have tested andcompared these methods.
336

Cinematic discourse for interactive 3D storytelling / Propriétés du discours de la caméra virtuelle

Wu, Hui-Yin 07 October 2016 (has links)
Cette thèse porte sur les propriétés du discours de la caméra virtuelle autour de trois axes: le temps, l'histoire, et la présentation visuelle. Nous nous répondrons principalement à la question sur la façon d'analyser, d'exploiter des données, et de générer automatiquement des arrangements temporels de l'histoire et des contenus visuels. Nos techniques proposées peuvent être appliquées aux problèmes de planification automatique de la caméra dans des environnements 3D, et ouvrent des perspectives pour l'analyse cognitive du cinéma et de la narration visuelle. / This thesis concerns the discourse properties of cinematographic storytelling around three axes: time, story, and visual presentation. We address the question of how to analyse and gain knowledge from data, and automatically generate temporal arrangements of story and their visual content. We work with actual film data to understand the good practices of visual storytelling. The techniques in this thesis target applications to automatic camera planning problems in 3D environments, and also open perspectives for cognitive analysis of film and visual storytelling.
337

Développement de concepts et outils d’aide à la décision pour l’optimisation via simulation : intégration des métaheuristiques au formalisme DEVS / Concept development and decision support tools for optimization via simulation : integration of metaheuristics to DEVS formalism

Poggi, Bastien 12 December 2014 (has links)
Nous vivons dans un monde où le besoin d’efficacité s’impose de plus en plus. Ce besoin s’exprime dans différents domaines, allant de l’industrie à la médecine en passant par la surveillance environnementale. Engendrées par cette demande, de nombreuses méthodes d’optimisation « modernes » également appelées « métaheuristiques » sont apparues ces quarante dernières années. Ces méthodes se basent sur des raisonnements probabilistes et aléatoires et permettent la résolution de problèmes pour lesquels les méthodes d’optimisation « classiques » également appelées « méthodes déterministes » ne permettent pas l’obtention de résultats dans des temps raisonnables. Victimes du succès de ces méthodes, leurs concepteurs doivent aujourd’hui plus que jamais répondre à de nombreuses problématiques qui restent en suspens : « Comment évaluer de manière fiable et rapide les solutions proposées ? », « Quelle(s) méthode(s) choisir pour le problème étudié ? », « Comment paramétrer la méthode utilisée ? », « Comment utiliser une même méthode sur différents problèmes sans avoir à la modifier ? ». Pour répondre à ces différentes questions, nous avons développé un ensemble de concepts et outils. Ceux-ci ont été réalisés dans le cadre de la modélisation et la simulation de systèmes à évènements discrets avec le formalisme DEVS. Ce choix a été motivé par deux objectifs : permettre l’optimisation temporelle et spatiale de modèles DEVS existants et améliorer les performances du processus d’optimisation (qualité des solutions proposées, temps de calcul). La modélisation et la simulation de l’optimisation permettent de générer directement des propositions de paramètres sur les entrées du modèle à optimiser. Ce modèle, quant à lui, génère des résultats utiles à la progression de l’optimisation. Pour réaliser ce couplage entre optimisation et simulation, nous proposons l’intégration des méthodes d’optimisation sous la forme de modèles simulables et facilement interconnectables. Notre intégration se concentre donc sur la cohérence des échanges entre les modèles dédiés à l’optimisation et les modèles dédiés à la représentation du problème. Elle permet également l’arrêt anticipé de certaines simulations inutiles afin de réduire au maximum la durée de l’optimisation. La représentation des méthodes d’optimisation sous formes de modèles simulables apporte également un élément de réponse dans le choix et le paramétrage des algorithmes. Grace à l’usage de la simulation, différents algorithmes et paramètres peuvent être utilisés pour un même processus d’optimisation. Ces changements sont également influencés par les résultats observés et permettent une adaptation automatique de l’optimisation aux spécificités connues et/ou cachées du problème étudié ainsi qu’à ses différentes étapes de résolution. L’architecture de modèle que nous proposons a été validée sur trois problèmes distincts : l’optimisation de paramètres pour des fonctions mathématiques, l’optimisation spatialisée d’un déploiement de réseau de capteurs sans fil, l’optimisation temporisée de traitements médicaux. La généricité de nos concepts et la modularité de nos modèles ont permis de mettre en avant la facilité d’utilisation de notre outil. Au niveau des performances, l’interruption de certaines simulations ainsi que le dynamisme de l’optimisation ont permis l’obtention de solutions de qualité supérieure dans des temps inférieurs. / In the world in witch we live the efficient needs are increasing in various fields like industry medecine and environnemtale monitoring. To meet this needs, many optimization methods nammed « metaheuristics » have been created over the last forty years. They are based on probabilistic and random reasoning and allow user to solve problems for witch conventional methods can not be used in acceptable computing times. Victim of their methods succes, the developers of the methods have to answer to several questions : « How can the fitness of solutions be assessed ? », « How to use the same method for several projects without change the code? », « What method will we choose for a specific problem ? », « How to parametrize algorithms ? ». To deal with this problem, we have developed a set of concepts and tools. They have been developed in the context of modeling and simulation of discrete event systems with DEVS formalism. The aims pursued are : allow temporized and spacialized optimization of existing DEVS models, improve the optimization process efficiency (quality of solutions, computing time). Modeling and simulation are used to propose parameters toward the input of problem to optimize. This one generate results used to improve the next proposed solutions. In order to combine optimization and simulation, we propose to represent the optimization method as models which can be easily interconnected and simulated. We focus on consistency of exchanges between optimization models and problem models. Our approach allows early stopping of useless simulations and reduce the computing time as a result. Modeling optimization methods in DEVS formalism also allows to autimatically choose the optimization algorithm and its parameters. Various algorithms and parameters can be used for the same problem during optimization process at different steps. This changes are influenced by collected results of problem simulation. They lead on a self adaptation to the visible or/and hidden features of the studied problem. Our models architecture has been tested on three different problems : parametric optimization of mathematical functions, spacialized optimization of a sensor network deployment, temporized optimization of a medical treatment. Genericity of our concepts and scalability of our models underline the usabily of proposed tool. Concerning performance, simulation breaks and dynamic optimization have obtained higher quality solutions in a short time.
338

On learning and generalization in unstructured taskspaces

Mehta, Bhairav 08 1900 (has links)
L'apprentissage robotique est incroyablement prometteur pour l'intelligence artificielle incarnée, avec un apprentissage par renforcement apparemment parfait pour les robots du futur: apprendre de l'expérience, s'adapter à la volée et généraliser à des scénarios invisibles. Cependant, notre réalité actuelle nécessite de grandes quantités de données pour former la plus simple des politiques d'apprentissage par renforcement robotique, ce qui a suscité un regain d'intérêt de la formation entièrement dans des simulateurs de physique efficaces. Le but étant l'intelligence incorporée, les politiques formées à la simulation sont transférées sur du matériel réel pour évaluation; cependant, comme aucune simulation n'est un modèle parfait du monde réel, les politiques transférées se heurtent à l'écart de transfert sim2real: les erreurs se sont produites lors du déplacement des politiques des simulateurs vers le monde réel en raison d'effets non modélisés dans des modèles physiques inexacts et approximatifs. La randomisation de domaine - l'idée de randomiser tous les paramètres physiques dans un simulateur, forçant une politique à être robuste aux changements de distribution - s'est avérée utile pour transférer des politiques d'apprentissage par renforcement sur de vrais robots. En pratique, cependant, la méthode implique un processus difficile, d'essais et d'erreurs, montrant une grande variance à la fois en termes de convergence et de performances. Nous introduisons Active Domain Randomization, un algorithme qui implique l'apprentissage du curriculum dans des espaces de tâches non structurés (espaces de tâches où une notion de difficulté - tâches intuitivement faciles ou difficiles - n'est pas facilement disponible). La randomisation de domaine active montre de bonnes performances sur le pourrait utiliser zero shot sur de vrais robots. La thèse introduit également d'autres variantes de l'algorithme, dont une qui permet d'incorporer un a priori de sécurité et une qui s'applique au domaine de l'apprentissage par méta-renforcement. Nous analysons également l'apprentissage du curriculum dans une perspective d'optimisation et tentons de justifier les avantages de l'algorithme en étudiant les interférences de gradient. / Robotic learning holds incredible promise for embodied artificial intelligence, with reinforcement learning seemingly a strong candidate to be the \textit{software} of robots of the future: learning from experience, adapting on the fly, and generalizing to unseen scenarios. However, our current reality requires vast amounts of data to train the simplest of robotic reinforcement learning policies, leading to a surge of interest of training entirely in efficient physics simulators. As the goal is embodied intelligence, policies trained in simulation are transferred onto real hardware for evaluation; yet, as no simulation is a perfect model of the real world, transferred policies run into the sim2real transfer gap: the errors accrued when shifting policies from simulators to the real world due to unmodeled effects in inaccurate, approximate physics models. Domain randomization - the idea of randomizing all physical parameters in a simulator, forcing a policy to be robust to distributional shifts - has proven useful in transferring reinforcement learning policies onto real robots. In practice, however, the method involves a difficult, trial-and-error process, showing high variance in both convergence and performance. We introduce Active Domain Randomization, an algorithm that involves curriculum learning in unstructured task spaces (task spaces where a notion of difficulty - intuitively easy or hard tasks - is not readily available). Active Domain Randomization shows strong performance on zero-shot transfer on real robots. The thesis also introduces other variants of the algorithm, including one that allows for the incorporation of a safety prior and one that is applicable to the field of Meta-Reinforcement Learning. We also analyze curriculum learning from an optimization perspective and attempt to justify the benefit of the algorithm by studying gradient interference.
339

Problématisation prospective des stratégies de la singularité / Prospective problematisation of singularity strategies

Nabholtz, Franz-Olivier 09 March 2018 (has links)
De la mondialisation à la globalisation, de la modernité à la postmodernité, de l"humain au transhumain : - la révolution numérique et technologique fait émerger des enjeux qui imprègnent notre quotidien au-delà même de ce que le sens commun peut imaginer. La massification des données, analysée comme la résultante d'une hyper-connectivité, liée à une convergence « big data-intelligence artificielle » pose la question de sa juste utilisation et répartition entre des acteurs privés très volontaristes (GAFA) et des institutions publics pour le moins dépassées, quant aux principes d'efficacité rationnelle représentant l'une des caractéristiques des datas. Une caractéristique prédictive qui correspond donc à un besoin vital des états. Une société humaine qui disposerait des connaissances précises de sa situation, pourrait faire des choix rationnels en fonction de scénarios prédictifs et n'agirait plus de la même façon et ne se normaliserait plus de la même façon. Si nous rejetons le transhumanisme dans sa dimension idéologique, nous prenons pour acquises les dimensions conceptuelles de la théorie dite de la singularité que nous problématisons dans ce travail par une analyse de l'information propre à une démarche d'intelligence économique, au-delà même de la pensée commune et d'un consensus hérité d'une école de pensée déductive qui s'est affirmée par la démonstration et imposée par une forme d'idéologie qui existe partout, si ce n'est dans les sciences sociales. La pensée inductive, dont la caractéristique première est la corrélation à vocation prédictive, verrait l'élaboration de scénarios probabilistes multidisciplinaires, audacieux et propres à la science politique, dont l'idée principale serait de détecter et d'anticiper, à l'instar de la médecine prédictive (c'est ce que nous dit la singularité), les grandes tendances sociétales et politiques futures. Cependant, la nature de ces travaux devra faire l'objet d'une indépendance totale. Le processus d'exploitation du big data par le biais d'algorithmes, hors processus traditionnels de validation scientifique, prendra appui sur un modèle nouveau, dans lequel la démonstration de la cause prendra sans doute une dimension quantique ou synaptique dans un futur proche, analysé ainsi, comme singulier. / From past world to globalization, from modernity to postmodernity, from the human to the transhuman: - the digital and technological revolution brings out issues that permeate our daily lives beyond even what common sense can imagine. The massification of data, analyzed as the result of a hyper-connectivity, linked to a convergence "big data-artificial intelligence" raises the question of its fair use and distribution between highly voluntary private actors (GAFA) and public institutions for the least outdated, as to the principles of rational efficiency representing one of the characteristics of datas. A predictive characteristic that corresponds to a vital need of states. A human society with specific knowledge of its situation could make rational choices based on predictive scenarios and would no longer behave in the same way and no longer normalize in the same way. If we reject transhumanism in its ideological dimension, we take for granted the conceptual dimensions of the theory of singularity that we problematize in this work by an analysis of information specific to an approach of economic intelligence, even beyond of common thought and consensus inherited from a deductive school of thought that has been affirmed by demonstration and imposed by a form of ideology that exists everywhere, if not in social sciences. Inductive thinking, whose primary characteristic is predictive correlation, would see the development of probabilistic, multidisciplinary, bold and peculiar political science scenarios, the main idea of which would be to detect and anticipate, as predictive medicine (this is what singularity tells us), major societal and political future trends. However, the nature of this work will have to be fully independent. The process of exploiting big data by means of algorithms, outside traditional processes of scientific validation, will be based on a new model, in which the proof of the cause will undoubtedly take on a quantum or synaptic dimension in a near future, analyzed thus, as singular.
340

Représentations vectorielles et apprentissage automatique pour l’alignement d’entités textuelles et de concepts d’ontologie : application à la biologie / Vector Representations and Machine Learning for Alignment of Text Entities with Ontology Concepts : Application to Biology

Ferré, Arnaud 24 May 2019 (has links)
L'augmentation considérable de la quantité des données textuelles rend aujourd’hui difficile leur analyse sans l’assistance d’outils. Or, un texte rédigé en langue naturelle est une donnée non-structurée, c’est-à-dire qu’elle n’est pas interprétable par un programme informatique spécialisé, sans lequel les informations des textes restent largement sous-exploitées. Parmi les outils d’extraction automatique d’information, nous nous intéressons aux méthodes d’interprétation automatique de texte pour la tâche de normalisation d’entité qui consiste en la mise en correspondance automatique des mentions d’entités de textes avec des concepts d’un référentiel. Pour réaliser cette tâche, nous proposons une nouvelle approche par alignement de deux types de représentations vectorielles d’entités capturant une partie de leur sens : les plongements lexicaux pour les mentions textuelles et des “plongements ontologiques” pour les concepts, conçus spécifiquement pour ce travail. L’alignement entre les deux se fait par apprentissage supervisé. Les méthodes développées ont été évaluées avec un jeu de données de référence du domaine biologique et elles représentent aujourd’hui l’état de l’art pour ce jeu de données. Ces méthodes sont intégrées dans une suite logicielle de traitement automatique des langues et les codes sont partagés librement. / The impressive increase in the quantity of textual data makes it difficult today to analyze them without the assistance of tools. However, a text written in natural language is unstructured data, i.e. it cannot be interpreted by a specialized computer program, without which the information in the texts remains largely under-exploited. Among the tools for automatic extraction of information from text, we are interested in automatic text interpretation methods for the entity normalization task that consists in automatically matching text entitiy mentions to concepts in a reference terminology. To accomplish this task, we propose a new approach by aligning two types of vector representations of entities that capture part of their meanings: word embeddings for text mentions and concept embeddings for concepts, designed specifically for this work. The alignment between the two is done through supervised learning. The developed methods have been evaluated on a reference dataset from the biological domain and they now represent the state of the art for this dataset. These methods are integrated into a natural language processing software suite and the codes are freely shared.

Page generated in 0.0945 seconds