• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 407
  • 304
  • 124
  • 4
  • 3
  • Tagged with
  • 895
  • 895
  • 551
  • 334
  • 331
  • 297
  • 282
  • 263
  • 243
  • 217
  • 209
  • 206
  • 202
  • 202
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

L'internet des objets médicaux (IoMT) appliqué aux soins de santé ambulatoires : prévention, détection et alertes intelligentes en boucle fermée

Mascret, Quentin 19 July 2024 (has links)
Thèse ou mémoire avec insertion d'articles / L'expansion rapide de l'Internet des Objets Médicaux (IoMT) englobe une variété de technologies connectées dans le domaine de la santé. Toutefois, les dispositifs de mesure actuels, notamment les bracelets connectés, présentent des limitations qui entravent l'adoption généralisée de l'IoMT et leur utilisation pour la mesure précise et fiable de l'état de santé. Ces limitations se manifestent dans la nécessité d'une transmission continue des données vers des services distants, souvent dépendante de l'utilisation d'un smartphone ou d'une connexion Internet. De plus, l'utilisation prédominante de montres commerciales dans l'IoMT soulève des défis majeurs, tels que la dépendance énergétique liée à une connectivité Internet intensive, la nécessité fréquente de recharges, et le risque de surcharge d'informations due à un affichage continu des données. Une autre contrainte significative dans le contexte de l'IoMT est la dépendance à des serveurs locaux (edge servers) pour la réalisation d'opérations cruciales. De nombreuses applications nécessitent ces serveurs périphériques pour effectuer des traitements locaux, améliorant ainsi la réactivité du système et réduisant la dépendance aux ressources cloud. Cependant, cette dépendance introduit de nouveaux défis en termes de gestion des données, de sécurité et de latence. Cette recherche s'inscrit dans un contexte complexe où l'IoMT, malgré ses avantages potentiels, doit surmonter des obstacles liés à la transmission de données, à la dépendance énergétique des dispositifs, et à la nécessité d'une infrastructure robuste, telle que les serveurs locaux, pour réaliser des opérations cruciales. Ces défis sont particulièrement prégnants dans le cadre de l'extraction des signes vitaux et l'étude de l'activité physique humaine. Pour répondre à ces défis, ce projet de recherche vise à concevoir un bracelet intelligent intégrant des circuits analogiques-numériques pour l'acquisition brute de signaux physiologiques. L'objectif est d'extraire plusieurs signes vitaux, d'optimiser l'utilisation des capteurs en fonction de l'activité et des signes vitaux, d'effectuer des opérations complexes à grande vitesse avec une faible latence et une consommation d'énergie limitée. Le bracelet sera configurable et adaptable, utilisant une transmission sans fil efficace tout en conservant la trace de l'évolution des signes vitaux. Il en résulte trois grands axes de recherches. Un premier axe de recherche a permis de démontrer un système novateur d'analyse en temps réel de douze mouvements de l'activité physique humaine grâce à l'intégration d'apprentissage machine dans le capteur. Ce système, en utilisant les données brutes des capteurs inertiel, a permis de réduire considérablement les coûts computationnels tout en améliorant la précision de la machine à vecteur de support à noyau gaussien par l'utilisation d'une Normalisation Sphérique Multi-Mapping (NSMM) visant à améliorer la dispersion des données. Les résultats montrent une rétroaction de prédiction rapide avec une latence inférieure à 20 ms et une consommation d'énergie modérée tout en offrant une précision de 98.28%. De manière similaire, le deuxième axe de recherche s'est concentré sur le développement d'un bracelet intelligent intégrant plusieurs algorithmes d'IA permettant d'extraire en temps réel des signes vitaux, même lors d'artefacts de mouvement. Ces algorithmes, spécifiquement optimisés pour minimiser l'utilisation de la RAM et des ressources matérielles, permettent une mesure précise du rythme cardiaque, de la fréquence respiratoire et de la saturation en oxygène. L'introduction d'un algorithme intelligent de fusion de domaines maintien des performances élevées pour l'extraction des signes vitaux tout en réduisant l'utilisation de la RAM, même en présence d'artefacts de mouvement. Par ailleurs, le troisième axe de recherche a innové en déployant un modèle d'apprentissage automatique, une machine à vecteur support à noyau linéaire, embarqué dans un dispositif portable pour détecter en temps réel les chutes. L'optimisation du modèle a considérablement réduit l'utilisation de la RAM de 97.9%, tout en maintenant une précision élevée de 96.4% dans la détection des chutes. Bien que cette optimisation entraîne une légère augmentation de la latence, celle-ci reste inférieure à 132 ms, garantissant une détection efficace des chutes. En conclusion, ces recherches contribuent au développement de dispositifs portables intelligents intégrant l'apprentissage automatique pour la surveillance médicale en temps réel. Les méthodes innovantes, les algorithmes optimisés et les déploiements embarqués ouvrent des perspectives pratiques, notamment dans la prévention des blessures, les soins aux personnes âgées et la surveillance continue de la santé. Ces résultats enrichissent l'évolution de l'IoMT, en fournissant des solutions adaptées et efficaces aux contraintes des dispositifs portables. / The rapid expansion of the Internet of Medical Things (IoMT) encompasses a variety of connected technologies in the healthcare sector. However, current measurement devices, notably wearable devices like smartwatches, have limitations that hinder the widespread adoption of IoMT and their use for precise and reliable health monitoring. These limitations include the need for continuous data transmission to remote services, often reliant on a smartphone or Internet connection. Additionally, the prevalent use of commercial watches in IoMT poses major challenges, such as energy dependence due to intensive Internet connectivity, frequent recharging needs, and the risk of information overload from continuous data display. Another significant constraint in the IoMT context is the reliance on edge servers for crucial operations. Many applications require these peripheral servers for local processing, improving system responsiveness and reducing dependence on cloud resources. However, this dependence introduces new challenges in terms of data management, security, and latency. This research addresses a complex context where IoMT, despite its potential benefits, must overcome obstacles related to data transmission, device energy dependence, and the need for a robust infrastructure, such as edge servers, to perform critical operations. These challenges are particularly prevalent in vital signs extraction and human physical activity studies. To address these challenges, this research project aims to design a smart bracelet integrating analog-todigital circuits for raw physiological signal acquisition. The goal is to extract multiple vital signs, optimize sensor use based on activity and vital signs, perform complex operations at high speed with low latency and limited energy consumption. The bracelet will be configurable and adaptable, using efficient wireless transmission while keeping track of vital signs evolution. As a result, three main research axes emerge. The first axis demonstrates an innovative realtime analysis system for twelve human physical activity movements through machine learning integration into the sensor. Using raw inertial sensor data, this system significantly reduces computational costs while improving the accuracy of the Gaussian kernel support vector machine through the use of Multi-Mapping Spherical Normalization (MMSN) to improve data dispersion. The results show rapid prediction feedback with latency below 20 ms and moderate energy consumption while offering 98.28% accuracy. Similarly, the second research axis focused on developing a smart bracelet integrating multiple AI algorithms for real-time ex traction of vital signs, even during motion artifacts. These algorithms, specifically optimized to minimize RAM and hardware resource usage, allow for precise measurement of heart rate, respiratory rate, and oxygen saturation. The introduction of an intelligent domain fusion algorithm maintains high performance for vital signs extraction while reducing RAM usage, even in the presence of motion artifacts. Furthermore, the third research axis innovated by deploying a machine learning model, a linear kernel support vector machine, embedded in a wearable device for real-time fall detection. Model optimization significantly reduced RAM usage by 97.9%, while maintaining high detection accuracy of 96.4% for falls. Although this optimization leads to a slight increase in latency, it remains below 132 ms, ensuring effective fall detection. In conclusion, this research contributes to the development of smart wearable devices integrating machine learning for real-time medical monitoring. The innovative methods, optimized algorithms, and embedded deployments offer practical prospects, particularly in injury prevention, elderly care, and continuous health monitoring. These results enrich the evolution of IoMT by providing tailored and effective solutions to the constraints of wearable devices.
362

Cours personnalisés et génération d'exercices

Prieur, Antoine Serge Max 13 December 2023 (has links)
Le cours d'un professeur donné à des étudiants se sépare en général en deux parties distinctes, la première consiste en la transmission des connaissances, et ensuite vient un dialogue entre les deux parties afin de répondre aux questions des étudiants et de les faire progresser. La phase d'échange est très importante, car elle permet aux élèves de mieux appréhender les notions qu'ils viennent d'apprendre. Elle demande cependant une grande implication du professeur pour répondre aux questions de chaque étudiant. À l'inverse, la phase de transmission des connaissances est souvent une élocution du professeur plutôt qu'une interaction avec les élèves. De plus, cette transmission est répétitive d'une année à l'autre, et certaines notions basiques pourraient être apprises d'une autre manière afin que l'enseignant puisse se concentrer davantage sur l'échange avec ses étudiants. À l'image de la médecine personnalisée, une médecine qui se base sur les caractéristiques génétiques et moléculaires du patient afin de lui proposer un traitement plus efficace, nous proposons dans ce mémoire de réfléchir à une méthode permettant d'adapter et d'automatiser la phase de transmission des connaissances à chaque étudiant. Plutôt que d'énoncer le même cours à tous les élèves, ou de donner le même médicament à tous les patients, nous souhaitons utiliser les antécédents de l'étudiant en vue de lui proposer une version personnalisée du cours adaptée à ses besoins, ce qui lui permettrait d'apprendre plus facilement. L'automatisation de cette tâche permettrait en plus de libérer du temps au professeur pour d'autres tâches. Nous allons nous concentrer dans ce mémoire sur l'apprentissage d'un langage de programmation tel que le Python. Nous allons réfléchir à une démarche permettant d'automatiser et de personnaliser son apprentissage. Pour ce faire, nous allons travailler sur la génération de code Python à partir d'une description en langage naturel afin de créer automatiquement des exercices. Cette génération permet de recommander automatiquement des exercices adaptés aux élèves. Nous allons utiliser les avancées en intelligence artificielle afin de simuler l'intelligence d'un professeur pour adapter au mieux le programme à chaque étudiant. / A teacher's lecture to students is usually divided into two distinct parts, the first of which consists of the transmission of knowledge, followed by a dialogue between the two parties in order to answer the students' questions and help them progress. The exchange phase is very important, as it allows the students to better understand the concepts they have just learnt. However, it requires a great deal of involvement on the part of the teacher to answer each student's questions. In contrast, the knowledge transmission phase is often a speech by the teacher rather than an interaction with the students. Moreover, this transmission is repetitive from one year to the next, and some basic notions could be learnt in another way so that the teacher can concentrate more on the exchange with his students. In the image of personalised medicine, a medicine that is based on the genetic and molecular characteristics of the patient in order to propose a more effective treatment, we propose in this manuscript to think about a method that would allow us to adapt and automate the phase of knowledge transmission to each student. Rather than giving the same lecture to all students, or the same drug to all patients, we want to use the student's background to provide a personalised version of the lecture that is tailored to their needs, making it easier for them to learn. The automation of this task would also free up the teacher's time for other tasks. In this manuscript, we will focus on the learning of a programming language such as Python. We will think about an approach that allows us to automate and personalise its learning. To do this, we will work on the generation of Python code from a natural language description in order to automatically create exercises. This generation allows us to automatically recommend exercises adapted to the students. We will use advances in artificial intelligence to simulate the intelligence of a teacher to best adapt the programme to each student.
363

Comprendre le plumitif : l'intelligence artificielle au service de la clarté de l'information judiciaire?

Gaumond, Eve 18 July 2024 (has links)
Ce mémoire s'intéresse à la clarté de l'information judiciaire en contexte numérique, et plus particulièrement à la clarté du plumitif criminel québécois. L'article est divisé en trois sections. La section 1 constitue une revue de la littérature traitant des problèmes d'accessibilité du plumitif. Nous y faisons une typologie des différents acteurs qui utilisent le plumitif, des obstacles qu'ils rencontrent - particulièrement du manque de clarté du plumitif - et nous présentons une application de « traduction du plumitif » que nous avons développé pour répondre à ce problème. Les sections 2 et 3 portent sur une étude empirique que nous avons réalisée auprès de 20 participants pour évaluer l'efficacité de l'application. La section 2 présente la méthode que nous avons conçue et la section 3 présente les résultats que nous avons obtenus. La conclusion de ces deux sections est la suivante : l'application de « traduction du plumitif » permet surtout d'accroître la lisibilité du plumitif. L'intelligibilité du plumitif, quant à elle, pose encore problème. Or, comme l'accès à l'information sert principalement à alimenter la confiance du plumitif à l'égard du système de justice, et que l'intelligibilité de l'information est essentielle pour ce faire, nous arguons qu'une place plus importante doit être accordée à l'intelligibilité dans le contexte de la dématérialisation de l'information judiciaire. / Our dissertation focuses on the clarity of judicial information in a digital context. We use Quebec's criminal docket as a case study. The dissertation is divided into three sections. Section 1 is a literature review about the docket's lack of accessibility. In this section, we present a typology of the docket's various kinds of users, we discuss the obstacles they encounter - particularly the lack of clarity of the docket - and we present a web application that we have developed to "translate the docket". Sections 2 and 3 focus on an empirical study we conducted with 20 participants to assess the effectiveness of the application. Section 2 presents the method we designed and Section 3 presents the results we obtained. The conclusion of these two sections is that the "docket translation" does increase docket readability but might be falling short when it comes to enhancing the intelligibility of the docket. Since access to judicial information's main objective is to foster citizens' confidence in the justice system - and since the intelligibility of information is essential to this - we suggest that intelligibility should be a topic that gets more attention in the context of the digitalization of court records.
364

Developing a model and a language to identify and specify the integrity constraints in spatial datacubes

Salehi, Mehrdad 16 April 2018 (has links)
La qualité des données dans les cubes de données spatiales est importante étant donné que ces données sont utilisées comme base pour la prise de décision dans les grandes organisations. En effet, une mauvaise qualité de données dans ces cubes pourrait nous conduire à une mauvaise prise de décision. Les contraintes d'intégrité jouent un rôle clé pour améliorer la cohérence logique de toute base de données, l'un des principaux éléments de la qualité des données. Différents modèles de cubes de données spatiales ont été proposés ces dernières années mais aucun n'inclut explicitement les contraintes d'intégrité. En conséquence, les contraintes d'intégrité de cubes de données spatiales sont traitées de façon non-systématique, pragmatique, ce qui rend inefficace le processus de vérification de la cohérence des données dans les cubes de données spatiales. Cette thèse fournit un cadre théorique pour identifier les contraintes d'intégrité dans les cubes de données spatiales ainsi qu'un langage formel pour les spécifier. Pour ce faire, nous avons d'abord proposé un modèle formel pour les cubes de données spatiales qui en décrit les différentes composantes. En nous basant sur ce modèle, nous avons ensuite identifié et catégorisé les différents types de contraintes d'intégrité dans les cubes de données spatiales. En outre, puisque les cubes de données spatiales contiennent typiquement à la fois des données spatiales et temporelles, nous avons proposé une classification des contraintes d'intégrité des bases de données traitant de l'espace et du temps. Ensuite, nous avons présenté un langage formel pour spécifier les contraintes d'intégrité des cubes de données spatiales. Ce langage est basé sur un langage naturel contrôlé et hybride avec des pictogrammes. Plusieurs exemples de contraintes d'intégrité des cubes de données spatiales sont définis en utilisant ce langage. Les designers de cubes de données spatiales (analystes) peuvent utiliser le cadre proposé pour identifier les contraintes d'intégrité et les spécifier au stade de la conception des cubes de données spatiales. D'autre part, le langage formel proposé pour spécifier des contraintes d'intégrité est proche de la façon dont les utilisateurs finaux expriment leurs contraintes d'intégrité. Par conséquent, en utilisant ce langage, les utilisateurs finaux peuvent vérifier et valider les contraintes d'intégrité définies par l'analyste au stade de la conception.
365

Ordonnancement de ressources en temps réel avec contraintes dynamiques dans un environnement non déterministe

Gagné, Olivier 13 April 2018 (has links)
Les problèmes militaires sont très complexes et plusieurs d'entre eux ne peuvent être résolues en utilisant les techniques d'optimisation classiques. Le problème visé par ce travail de maîtrise, est celui de la gestion en temps réel des ressources d'une frégate. Ces ressources doivent être assignées convenablement et dans les délais requis de manière à contrer les menaces et augmenter ainsi la probabilité de survie de la frégate. Pour contribuer à résoudre un tel problème, nous avons convenu tout d'abord, d'analyser les menaces une à une et de déterminer lesquelles sont les plus importantes et quel plan d'attaque il convient d'élaborer pour les contrer. Nous avons introduit à cet effet, l'évaluation de ``l'engageabilité'' qui permet de considérer différents facteurs déterminants dans l'allocation des ressources. Nous avons ensuite formalisé le problème en question, en utilisant un modèle formel emprunté à la satisfaction des contraintes (CSP=constraint Satisfaction problem). Finalement, nous avons montré dans quelles circonstances il est avantageux d'utiliser cette évaluation de l'engageabilité dans un processus d'allocation de ressources en temps réel et dans un environnement stochastique, le tout relativement à la survie de la frégate. / Military problems are very complex and they can be solved by different artificial intelligence techniques. In this thesis, we address the problem of weapon-targets assignment for a frigate. To defend efficiently the ship, we have to analyze each threat and determine which resource assigns against it. For that purpose, we utilize the engageability assessment to consider different characteristics; useful in the resources assignment. To this end, a mathematical model named Constraint Satisfaction Problem (CSP) is employed. This framework allows formalizing the problem to ensure the constraint consistency and to sort threats in importance order. We tried this algorithm on different types of weapon-target assignment problems. Finally, we demonstrate the advantage of engageability assessment on the weapon-target assignment problem in real time and stochastic environment.
366

Résolution des problèmes d'optimisation combinatoire avec une stratégie de retour-arrière basée sur l'apprentissage par renforcement

Bachiri, Ilyess 23 April 2018 (has links)
Les problèmes d’optimisation combinatoire (Constraint Optimization Problems – COP) sont souvent difficiles à résoudre et le choix de la stratégie de recherche a une influence importante sur la performance du solveur. Pour de résoudre un problème d’optimisation combinatoire en explorant un arbre de recherche, il faut choisir une heuristique de choix de variable (qui définit l’ordre dans lequel les variables vont être instanciées), une heuristique de choix de valeur (qui spécifie l’ordre dans lequel les valeurs seront essayées), et une stratégie de retour-arrière (qui détermine vers quel noeud effectuer les retours-arrière lorsqu’une feuille de l’arbre est rencontrée). Pour les stratégies de retour-arrière, il y a celles dont les retours-arrière sont totalement déterministes (e.g. Depth-First Search – DFS) et d’autres qui s’appuient sur des mécanismes d’évaluation de noeuds plus dynamiques (e.g. Best-First Search). Certaines (e.g. Limited Discrepancy Search – LDS) peuvent être implémentées soit comme un algorithme itératif déterministe ou un évaluateur de noeud. Une stratégie est dite adaptative quand elle s’adapte dynamiquement à la structure du problème et identifie les zones de l’espace de recherche qui contiennent les “bonnes” solutions. Dans ce contexte, des stratégies de branchement adaptatives ont été proposées (e.g. Impact-Based Search – IBS) ainsi qu’une stratégie de retour-arrière adaptative (e.g. Adaptive Discrepancy Search – ADS), proposée pour les problèmes d’optimisation distribués. À notre connaissance, aucune stratégie adaptative qui utilise l’apprentissage par renforcement (Reinforcement Learning – RL) pour supporter son mécanisme d’apprentissage n’a été proposée dans la littérature. Nous pensons que les techniques de RL permettront un apprentissage plus efficace et qu’une stratégie de retour-arrière munie de ces techniques aura le potentiel de résoudre les problèmes d’optimisation combinatoire plus rapidement. Dans ce mémoire, nous proposons un algorithme (RLBS) qui “apprend” à faire des retours-arrière de manière efficace lors de l’exploration d’arbres non-binaires. Plus précisément, il s’agit une stratégie de retour-arrière qui se base sur l’apprentissage automatique pour améliorer la performance du solveur. En fait, nous utilisons l’apprentissage par renforcement pour identifier les zones de l’espace de recherche qui contiennent les bonnes solutions. Cette approche a été développée pour les problèmes d’optimisation combinatoire dont l’espace de recherche est encodé dans un arbre non-binaire. Comme les arbres sont non-binaires, on a l’occasion d’effectuer plusieurs retours-arrière vers chaque noeud durant l’exploration. Ceci permet d’apprendre quels noeuds mènent vers les meilleures récompenses en général (c’est-à-dire, vers les feuilles les plus intéressantes). Le branchement est effectué en utilisant une stratégie de choix de variable/valeur quelconque. Toutefois, quand un retour-arrière est nécessaire, la sélection du noeud cible s’appuie sur l’apprentissage par renforcement. RLBS est évalué sur cinq instances industrielles du problème de la planification des opérations du rabotage du bois et a été comparé à ADS et à LDS sur cette même application. RLBS dépasse LDS et ADS, en termes de temps de calcul nécessaire à la résolution, sur chacune de ces instances-là et trouve la solution optimale plus rapidement. Les expérimentations ont montré que RLBS est en moyenne 4 fois plus rapide que ADS, et 6 fois plus rapide que LDS. RLBS a aussi été évalué sur une instance jouet du même problème et a été comparé à IBS. RLBS surpasse largement IBS. Il est capable de trouver une solution optimale en explorant beaucoup moins de noeuds que le nombre nécessaire à IBS pour trouver une telle solution. / Combinatorial optimization problems are often very difficult to solve and the choice of a search strategy has a tremendous influence over the solver’s performance. To solve a problem using search, one needs to choose a variable selection strategy (defining the order in which variables will be instantiated), a value selection strategy (that specifies the sequence in which we will try the variable possible values) and a backtracking strategy (that determines to which node we should backtrack/backjump, when a leaf is reached or a dead-end is encountered). When it comes to backtracking strategies, there are some that are encoded into full deterministic algorithms (e.g. Depth-First Search – DFS), and others that rely on more dynamic node evaluator mechanisms (e.g. Best-First Search). Others (e.g. Limited Discrepancy Search – LDS) can be implemented as a deterministic iterative algorithm or as a node evaluator. A strategy is said to be adaptive when it dynamically adapts to the structure of the problem and identifies the areas of the search space that contain good solutions. Some have proposed adaptive branching strategies (e.g. Impact-based Search – IBS) or a backtracking strategy (e.g. Adaptive Discrepancy Search – ADS) proposed for distributed optimization problems. To our current knowledge, no adaptive backtracking strategy that relies on Reinforcement Learning (RL) has been proposed yet. We believe that RL techniques could allow a more efficient learning process and that, provided with these techniques, a backtracking strategy has a great potential of solving combinatorial optimization problems in a faster way. In this thesis, we introduce an algorithm (RLBS) that learns to efficiently backtrack when searching non-binary trees. We consider a machine learning approach which improves the performance of the solver. More specifically, we use reinforcement learning to identify the areas of the search space that contain good solutions. The approach was developed for optimization problems for which the search space is encoded as a non-binary tree. Since the trees are non-binary, we have the opportunity to backtrack multiple times to each node during the search. This allows learning which nodes generally lead to the best rewards (that is, to the most interesting leaves). Branching can be carried on using any variable/value selection strategy. However, when backtracking is needed, the selection of the target node involves reinforcement learning. RLBS is evaluated on five instances of the lumber planing problem using real idustrial data, and it is compared to LDS and ADS. It outperforms classic (non-adaptive) search strategies (DFS, LDS), an adaptive branching strategy (IBS), and an adaptive backtracking strategy (ADS) on every instance of this problem. Experiments have shown that RLBS is on average 4 times faster than ADS, and 6 times faster than LDS. RLBS is also evaluated on a toy instance of the lumber planing problem and compared to IBS. RLBS substantially outperforms IBS by solving the problem to optimality much faster.
367

Rule-based data augmentation for document-level medical concept extraction

Shao, Qiwei 08 1900 (has links)
L'extraction de concepts médicaux au niveau du document identifie les concepts médicaux distincts dans un document entier, essentielle pour améliorer les modèles de recherche d'information et de question-réponse en comprenant les concepts dans les requêtes et les documents sans necessiter d'annotations manuelles. Les recherches existantes se sont concentrées sur la reconnaissance d'entités nommées (Named Entity Recognition - NER) ou le liaison d'entités (Entity Linking - EL) séparément, s'appuyant fortement sur des annotations manuelles qui sont souvent indisponibles ou limitées. De plus, la plupart des méthodes de NER et EL sont limitées dans leur capacité de tenir compte du contexte lors de l'association de texte aux concepts, ce qui complique l'identification des termes polysémiques et des noms de concepts non canoniques nécessitant une désambiguïsation contextuelle. Notre approche aborde trois défis : la rareté des données d'entraînement étiquetées, les noms de concepts non canoniques et la polysémie. Nous traitons l'extraction de concepts au niveau du document comme un problème de match de plongement concept-document. Pour entraîner un modèle de match avec des exemples limités, nous utilisons des pseudo-annotations générées par MetaMapLite pour augmenter les données de nombreux concepts de test. Notre hypothèse est que, malgré que les annotations par MetaMapLite sont bruitées, si la majorité des annotations est correcte, elles peuvent servir à entraîner un meilleur modèle de match. Nos expériences montrent que notre méthode d'augmentation de données dépasse les modèles de base comme BioBERT, BiomedBERT, BioLinkBERT et SapBERT dans l'extraction générale de concepts et des scénarios spécifiques impliquant des concepts sous-entraînés, des noms non canoniques et des termes polysémiques de 6.8\% à 46.7\%. Notre modèle s'avère robuste à diverses configurations, y compris la quantité et le poids des examples d'entraînement augmentés, les plongements lexicaux et les filtres de pseudo-annotations. Nous établissons une base solide dans l'extraction de concepts médicaux au niveau du document par l'augmentation des données. Notre étude montre une avenue prometteuse d'exploiter diverses techniques d'augmentation de données pour améliorer l'extraction de concepts au niveau du document. / Document-level medical concept extraction identifies distinct medical concepts across an entire document, crucial for enhancing information retrieval and question-answering models by accurately understanding concepts in queries and documents without needing precise mention annotations. Traditional research has focused on Named Entity Recognition (NER) or Entity Linking (EL) separately, relying heavily on extensive manual annotations often unavailable in many question-answering datasets. Moreover, most NER and EL methods are limited in taking into account context when matching text to concept IDs, complicating the identification of polysemous terms and non-canonical concept names requiring contextual disambiguation. Our approach address three challenges: scarcity of labeled training data, non-canonical concept names, and polysemy. We treats document-level concept extraction as a concept-document embedding matching problem, enabling the model to learn from context without extensive manual annotations. We use pseudo-annotations generated by MetaMapLite to tackle the lack of labeled data for many test concepts. The assumption is that while the annotations by MetaMapLite are noisy, if the majority of the annotations are correct, they can provide useful information for training a neural matching model. Our experiments show that our data augmentation method surpasses baseline models like BioBERT, BiomedBERT, BioLinkBERT, and SapBERT in general concept extraction and specific scenarios involving undertrained concepts, non-canonical names, and polysemous terms by 6.8\% to 46.7\%. Our model proves robust to various configurations, including augmented training sample quantity and weighting, embedding methods, and pseudo-annotation filters. We establish a solid foundation in document-level medical concept extraction through data augmentation. Our study shows a promising avenue of exploiting diverse data augmentation techniques to improve document-level concept extraction.
368

Formalisme pragmatiste pour le développement de schèmes cognitifs en robotique autonome

Coussinet, Cédric 25 September 2007 (has links) (PDF)
Afin de déterminer les difficultés à réaliser un robot autonome, une grille d'analyse philosophique et épistémologique a été établie pour mener une étude transversale. Cette étude révèle que les diverses approches se justifient par au moins une hypothèse ontologique qui conduit inévitablement à une impasse au développement d'une science de la cognition contrairement aux sciences physiques. Une solution consiste alors à adopter une définition pragmatiste de la vérité (James, 1905) conduisant à considérer la cognition comme une dynamique sémiotique auto-orientée toujours en interaction avec l'environnement. À partir de la notion d'autopoièse (Varela, 1989), la cognition a été définie comme une autopoièse sémiotique. La formalisation de ce concept a permis de déterminer une architecture cognitive. En s'inspirant des systèmes de classeurs (Holland, 1976), une architecture cognitive minimale fut spécifiée et implémentée. L'expérimentation en environnement simulé et réel a pu montrer la présence de propriétés d'auto-organisation et d'auto-orientation, en exprimant les règles et les métarègles avec le même formalisme.
369

Contribution à l'analyse de données temporelles

Douzal-Chouakria, Ahlame 29 November 2012 (has links) (PDF)
Mes travaux de recherche portent sur l'analyse de données temporelles et s'articulent en trois parties : -la représentation de séries temporelles, -la définition de métriques et leur apprentissage, -ainsi que la proposition de nouvelles approches de classification dédiées aux séries temporelles. Le déploiement de statistiques d'autocorrélation spatiale sur des structures de contiguïté particulières, telle que temporelle, met en évidence des propriétés intéressantes. Elles permettent, par exemple, d'appréhender le comportement des séries (aléatoire, chaotique), d'évaluer le niveau de saillance d'un événement, ou de mesurer la dépendance locale ou globale entre une structure évolutive et les observations associées. Ces propriétés ont guidé nos principaux travaux. Ainsi, une première contribution concerne la représentation compacte de séries multivariées. J'ai étudié une approche de réduction de la dimension temporelle de séries multivariées, par segmentation, préservant les corrélations inférées par la série ; l'identification de segments saillants étant guidée par la variance locale. Dans une deuxième partie, je me suis intéressée à la définition de métriques intégrant la composante forme des séries et leur positionnement dans un cadre plus général. L'alignement de séries étant un concept fondamental dans la définition de métriques, mon intérêt a porté, ensuite, sur l'apprentissage de couplages pour la discrimination de classes de séries complexes. L'approche proposée vise à lier les séries selon les caractéristiques communes au sein des classes et différentielles entre les classes. Le couplage ainsi appris permet de dériver une métrique locale pondérée restreignant la comparaison des séries aux attributs discriminants. Enfin, le troisième volet de mes travaux est dédié à l'extension des arbres de classification/régression à des variables prédictives temporelles. L'arbre temporel de classification proposé recours à un nouveau critère de coupure fondé sur une métrique adaptative et la localisation de sous-séquences discriminantes.
370

Learning a graph made of boolean function nodes : a new approach in machine learning

Mokaddem, Mouna 08 1900 (has links)
Dans ce document, nous présentons une nouvelle approche en apprentissage machine pour la classification. Le cadre que nous proposons est basé sur des circuits booléens, plus précisément le classifieur produit par notre algorithme a cette forme. L’utilisation des bits et des portes logiques permet à l’algorithme d’apprentissage et au classifieur d’utiliser des opérations vectorielles binaires très efficaces. La qualité du classifieur, produit par notre approche, se compare très favorablement à ceux qui sont produits par des techniques classiques, à la fois en termes d’efficacité et de précision. En outre, notre approche peut être utilisée dans un contexte où la confidentialité est une nécessité, par exemple, nous pouvons classer des données privées. Ceci est possible car le calcul ne peut être effectué que par des circuits booléens et les données chiffrées sont quantifiées en bits. De plus, en supposant que le classifieur a été déjà entraîné, il peut être alors facilement implémenté sur un FPGA car ces circuits sont également basés sur des portes logiques et des opérations binaires. Par conséquent, notre modèle peut être facilement intégré dans des systèmes de classification en temps réel. / In this document we present a novel approach in machine learning for classification. The framework we propose is based on boolean circuits, more specifically the classifier produced by our algorithm has that form. Using bits and boolean gates enable the learning algorithm and the classifier to use very efficient boolean vector operations. The accuracy of the classifier we obtain with our framework compares very favourably with those produced by conventional techniques, both in terms of efficiency and accuracy. Furthermore, the framework can be used in a context where information privacy is a necessity, for example we can classify private data. This can be done because computation can be performed only through boolean circuits as encrypted data is quantized in bits. Moreover, assuming that the classifier was trained, it can then be easily implemented on FPGAs (i.e., Field-programmable gate array) as those circuits are also based on logic gates and bitwise operations. Therefore, our model can be easily integrated in real-time classification systems.

Page generated in 0.0747 seconds