• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 584
  • 356
  • 134
  • 4
  • 3
  • Tagged with
  • 1132
  • 899
  • 610
  • 340
  • 337
  • 300
  • 299
  • 282
  • 260
  • 231
  • 216
  • 211
  • 207
  • 203
  • 200
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Intérêt de la ventilation artificielle et des lavages bronchiques dans le traitement de l'état de mal asthmatique.

Morice, Jean-Claude, January 1900 (has links)
Thèse--Méd.--Reims, 1974. N°: N° 14. / Bibliogr. ff. I-VIII.
42

Disparate treatments discovery : disparate treatments discovery algorithm framework with no access to protected attribute values

Racicot, Taha 09 November 2022 (has links)
Les nouveaux algorithmes en intelligence artificielle offrent une opportunité d'améliorer la rapidité et l'efficacité de la prise de décision. Ceux-ci sont certainement bénéfique, lorsqu'ils permettent de prendre en compte plus de critères qu'un humain pourrait considérer et de prendre plus de décisions plus rapidement qu'un humain pourrait le faire. Cependant, l'utilisation d'algorithmes de décision mal conçus a un effet social majeur. En effet, ces algorithmes peuvent apprendre à baser leurs décisions sur des critères socialement inacceptables comme la race, le sexe, l'origine ethnique, ou l'orientation sexuelle, et ainsi formaliser et propager les discriminations du passé. Dans de tels cas, l'impact de ces algorithmes est de renforcer et propager à grande échelle les inégalités économiques, sociales, et d'opportunités, entre les diverses communautés composant notre société. On pourrait croire qu'il est facile d'examiner les règles de recommandation d'un algorithme pour vérifier quels critères sont considérés. Cependant, ce n'est pas le cas : plusieurs algorithmes d'intelligence artificielle, comme les réseaux de neurones profonds, sont des "boites noires" qui fournissent des résultats d'une manière incompréhensible aux humains. De plus, une discrimination sur un critère inacceptable n'a pas besoin de considérer explicitement ce critère dans ses facteurs de décision, mais peut être réalisée en utilisant uniquement des facteurs acceptables ou même anodins, mais qui sont corrélés au critère inacceptable. Ainsi à chaque fois que des systèmes intelligents sont utilisés, on se retrouve à se demander si le système va prendre la décision optimale sans discrimination malgré qu'aucun attribut sensible n'a été utilisé. Dans ce travail, nous explorons une nouvelles méthodes pour l'identification de la discrimination dans les décisions de systèmes intelligents sans avoir accès aux attributs sensibles. Nous commençons par explorer les métriques de mesures de discrimination utilisés communément et nous identifions leurs lacunes. Par la suite, étant donné ces lacunes, nous explorons de nouvelles méthodes émergeantes basés sur la causalité permettant de palier à celles-ci. Ensuite, nous étudions la possibilité d'utiliser des attributs corrélés avec les attributs sensibles manquants comme le nom et le prénom pour retrouver les attributs sensibles. Par la suite, nous explorons les méthodes de mesure d'incertitude dans les nouveaux algorithmes en IA afin d'évaluer à quel point nous pouvons être certain de la mesure de discrimination lors de l'utilisation d'attributs non protégés corrélés avec les attributs sensibles. Enfin, nous présentons notre méthode sur la discrimination raciale en utilisant le nom et de prénom comme proxy pour l'ethnicité et nous réalisons des tests à partir de données synthétiques. / New algorithms in artificial intelligence offer an opportunity to improve the speed and efficiency of decision-making. These are certainly beneficial, when they allow to take into account more criteria than a human could consider and to make more decisions more quickly than a human could. However, the use of poorly designed decision algorithms has a major social effect. Indeed, these algorithms can learn to base their decisions on socially unacceptable criteria such as race, gender, ethnic origin, or sexual orientation, and thus formalize and propagate the discriminations of the past. In such cases, the impact of these algorithms is to reinforce and propagate on a large scale economic, social and opportunity inequalities between the various communities that make up our society. One might think that it is easy to examine the recommendation rules of an algorithm to check which criteria are considered. However, this is not the case : many AI algorithms, such as deep neural networks, are "black boxes" that deliver results in ways that humans cannot understand. Moreover, discrimination on an unacceptable criterion does not need to explicitly consider this criterion in its decision factors, but can be achieved by using only acceptable or even innocuous factors, but which are correlated to the unacceptable criterion. So whenever intelligent systems are used, we find ourselves wondering if the system will make the optimal decision without discrimination despite the fact that no sensitive attribute has been used. In this work, we explore a new method for the identification of discrimination in decisions of intelligent systems without having access to sensitive attributes. We begin by exploring commonly used discrimination measurement metrics and identifying their shortcomings. Subsequently, given these shortcomings, we explore new emerging methods based on causality to overcome them. Then, we study the possibility of using attributes correlated with the missing sensitive attributes like the name and the first name to find the sensitive attributes. Subsequently, we explore methods for measuring uncertainty in new AI algorithms in order to assess how certain we can be of the discrimination measure when using unprotected attributes correlated with sensitive attributes. Finally, we present our method on racial discrimination using surname and first name as a proxy for ethnicity and we perform tests using synthetic data.
43

Disparate treatments discovery : disparate treatments discovery algorithm framework with no access to protected attribute values

Racicot, Taha 13 December 2023 (has links)
Les nouveaux algorithmes en intelligence artificielle offrent une opportunité d'améliorer la rapidité et l'efficacité de la prise de décision. Ceux-ci sont certainement bénéfique, lorsqu'ils permettent de prendre en compte plus de critères qu'un humain pourrait considérer et de prendre plus de décisions plus rapidement qu'un humain pourrait le faire. Cependant, l'utilisation d'algorithmes de décision mal conçus a un effet social majeur. En effet, ces algorithmes peuvent apprendre à baser leurs décisions sur des critères socialement inacceptables comme la race, le sexe, l'origine ethnique, ou l'orientation sexuelle, et ainsi formaliser et propager les discriminations du passé. Dans de tels cas, l'impact de ces algorithmes est de renforcer et propager à grande échelle les inégalités économiques, sociales, et d'opportunités, entre les diverses communautés composant notre société. On pourrait croire qu'il est facile d'examiner les règles de recommandation d'un algorithme pour vérifier quels critères sont considérés. Cependant, ce n'est pas le cas : plusieurs algorithmes d'intelligence artificielle, comme les réseaux de neurones profonds, sont des "boites noires" qui fournissent des résultats d'une manière incompréhensible aux humains. De plus, une discrimination sur un critère inacceptable n'a pas besoin de considérer explicitement ce critère dans ses facteurs de décision, mais peut être réalisée en utilisant uniquement des facteurs acceptables ou même anodins, mais qui sont corrélés au critère inacceptable. Ainsi à chaque fois que des systèmes intelligents sont utilisés, on se retrouve à se demander si le système va prendre la décision optimale sans discrimination malgré qu'aucun attribut sensible n'a été utilisé. Dans ce travail, nous explorons une nouvelles méthodes pour l'identification de la discrimination dans les décisions de systèmes intelligents sans avoir accès aux attributs sensibles. Nous commençons par explorer les métriques de mesures de discrimination utilisés communément et nous identifions leurs lacunes. Par la suite, étant donné ces lacunes, nous explorons de nouvelles méthodes émergeantes basés sur la causalité permettant de palier à celles-ci. Ensuite, nous étudions la possibilité d'utiliser des attributs corrélés avec les attributs sensibles manquants comme le nom et le prénom pour retrouver les attributs sensibles. Par la suite, nous explorons les méthodes de mesure d'incertitude dans les nouveaux algorithmes en IA afin d'évaluer à quel point nous pouvons être certain de la mesure de discrimination lors de l'utilisation d'attributs non protégés corrélés avec les attributs sensibles. Enfin, nous présentons notre méthode sur la discrimination raciale en utilisant le nom et de prénom comme proxy pour l'ethnicité et nous réalisons des tests à partir de données synthétiques. / New algorithms in artificial intelligence offer an opportunity to improve the speed and efficiency of decision-making. These are certainly beneficial, when they allow to take into account more criteria than a human could consider and to make more decisions more quickly than a human could. However, the use of poorly designed decision algorithms has a major social effect. Indeed, these algorithms can learn to base their decisions on socially unacceptable criteria such as race, gender, ethnic origin, or sexual orientation, and thus formalize and propagate the discriminations of the past. In such cases, the impact of these algorithms is to reinforce and propagate on a large scale economic, social and opportunity inequalities between the various communities that make up our society. One might think that it is easy to examine the recommendation rules of an algorithm to check which criteria are considered. However, this is not the case : many AI algorithms, such as deep neural networks, are "black boxes" that deliver results in ways that humans cannot understand. Moreover, discrimination on an unacceptable criterion does not need to explicitly consider this criterion in its decision factors, but can be achieved by using only acceptable or even innocuous factors, but which are correlated to the unacceptable criterion. So whenever intelligent systems are used, we find ourselves wondering if the system will make the optimal decision without discrimination despite the fact that no sensitive attribute has been used. In this work, we explore a new method for the identification of discrimination in decisions of intelligent systems without having access to sensitive attributes. We begin by exploring commonly used discrimination measurement metrics and identifying their shortcomings. Subsequently, given these shortcomings, we explore new emerging methods based on causality to overcome them. Then, we study the possibility of using attributes correlated with the missing sensitive attributes like the name and the first name to find the sensitive attributes. Subsequently, we explore methods for measuring uncertainty in new AI algorithms in order to assess how certain we can be of the discrimination measure when using unprotected attributes correlated with sensitive attributes. Finally, we present our method on racial discrimination using surname and first name as a proxy for ethnicity and we perform tests using synthetic data.
44

Création d'un modèle in vitro de peau psoriasique innervée en trois dimensions par génie tissulaire pour étudier le rôle de l'innervation sensorielle dans le psoriasis

Pépin, Rémy 09 September 2024 (has links)
Le psoriasis est une maladie inflammatoire chronique de la peau impliquant l'apparition de lésions persistantes plus ou moins étendues sur le corps du malade qui affecte 2-3% de la population mondiale. Il est suggéré que la prolifération épidermique pathologique psoriasique est due à l'inflammation dans les lésions. Or, il a été montré que l'élimination des terminaisons nerveuses dans les lésions psoriasiques entraîne une disparition des lésions psoriasiques chez les patients par un mécanisme inconnu. Nous avons par conséquent posé l'hypothèse que les nerfs sensitifs ont la capacité d'induire le phénotype psoriasique par la sécrétion de neuropeptides suite à un stress. Pour répondre à cette hypothèse, nous avons développé, par génie tissulaire, un modèle de peau psoriasique issue de cellules cutanées de participants atteints de psoriasiques ou issue de participants sains auquel fut ajouté des neurones sensitifs murins. Nous avons observé que, de base, le modèle de peau psoriasique présente une prolifération et une épaisseur épidermique accrues par rapport au modèle de peau saine. De plus, lorsque traité avec du CGRP, un neuropeptide libéré par les neurones sensoriels, la prolifération des kératinocytes est accrue dans le modèle de peau psoriasique, mais pas dans le modèle de peau de saine. De surcroît, lorsque les réseaux nerveux sensoriels des modèles de peaux sont traités avec de la capsaïcine pour induire la libération de neuropeptides, une augmentation de la prolifération des kératinocytes dans le modèle de peau psoriasique est observée, mais pas dans le modèle de peau saine. L'implication du CGRP dans la prolifération des kératinocytes a été confirmée par l'ajout d'un antagoniste du CGRP qui a bloqué l'augmentation de la prolifération des kératinocytes dans le modèle de peau psoriasique suite à la stimulation nerveuse. Dans le but de caractériser la représentativité du modèle, nous avons analysé par immunofluorescence les peaux natives lésionnelles psoriasiques comparativement à leur contrepartie non-lésionnelle psoriasique ou des peaux natives saines. Nous avons observé que, selon les biomarqueurs étudiés, - soit filaggrine, loricrine, psoriasine, défensine humaine β-2, kératine 10, élafine, transglutaminase-1, desmogléine-1, kératine-16, CD3 et CD31 - les peaux non-lésionnelles et lésionnelles psoriasiques natives présentent des différences visuelles frappantes comparativement aux peaux saines natives. Cependant, notre modèle de peau psoriasique présente un profil de biomarqueurs unique et nous n'avons observé aucune modulation des biomarqueurs suite à un traitement au CGRP ou suite à la stimulation des réseaux nerveux sensoriels. Ainsi, nous avons montré que les neurones sensoriels peuvent participer directement à l'hyperprolifération des kératinocytes dans la formation de lésions psoriasiques via la libération de CGRP, indépendamment du système immunitaire. Notre modèle unique de peau psoriasique innervée, produit par génie tissulaire, pourrait être un outil novateur pour mieux comprendre le mécanisme par lequel les nerfs peuvent moduler la formation de lésions psoriasiques chez l'humain.
45

Impacts and obstacles of prehospital cardiac arrest continuous insufflation : IOoPRECACI

Groulx, Mathieu 13 December 2023 (has links)
Cette étude a pour objectif d'évaluer l'efficacité de l'insufflation continue d'oxygène (ICO) comme stratégie de ventilation des victimes d'arrêts cardiaques tout en évaluant les perceptions et obstacles du changement de pratique. Une revue systématique a été effectuée afin de synthétiser les données de l'effet de l'ICO sur le taux de retour à la circulation spontanée (RCS) et d'autres issues cliniques lors d'arrêts cardiaques. Des 3540 articles repérés, 16 études dont 12 expérimentations animales et 4 études avec populations humaines ont été incluses. Aucune association définitive entre l'ICO et le RCS, le RCS soutenu ou la survie n'a pu être démontrée. De nouvelles études sont nécessaires pour évaluer l'effet de l'ICO sur les fonctions neurologiques et la perception de la qualité de vie des survivants d'arrêts cardiaques. Un sondage a été réalisé auprès de 244 techniciens ambulanciers paramédics de la région de la Capitale-Nationale afin d'évaluer leur perception sur les gains et obstacles à l'implantation de l'ICO comme stratégie de ventilation pour la prise en charge des arrêts cardiaques non traumatiques en milieu extrahospitalier. L'ICO a permis une approche simplifiée et plus sécuritaire pour les intervenants et les patients comparativement à la ventilation manuelle. La flexion du tube supraglottique et l'imprécision de la capnographie ont été identifiés comme obstacles. / This study aims to assess the effect of continuous flow insufflation of oxygen (CFIO) as the ventilation strategy in cardiac arrest care and to assess perceived impacts and barriers to its implementation. A systematic review was performed to synthetize the evidence on the effect of CFIO on return of spontaneous circulation (ROSC) and other clinical outcomes in cardiac arrest. Of the 3450 citations identified, 16 studies including 12 animal-model of cardiac arrest and 4 studies with human populations were included. No definitive association between CFIO and ROSC, sustained ROSC or survival could be demonstrated. Further studies should assess the effect of CFIO on neurological function and perceived quality of life of cardiac arrest survivors. A survey was carried out among 244 paramedics in "La Capitale-Nationale" region to assess their perception on gains and obstacles to the implementation of CFIO as the ventilation strategy for non-traumatic out-of-hospital cardiac arrest. The use of CFIO allows a simplified approach and was perceived as safer for the patient and the paramedic compared to manual ventilation. The bending of the supraglottic airway and the imprecision of capnography were identified as barriers.
46

Production accélérée de peaux reconstruites de grade clinique à partir de matrices décellularisées pour le traitement des grands brûlés

Demers, Anabelle 05 August 2024 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2022 / La greffe de peau autologue chez les grands brûlés est une technique répandue, mais souvent limitée lorsque le patient présente une petite surface disponible pour le prélèvement des greffons. Les substituts de peaux bilamellaires autoassemblés (PRB) permettent de pallier cette limitation, mais leur production est longue. Le but de cette étude est donc d'optimiser la méthode pour réduire le délai nécessaire avant la première greffe. Pour cela, nous souhaitons développer une technique de décellularisation et d'entreposage de dermes allogéniques produits par autoassemblage. Notre hypothèse est que les PRB produites avec les dermes reconstruits décellularisés (DRD) sont comparables aux PRB préparées avec le protocole du LOEX (Germain et al., 2018) présentement en essai clinique. Nos objectifs sont de trouver les conditions permettant d'éliminer les résidus allogéniques des dermes décellularisés et de les recellulariser de manière à soutenir la différenciation épidermique et la formation de la jonction dermoépidermique. Nous avons déterminé que l'utilisation de deux cycles de choc osmotique avec 0,4 mg/mL de DNAse permet de réduire la quantité résiduelle d'ADN allogénique en dessous de 50ng/mg de tissu sec. L'entreposage d'un mois permet de complémenter cette décellularisation en diminuant la dose de DNAse nécessaire à 0,2mg/mL. En testant différentes populations pour la formation matricielle et densités de fibroblastes pour la recellularisation de DRD, nous avons déterminé que la recellularisation d'une matrice riche en collagène avec une faible densité de fibroblastes (10 000 f/cm$^2$) permet d'obtenir des PRB similaires histologiquement aux PRB standards. Cette recellularisation permet également de regagner les glycosaminoglycanes et l'épaisseur perdues lors de la décellularisation. En conclusion, la méthode de décellularisation utilisée est efficace pour l'atteinte des seuils établis par la littérature et complémentée par l'entreposage des DRD. La recellularisation de ces matrices permet l'obtention de PRB de manière accélérée par rapport à la méthode classique. Le tout est adapté pour une translation clinique. / Autologous skin grafting in burn patients is a widespread technique, but often limited when patients have a small area available for graft harvesting. Self-assembled skin substitutes (SASS) can overcome this limitation, but their production is time consuming. The aim of this study is therefore to optimize the method in order to reduce the time required before the first graft. To this end, we aim to develop a technique for decellularization and storage of allogeneic dermis produced by the self-assembly approach. Our hypothesis is that SASS produced with decellularized reconstructed dermis (DRD) are comparable to autologous SASS prepared with the LOEX protocol(Germain et al., 2018) currently in clinical trial. Our objectives are to find conditions to remove allogeneic residues from decellularized dermis and recellularize it in a way that supports epidermal differentiation and dermal-epidermal junction formation. We determined that the use of two cycles of osmotic shock with 0.4 mg/mL DNAse reduces the residual amount of allogeneic DNA below 50 ng/mg of dry tissue. Storage for one month helps this decellularization by reducing the dose of DNAse required to 0.2 mg/mL. By testing different fibroblast populations and densities for recellularization, we determined that recellularization of a collagen-rich matrix with a low fibroblast density (10 000 f/cm2) yields SASS histologically similar to standard SASS. This recellularization also allows the retrieval of the glycosaminoglycans and thickness lost during decellularization. In conclusion, the decellularization method used is effective in meeting the thresholds established in the literature and is complemented by DRD storage. The recellularization of these matrices allows the obtention of SASS in an accelerated manner compared to the conventional method. This is suitable for clinical translation.
47

Méthodes d'apprentissage de la coordination multiagent : application au transport intelligent

Laumônier, Julien 13 April 2018 (has links)
Les problèmes de prise de décisions séquentielles multiagents sont difficiles à résoudre surtout lorsque les agents n'observent pas parfaitement l'état de Y environnement. Les approches existantes pour résoudre ces problèmes utilisent souvent des approximations de la fonction de valeur ou se basent sur la structure pour simplifier la résolution. Dans cette thèse, nous proposons d'approximer un problème de décisions séquentielles multiagent à observation limitée, modélisé par un processus décisionnel markovien décentralisé (DEC-MDP) en utilisant deux hypothèses sur la structure du problème. La première hypothèse porte sur la structure de comportement optimal et suppose qu'il est possible d'approximer la politique optimale d'un agent en connaissant seulement les actions optimales au niveau d'un petit nombre de situations auxquelles l'agent peut faire face dans son environnement. La seconde hypothèse porte, quant à elle, sur la structure organisationnelle des agents et suppose que plus les agents sont éloignés les uns des autres, moins ils ont besoin de se coordonner. Ces deux hypothèses nous amènent à proposer deux approches d'approximation. La première approche, nommée Supervised Policy Reinforcement Learning, combine l'apprentissage par renforcement et l'apprentissage supervisé pour généraliser la politique optimale d'un agent. La second approche se base, quant à elle, sur la structure organisationnelle des agents pour apprendre une politique multiagent dans des problèmes où l'observation est limitée. Pour cela, nous présentons un modèle, le D O F - D E C - M DP (Distance-Observable Factored Decentralized Markov Décision Process) qui définit une distance d'observation pour les agents. A partir de ce modèle, nous proposons des bornes sur le gain de récompense que permet l'augmentation de la distance d'observation. Les résultats empiriques obtenus sur des problèmes classiques d'apprentissage par renforcement monoagents et multiagents montrent que nos approches d'approximation sont capables d'apprendre des politiques proches de l'optimale. Enfin, nous avons testé nos approches sur un problème de coordination de véhicules en proposant une méthode de synchronisation d'agents via la communication dans un cadre à observation limitée.
48

Contrôle automatique de caméra dans un visualisateur de combats navals en 3 dimensions

Poisson, Mathieu January 2014 (has links)
Ce mémoire présente une solution au problème de contrôle de caméra hors-ligne dans un environnement en trois dimensions où se déroule une bataille navale. D'abord, une introduction du domaine est présentée, le but étant d'établir les fondations sur lesquelles se basera l'ensemble des sections de ce document. Ensuite, une revue de la littérature est effectuée. Le contrôle de la caméra dans le domaine du cinéma est exploré. Diverses techniques de contrôle sont également présentées tout en discutant leur pertinence au problème. Une approche de planification par réseau de tâches hiérarchique est ultimement choisie comme solution. Pour décrire cette solution, la modélisation du planificateur et de ses composantes est d'abord exposée. Par la suite, l'algorithme de planification est présenté. Une architecture de planification et d'exécution, intégrant l'algorithme de planification avec le contrôle bas-niveau de la caméra est aussi proposée. L'implémentation de cette architecture est ensuite discutée et illustrée à l'aide des résultats expérimentaux. La conclusion est suivie par une annexe décrivant les détails de l'implémentation.
49

Planification d'actions concurrentes sous contraintes et incertitude

Beaudry, Éric January 2011 (has links)
Cette thèse présente des contributions dans le domaine de la planification en intelligence artificielle, et ce, plus particulièrement pour une classe de problèmes qui combinent des actions concurrentes (simultanées) et de l'incertitude. Deux formes d'incertitude sont prises en charge, soit sur la durée des actions et sur leurs effets.Cette classe de problèmes est motivée par plusieurs applications réelles dont la robotique mobile, les jeux et les systèmes d'aide à la décision.Cette classe a notamment été identifiée par la NASA pour la planification des activités des rovers déployés sur Mars. Les algorithmes de planification présentés dans cette thèse exploitent une nouvelle représentation compacte d'états afin de réduire significativement l'espace de recherche. Des variables aléatoires continues sont utilisées pour modéliser l'incertitude sur le temps. Un réseau bayésien, qui est généré dynamiquement, modélise les dépendances entre les variables aléatoires et estime la qualité et la probabilité de succès des plans. Un premier planificateur, ACTUP LAN nc basé sur un algorithme de recherche à chaînage avant, prend en charge des actions ayant des durées probabilistes. Ce dernier génère des plans non conditionnels qui satisfont à une contrainte sur la probabilité de succès souhaitée. Un deuxième planificateur, ACTUP LAN, fusionne des plans non conditionnels afin de construire des plans conditionnels plus efficaces. Un troisième planificateur, nommé QUANPLAN, prend également en charge l'incertitude sur les effets des actions. Afin de modéliser l'exécution simultanée d'actions aux effets indéterminés, QUANP LAN s'inspire de la mécanique quantique où des états quantiques sont des superpositions d'états classiques. Un processus décisionnel de Markov (MDP) est utilisé pour générer des plans dans un espace d'états quantiques. L'optimalité, la complétude, ainsi que les limites de ces planificateurs sont discutées. Des comparaisons avec d'autres planificateurs ciblant des classes de problèmes similaires démontrent l'efficacité des méthodes présentées. Enfin, des contributions complémentaires aux domaines des jeux et de la planification de trajectoires sont également présentées.
50

Découverte de règles de classification pour un système d’aide à la décision pour la surveillance de l'usage des antimicrobiens

Beaudoin, Mathieu January 2015 (has links)
L’utilisation inappropriée des antimicrobiens est un problème de taille qui touche jusqu’à 50% des prescriptions chez les patients hospitalisés. Or, la surveillance de l’usage des antimicrobiens à l’échelle d’un hôpital s’avère impossible à effectuer manuellement et requiert l’utilisation d’un système d’aide à la décision. Le système d’aide à la décision APSS - Antimicrobial Prescription Surveillance System - a été développé pour assister le professionnel de la santé dans l’identification des prescriptions inappropriées d’antimicrobiens. Son utilisation a été associée à une amélioration des pratiques de prescription d’antimicrobiens. Cependant, le processus d’acquisition et modélisation de sa connaissance a été long et ardu. Pour pallier cette difficulté, cette thèse présente un module d’apprentissage automatique développé pour permettre à un système comme APSS de découvrir de nouvelles règles de classification de prescriptions à partir des rétroactions de ses utilisateurs. Ce module utilise l’algorithme TIM - Temporal Induction of Classification Models - pour découvrir des règles temporelles de classification pour catégoriser des séquences d’épisodes comme approprié ou inapproprié. Des résultats d’évaluation démontrent la capacité du module à découvrir des règles cliniquement pertinentes pour plusieurs catégories d’alertes de prescriptions inappropriées. Les règles apprises ont mené à des interventions qui ont été manquées par le système de base. Ces règles ont permis d’étendre la connaissance du système de base en identifiant des pratiques de prescription non appuyées par les experts qui n’étaient pas incluses dans sa base de connaissances. Par contre, la combinaison des règles apprises aux règles du système de base a entraîné une augmentation des faux positifs.

Page generated in 0.0619 seconds