• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 4
  • Tagged with
  • 21
  • 21
  • 19
  • 9
  • 9
  • 7
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A case-based reasoning diagnosis system for AHU (Air-Handling Unit)

Zheng, Suoshi January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Une approche CBR textuel de réponse au courrier électronique

Lamontagne, Luc January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
3

Systèmes tutoriels émotionnellement intelligents

Ochs, Magalie January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

IIS : an intelligent interaction system that provides e-service, based on interaction and case-based reasoning

Mhanna, Samir January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
5

HELP : localisation et recommandation d'experts pour le développement d'un système d'aide collaborative

Saleman, Anita January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
6

Modélisation intégratrice du traitement BigData / Integrative modeling of Big Data processing

Hashem, Hadi 19 September 2016 (has links)
Dans le monde d’aujourd’hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l’information qui s’incrémente en temps-réel selon les 3 V de Gartner : en Volume, en Vitesse et en Variabilité. Afin d’exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique au moyen de deux approches : le polymorphisme d’une part, au moyen d’un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d’autre part le support de la volatilité par un modèle intelligent prenant en compte des données clé seulement interprétables à un instant « t », au lieu de traiter toute la volumétrie des données actuelle et historique.L’objectif premier de cette étude est de pouvoir établir au moyen de ces approches une vision intégratrice du cycle de vie des données qui s’établit selon 3 étapes, (1) la synthèse des données via la sélection des valeurs-clés des micro-données acquises par les différents opérateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clés sélectionnées et les dupliquant suivant un aspect de dé-normalisation afin d’obtenir un traitement plus rapide des données et (3) la transformation en un format particulier de carte de cartes de cartes, via Hadoop dans le processus classique de MapReduce afin d’obtenir un graphe défini dans la couche applicative.Cette réflexion est en outre soutenue par un prototype logiciel mettant en oeuvre les opérateurs de modélisation sus-décrits et aboutissant à une boîte à outils de modélisation comparable à un AGL et, permettant une mise en place assistée d'un ou plusieurs traitements sur BigData / Nowadays, multiple actors of Internet technology are producing very large amounts of data. Sensors, social media or e-commerce, all generate real-time extending information based on the 3 Vs of Gartner: Volume, Velocity and Variety. In order to efficiently exploit this data, it is important to keep track of the dynamic aspect of their chronological evolution by means of two main approaches: the polymorphism, a dynamic model able to support type changes every second with a successful processing and second, the support of data volatility by means of an intelligent model taking in consideration key-data, salient and valuable at a specific moment without processing all volumes of history and up to date data.The primary goal of this study is to establish, based on these approaches, an integrative vision of data life cycle set on 3 steps, (1) data synthesis by selecting key-values of micro-data acquired by different data source operators, (2) data fusion by sorting and duplicating the selected key-values based on a de-normalization aspect in order to get a faster processing of data and (3) the data transformation into a specific format of map of maps of maps, via Hadoop in the standard MapReduce process, in order to define the related graph in applicative layer.In addition, this study is supported by a software prototype using the already described modeling tools, as a toolbox compared to an automatic programming software and allowing to create a customized processing chain of BigData
7

QUERI : un système de question-réponse collaboratif et interactif

Merdaoui, Badis January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
8

Modélisation d’un système exploratoire d’aide à l’insulinothérapie chez le sujet âgé diabétique de type 2 / Modeling an exploratory system to develop support tools of insulin therapy in the elderly type 2 diabetic

Sedaghati, Afshan 30 September 2014 (has links)
La mise sous schéma insulinique multi-injections des patients diabétiques âgés est risquée et complexe. L’éventuelle perte d’autonomie induite par le traitement et la variabilité des besoins insuliniques doivent être prises en compte. Dans les protocoles thérapeutiques, le démarrage de l’insulinothérapie se base sur la prescription d’une posologie faible ajustée en fonction de résultats glycémiques. Un temps d’adaptation est donc nécessaire afin de prescrire la dose optimale. Pour ces raisons, cette thèse propose une méthodologie originale pour modéliser l’insulinothérapie chez les sujets âgés diabétiques de type 2 à partir de certaines variables endogènes (cliniques et biologiques) avec deux objectifs : 1. aider les médecins dans la phase de détermination de la prescription insulinique, 2. individualiser le traitement en fonction du profil physiologique du patient. La méthodologie, basée sur la logique floue, a permis l’analyse d’un échantillon de 71 diabétiques âgés de plus de 65 ans. Trois profils types de besoins insuliniques ont été mis en évidence et les variables discriminantes à l’origine de cette typologie ont été identifiées. La méthodologie s’inspirant du raisonnement à base de cas permet d’individualiser le traitement en proposant la dose à prescrire à partir des plus proches cas sélectionnés dans l’échantillon. Ces travaux apportent deux contributions principales : - sur l’insulinothérapie des personnes âgées diabétiques de type 2, - sur la méthodologie originale du traitement numérique des données médicales lors de suivis thérapeutiques. / Starting insulin therapy with daily multi-injections in the elderly type 2 diabetic patients is a difficult challenge. The possible loss of autonomy induced by the treatment and the variability of the insulin needs must be taken into account. In the therapeutic protocols, starting insulin therapy is based on the prescription of low dosage adjusted according to blood glucose results. A time of adjustment is therefore necessary to prescribe the optimal dose.For these reasons, this thesis proposes an original methodology for modeling insulin therapy in elderly subjects with type 2 diabetes from certain biological and clinical endogenous variables with two objectives:1. assist physicians at the stage of determination of insulin prescription, 2. individualize insulin treatment depending on the physiological profile of the patient. The methodology based on fuzzy logic, allowed the analysis of a sample of 71 diabetic patients aged over 65 years. Three profiles types of insulin requirements and the discriminating variables underlying this typology have been identified. Methodology based on case based reasoning allows individualizing the treatment to prescribe insulin dosage from the closest (nearest) cases selected in the sample.Our works provide two main contributions:- on insulin therapy in elderly type 2 diabetic patients, - on the original methodology of the digital process of medical data at therapeutic follow-ups.
9

Étude et modélisation des connaissances et raisonnement de l'apprenant dans un STI

Shiri-Ahmadabadi, Mohammad-Ebrahim January 1999 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
10

Indexation guidée par les connaissances en imagerie médicale

AL SUN, Mohammad Homam 10 January 2012 (has links) (PDF)
Dans ce travail de recherche, nous nous intéressons à l'exploitation des informations médicales pour l'aide à la décision diagnostique. Notre objectif est de définir un système capable de manipuler des données, des informations et des connaissances médicales d'une manière efficace afin de fournir au médecin, à la sortie du système, des informations permettant de faciliter la prise de décision diagnostique. Dans un premier temps, nous abordons les deux phases essentielles dans un système d'aide au diagnostic : la phase de modélisation des connaissances et la phase de raisonnement ou de mécanisme de manipulation de ces connaissances modélisées. Dans le cadre de ce travail, deux modes de raisonnement sont particulièrement considérés : le raisonnement par classification et le raisonnement par similarité. La modélisation des connaissances et le raisonnement sont abordés à la lumière de deux caractéristiques de l'information médicale qui sont : l'hétérogénéité et l'imperfection. Comme cadre général du système proposé, nous avons opté pour l'application de la théorie des possibilités grâce à ses avantages par rapport à d'autres théories de décision en termes de capacités de modélisation et de traitement des informations hétérogènes et imparfaites. En se basant sur cette théorie, nous avons proposé deux modèles possibilistes des connaissances médicales, et pour chaque modèle possibiliste proposé, nous avons discuté les deux types de raisonnement adoptés, par classification et par similarité. Les performances du système d'aide au diagnostic proposé sont évaluées en considérant une application médicale endoscopique comportant deux bases : une base de connaissances constituée d'un ensemble des diagnostics et une base de cas de lésions. Les résultats obtenus sont très intéressants et montrent l'efficacité de la théorie des possibilités comme un cadre de représentation des connaissances médicales et comme outil de raisonnement diagnostique. De plus, l'approche proposée s'est montré très efficace pour l'intégration de plusieurs sources des connaissances, pour la définition de la similarité entre cas et pour l'utilisation l'indice de confiance comme critère de décision (en termes de qualité des informations fournies au médecin).

Page generated in 0.078 seconds