• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 3
  • Tagged with
  • 18
  • 18
  • 18
  • 8
  • 8
  • 7
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Une approche CBR textuel de réponse au courrier électronique

Lamontagne, Luc January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
2

Systèmes tutoriels émotionnellement intelligents

Ochs, Magalie January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

IIS : an intelligent interaction system that provides e-service, based on interaction and case-based reasoning

Mhanna, Samir January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

HELP : localisation et recommandation d'experts pour le développement d'un système d'aide collaborative

Saleman, Anita January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
5

Modélisation intégratrice du traitement BigData / Integrative modeling of Big Data processing

Hashem, Hadi 19 September 2016 (has links)
Dans le monde d’aujourd’hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l’information qui s’incrémente en temps-réel selon les 3 V de Gartner : en Volume, en Vitesse et en Variabilité. Afin d’exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique au moyen de deux approches : le polymorphisme d’une part, au moyen d’un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d’autre part le support de la volatilité par un modèle intelligent prenant en compte des données clé seulement interprétables à un instant « t », au lieu de traiter toute la volumétrie des données actuelle et historique.L’objectif premier de cette étude est de pouvoir établir au moyen de ces approches une vision intégratrice du cycle de vie des données qui s’établit selon 3 étapes, (1) la synthèse des données via la sélection des valeurs-clés des micro-données acquises par les différents opérateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clés sélectionnées et les dupliquant suivant un aspect de dé-normalisation afin d’obtenir un traitement plus rapide des données et (3) la transformation en un format particulier de carte de cartes de cartes, via Hadoop dans le processus classique de MapReduce afin d’obtenir un graphe défini dans la couche applicative.Cette réflexion est en outre soutenue par un prototype logiciel mettant en oeuvre les opérateurs de modélisation sus-décrits et aboutissant à une boîte à outils de modélisation comparable à un AGL et, permettant une mise en place assistée d'un ou plusieurs traitements sur BigData / Nowadays, multiple actors of Internet technology are producing very large amounts of data. Sensors, social media or e-commerce, all generate real-time extending information based on the 3 Vs of Gartner: Volume, Velocity and Variety. In order to efficiently exploit this data, it is important to keep track of the dynamic aspect of their chronological evolution by means of two main approaches: the polymorphism, a dynamic model able to support type changes every second with a successful processing and second, the support of data volatility by means of an intelligent model taking in consideration key-data, salient and valuable at a specific moment without processing all volumes of history and up to date data.The primary goal of this study is to establish, based on these approaches, an integrative vision of data life cycle set on 3 steps, (1) data synthesis by selecting key-values of micro-data acquired by different data source operators, (2) data fusion by sorting and duplicating the selected key-values based on a de-normalization aspect in order to get a faster processing of data and (3) the data transformation into a specific format of map of maps of maps, via Hadoop in the standard MapReduce process, in order to define the related graph in applicative layer.In addition, this study is supported by a software prototype using the already described modeling tools, as a toolbox compared to an automatic programming software and allowing to create a customized processing chain of BigData
6

QUERI : un système de question-réponse collaboratif et interactif

Merdaoui, Badis January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
7

Indexation guidée par les connaissances en imagerie médicale

AL SUN, Mohammad Homam 10 January 2012 (has links) (PDF)
Dans ce travail de recherche, nous nous intéressons à l'exploitation des informations médicales pour l'aide à la décision diagnostique. Notre objectif est de définir un système capable de manipuler des données, des informations et des connaissances médicales d'une manière efficace afin de fournir au médecin, à la sortie du système, des informations permettant de faciliter la prise de décision diagnostique. Dans un premier temps, nous abordons les deux phases essentielles dans un système d'aide au diagnostic : la phase de modélisation des connaissances et la phase de raisonnement ou de mécanisme de manipulation de ces connaissances modélisées. Dans le cadre de ce travail, deux modes de raisonnement sont particulièrement considérés : le raisonnement par classification et le raisonnement par similarité. La modélisation des connaissances et le raisonnement sont abordés à la lumière de deux caractéristiques de l'information médicale qui sont : l'hétérogénéité et l'imperfection. Comme cadre général du système proposé, nous avons opté pour l'application de la théorie des possibilités grâce à ses avantages par rapport à d'autres théories de décision en termes de capacités de modélisation et de traitement des informations hétérogènes et imparfaites. En se basant sur cette théorie, nous avons proposé deux modèles possibilistes des connaissances médicales, et pour chaque modèle possibiliste proposé, nous avons discuté les deux types de raisonnement adoptés, par classification et par similarité. Les performances du système d'aide au diagnostic proposé sont évaluées en considérant une application médicale endoscopique comportant deux bases : une base de connaissances constituée d'un ensemble des diagnostics et une base de cas de lésions. Les résultats obtenus sont très intéressants et montrent l'efficacité de la théorie des possibilités comme un cadre de représentation des connaissances médicales et comme outil de raisonnement diagnostique. De plus, l'approche proposée s'est montré très efficace pour l'intégration de plusieurs sources des connaissances, pour la définition de la similarité entre cas et pour l'utilisation l'indice de confiance comme critère de décision (en termes de qualité des informations fournies au médecin).
8

Influence des facteurs émotionnels sur la résistance au changement dans les organisations

Menezes, Ilusca Lima Lopes de January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
9

An intelligent help system to support teachers to author learning sessions in decision-making in network design

Rodríguez, Arnoldo January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
10

Proposition d’une approche d’apprentissage de la foule au sein des plateformes Crowdsourcing (Cas d’une plateforme de Backlinks) / Designing a learning approach for the crowd on Crowdsourcing platforms (Case of Backlinks platform)

Gouia, Mouna 29 November 2013 (has links)
Cette thèse se situe dans un axe novateur de recherches en ingénierie et en management des systèmes d’information, elle articule à la fois les aspects de quatre domaines de recherche issus de l’Informatique, des Sciences des Systèmes d’information et des Sciences Humaines et des aspects pratiques liées aux entreprises du Web 2.0. Le «Crowdsourcing», comme son nom l’indique, désigne l’approvisionnement par la foule; Les études et les recherches sur cette thèse se font rares mais celles qui existent confirment l’intérêt managérial des plateformes de Crowdsourcing, grâce à leur rôle incontestable dans la création de valeur. Néanmoins, la foule est composée de groupe d’amateurs hétérogènes, c’est pour cela qu’elle représente aussi une source d’incompétence. Dans ce cadre, notre hypothèse opérationnelle pose que l’apprentissage de la foule stimule la création de valeur dans les plateformes Crowdsourcing. Ainsi, notre travail est, principalement organisé autour de la conception et l’élaboration d’un outil pour l’apprentissage de la foule au sein des plateformes de Crowdsourcing. Ce travail est de nature complexe et relève à la fois d’un travail de recherche et d’une pratique d’ingénierie. C’est pour cela que nous optons pour une démarche constructiviste exploratoire de type qualitative moyennant la méthode de recherche ingénierique qui vise à définir et à concevoir une approche d’apprentissage adaptée aux plateformes de Crowdsourcing et à l’implémenter par la suite au sein d’une plateforme Crowdsourcing de test spécialisée dans les Backlinks. Des expérimentations basées sur des entretiens semi-directifs viendront, à la fin de ce travail, confirmer ou infirmer nos hypothèses. / This thesis is situated in an innovative line of research in engineering and management information systems, it articulates both the aspects of four disciplines of research in the Computer Science, Information Systems, Human Sciences and practical aspects related to Web 2.0 companies. The "Crowdsourcing" as its name suggests, refers to the sourcing by the crowd, studies and research on this topic are infrequent but those that exist confirm the managerial interest of Crowdsourcing platforms, thanks to their undeniable role in value creation. Nevertheless, the crowd is composed of heterogeneous group of amateurs that is why it is also a source of incompetence. Our operating hypothesis posits that learning the crowd stimulates the creation of value in the Crowdsourcing platforms. Thus, our work is mainly organized around the design and development of a tool for learning the crowd in Crowdsourcing platforms. This work is complex and involves both a research work and practical engineering. That is why we choose an exploratory qualitative constructivist approach and an ingénierique research method to define and develop a suitable approach of learning adapted to the Crowdsourcing platforms and implement it thereafter within our test Crowdsourcing platform specializes in Backlinking. Experiments based on semi-structured interviews will, confirm or deny our hypotheses.

Page generated in 0.1372 seconds