• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 432
  • 85
  • 54
  • 8
  • 3
  • 1
  • 1
  • Tagged with
  • 594
  • 314
  • 138
  • 117
  • 85
  • 74
  • 73
  • 67
  • 63
  • 49
  • 48
  • 47
  • 43
  • 42
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Indigo : une approche multi-stratégique et adaptative pour un alignement sémantique intégrant le contexte des données à apparier

Bououlid Idrissi, Youssef January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
192

Les relations avec les enseignants, la motivation à apprendre et le désir de décrocher : analyse contrastée en fonction du milieu socioéconomique

Bergeron, Julie January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
193

Conception et réalisation d'un consultant basé sur le contexte : application en histopathologie pour la gradation du cancer du sein

Aroua, Anissa 13 June 2014 (has links) (PDF)
Le diagnostic du cancer du sein est une activité humaine qui dépend du contexte dans lequel il est réalisé. Ce contexte se traduit par l'existence de très nombreux éléments qui rend l'automatisation de cette activité impossible. Depuis quelques années, la numérisation des lames (support de raisonnement) a incité les pathologistes à passer à l'analyse d'image de lames à l'écran. Cette migration a offre la possibilité d'une procéduralisation au moins partielle de leurs méthodes d'analyse. Dans le cadre de cette thèse, nous nous sommes intéressés à l'activité d'analyse d'une image de lame par un pathologiste qui est modélisée dans le formalisme des graphes contextuels dans le but de proposer une solution permettant d'assister les pathologistes dans leurs diagnostics. Notre Consultant fait partie des Systèmes d'Assistance Intelligents basés sur le Contexte. L'outil principal du Consultant est basé sur la Simulation à partir de pratiques expertes décrites dans un graphe contextuel. En partant d'une image que le pathologiste doit analyser, le simulateur va développer une pratique qui est la plus adaptée au contexte de travail. Le résultat de la simulation va donc être la pratique résultante et toutes les informations sur la manière dont cette pratique a été obtenue. Le consultant propose alors à l'utilisateur une visualisation des résultats des simulations réalisées permettant de les analyser et de les comparer.
194

Sur le contexte spatial en gestion des fenêtres et interaction homme-machine.

Faure, Guillaume 15 December 2011 (has links) (PDF)
Il est admis depuis quelque temps déjà qu'une interaction, pour être utile et efficace, doit être pensée "en contexte". Cependant ce contexte reste une notion floue regroupant de nombreux concepts la rendant difficile à exploiter lors de la conception de techniques d'interaction. La présente thèse se concentre sur la partie spatiale du Contexte dans le cadre des environnements de bureau et de la gestion des fenêtres.Nous avons tout d'abord conçu et implémenté un ensemble de techniques d'interaction regroupées sous l'ap- pellation PowerTools. Ces interactions ont comme particularité de conserver la disposition des éléments à l'écran et de garder l'interaction localisée autour du point d'attention de l'utilisateur. Deux de ces techniques, DeskPop et StackLeafing s'intéressent plus particulièrement à la navigation entre les fenêtres (et le bureau) pendant une interaction de glisser-déposer. DeskPop permet de révéler et d'interagir avec l'espace du bureau sans pour autant déplacer ou cacher les fenêtres. StackLeafing elle, propose d'utiliser le non-chevauchement des fenêtres pour les regrouper en couches et ainsi pouvoir parcourir l'ensemble des fenêtres plus rapidement que par la simple inspec- tion individuelle. TimeShift pour sa part propose une méthode de déclenchement des historiques de copier-coller et glisser-déposer permettant de conserver l'interaction autour du point d'attention de l'utilisateur. La conception des PowerTools nous a conduit à effectuer trois études plus théoriques portant sur le contexte spatial et qui ont donné lieu à des expériences utilisateurs en laboratoire.La première de ces études considère l'acquisition de cibles surgissantes ou animées où nous faisons varier le délai d'apparition et d'animation. Il s'avère que l'animation ou l'apparition soudaine d'une cible reste très proche au niveau des performances du pointage classique (cible statique toujours affichée) pour des délais d'apparition ou d'animation très court (en dessous de 200 ms). Cependant, le cas non statique conduit à plus d'erreurs et, dès que le délai dépasse 200 ms, on observe des différences de performance avec le cas statique. Ces résultats montrent que des techniques telles que StackLeafing et DeskPop qui conservent les cibles potentielles statiques et visibles possèdent un avantage par rapport aux techniques classiques.La seconde étude porte sur la profondeur en gestion des fenêtres. Elle a pour but de déterminer si l'application d'un effet graphique sur les fenêtres peut aider les utilisateurs à mieux percevoir la profondeur de couches de fenêtres comme utilisé dans la technique StackLeafing. Cette étude compare trois effets, appelés indices visuels de profondeur : ombres, flou, et luminosité. Ces indices sont appliqués à des scènes composées de fenêtres disposées en couches (ensemble de fenêtres ne se recouvrant pas), les indices de flou et de luminosité étant appliqués de manière plus forte pour les couches plus profondes. Les sujets devaient alors déterminer le nombre total de couches de la scène. L'expérience montre que l'indice le plus efficace est la luminosité.Enfin, la conception de TimeShift à également porté à notre attention la difficulté d'intégrer de nouvelles tech- niques d'interaction dans un environnement existant. Dans le cas de l'implémentation des historiques de copier- ou-déplacer, nous avons utilisé des interactions "temporisées". Pour généraliser ces interactions temporelles, nous proposons que l'utilisateur communique avec le système par la reproduction de motifs rythmiques. Nous avons défini un vocabulaire propice à l'interaction homme-machine puis nous avons mené des expériences utilisateurs pour évaluer les capacités de reproduction et de mémorisation d'association de rythmes à des commandes. Les ex- périences montrent que le type d'interaction rythmique que nous proposons est effectivement adapté à l'Interaction Homme-Machine.La proposition de départ de cette thèse était de modifier le moins possible la disposition des éléments affichés et de conserver l'interaction autour du point d'attention de l'utilisateur afin de conserver le contexte et la mémoire spatiale de ce dernier. Nous avons tout d'abord conçu et intégré un ensemble de techniques dans un environnement réel. Puis, nous avons élaboré et mené des expériences en laboratoire afin de mieux comprendre les implications des choix de conception.
195

Adaptation d'architectures logicielles collaboratives dans les environnements ubiquitaires. Contribution à l'interopérabilité par la sémantique

Sancho, German 07 December 2010 (has links) (PDF)
Ce travail de thèse explore la conception d'applications collaboratives destinées a être exécutées dans des environnements ubiquitaires. Les applications collaboratives fournissent des moyens pour que des utilisateurs organisés dans des groupes puissent coopérer afin d'effectuer une tâche commune. Jusqu'à présent, ces applications ont été conçues pour une utilisation avec des systèmes de type "bureau". Dans ce travail nous proposons de faire profiter ces applications des possibilités offertes par les environnements issus de l'informatique ubiquitaire, notamment la sensibilité au contexte et l'adaptation. En premier lieu, un modèle sémantique de la collaboration, appelé GCO, est proposé afin de permettre l'expression des besoins de collaboration indépendamment du domaine d'application. Ce modèle est une ontologie de la collaboration incorporant des règles permettant d'effectuer d'inférences pour déduire un schéma de déploiement à partir des besoins de collaboration. En deuxième lieu, une approche de modélisation est proposée afin de faciliter la conception d'applications collaboratives ubiquitaires. Cette approche se base sur une décomposition multi-niveau permettant la mise en Suvre d'une adaptation de l'architecture du système aux changements du contexte haut niveau (exigences de l'application) et bas niveau (contraintes liées aux ressources). Ensuite, le framework FACUS, qui est une implantation de l'approche utilisant GCO comme modèle pivot pour l'interopérabilité entre les exigences et les contraintes, est proposé. Enfin, FACUS est évalué tant du point de vue fonctionnel que de celui des performances, montrant la faisabilité de notre approche.
196

Analyse des pointeurs pour le langage C

Mensi, Amira 24 June 2013 (has links) (PDF)
Les analyses statiques ont pour but de déterminer les propriétés des programmes au moment de la compilation. Contrairement aux analyses dynamiques, le comportement exact du programme ne peut être connu. Par conséquent, on a recours à des approximations pour remédier à ce manque d'information. Malgré ces approximations, les analyses statiques permettent des optimisations et des transformations efficaces pour améliorer les performances des programmes. Parmi les premières analyses du processus d'optimisation figure l'analyse des pointeurs. Son but est d'analyser statiquement un programme en entrée et de fournir en résultat une approximation des emplacements mémoire vers lesquels pointent ses variables pointeurs. Cette analyse est considérée comme l'une des analyses de programmes les plus délicates et l'information qu'elle apporte est très précieuse pour un grand nombre d'autres analyses clientes. En effet, son résultat est nécessaire à d'autres optimisations, comme la propagation de constante, l'élimination du code inutile, le renommage des scalaires ainsi que la parallélisation automatique des programmes. L'analyse des pointeurs est très nécessaire pour l'exploitation du parallélisme présent dans les applications scientifiques écrites en C. Ceci est dû au fait que les tableaux, très présents dans ce type d'applications, sont accédés via les pointeurs. Il devient nécessaire d'analyser les dépendances entre les éléments de tableau dans le but de paralléliser les boucles. Le langage C présente beaucoup de difficultés lors de son analyse par la liberté qu'il offre aux utilisateurs pour gérer et manipuler la mémoire par le biais des pointeurs. Ces difficultés apparaissent par exemple lors de l'accès aux tableaux par pointeurs, l'allocation dynamique (via "malloc") ainsi que les structures de données récursives. L'un des objectifs principaux de cette thèse est de déterminer les emplacements mémoire vers lesquels les pointeurs pointent. Ceci se fait en assurant plusieurs dimensions comme : - la sensibilité au flot de contrôle, c'est-à-dire la mise à jour des informations d'un point programme à un autre ; - la non-sensibilité au contexte, c'est-à-dire l'utilisation de résumés au lieu de l'analyse du corps de la fonction à chaque appel ; - la modélisation des champs pointeurs des structures de données agrégées, dans laquelle chaque champ représente un emplacement mémoire distinct. D'autres aspects sont pris en compte lors de l'analyse des programmes écrits en C comme la précision des emplacements mémoire alloués au niveau du tas, l'arithmétique sur pointeurs ou encore les pointeurs vers tableaux. Notre travail permet l'amélioration des résultats des analyses clientes et en particulier il permet la parallélisation des boucles lorsqu'on accède aux éléments de tableaux via les pointeurs, la détection de code inutile ou le calcul du graphe de dépendances. Il est implémenté dans le compilateur parallélliseur PIPS (Parallélisation Interprocédurale de Programmes Scientifiques) et permet d'analyser, en particulier, les applications scientifiques de traitement du signal tout en assurant une analyse intraprocédurale précise et une analyse interprocédurale efficace via les résumés.
197

Extraction de lexiques bilingues à partir de corpus comparables

Hazem, Amir 11 October 2013 (has links) (PDF)
La plupart des travaux en acquisition de lexiques bilingues à partir de corpus comparables reposent sur l'hypothèse distributionnelle qui a été étendue au scénario bilingue. Deux mots ont de fortes chances d'être en relation de traduction s'ils apparaissent dans les mêmes contextes lexicaux. Ce postulat suppose donc une définition claire et rigoureuse du contexte et une connaissance parfaite des indices contextuels. Or, la complexité et les spécificités de chaque langue font qu'il n'est pas aisé d'énoncer une telle définition qui garantisse une extraction de couples de traductions, efficace dans tous les cas de figure. Toute la difficulté réside dans la manière de définir, d'extraire et de comparer ces contextes dans le but de construire des lexiques bilingues fiables. Nous nous efforcerons tout au long des différents chapitres de cette thèse à essayer de mieux comprendre cette notion de contexte, pour ensuite l'étendre et l'adapter afin d'améliorer la qualité des lexiques bilingues. Une première partie des contributions vise à améliorer l'approche directe qui fait office de référence dans la communauté. Nous proposerons plusieurs manières d'aborder le contexte des mots pour mieux les caractériser. Dans la deuxième partie des contributions, nous commencerons par présenter une approche qui vise à améliorer l'approche par similarité inter-langue. Ensuite, une méthode nommée Q-Align, directement inspirée des systèmes de question/réponse sera présentée. Enfin, nous présenterons plusieurs transformations mathématiques et donc plusieurs représentations vectorielles, pour nous concentrer essentiellement sur celles que nous aurons choisi pour développer une nouvelle méthode d'alignement.
198

Localisation interne et en contexte des logiciels commerciaux et libres

Fraisse, Amel 10 June 2010 (has links) (PDF)
Nous proposons une méthode novatrice pour permettre la localisation en contexte de la majorité des logiciels commerciaux et libres, ceux programmés en Java et en C++/C#. Actuellement, la traduction des documents techniques ainsi que celle des éléments d'interface des logiciels commerciaux est confiée uniquement à des professionnels, ce qui allonge le processus de traduction, le rend coûteux, et quelquefois aboutit à une mauvaise qualité car les traducteurs professionnels n'ont pas accès au contexte d'utilisation des éléments textuels. Dès que l'on sort du petit ensemble des quelques langues les mieux dotées, et que lon veut localiser un logiciel pour des " langues peu dotées ", ce processus n'est plus viable pour des raisons de coût et surtout de rareté, de cherté, ou d'absence de traducteurs professionnels. Notre méthode consiste à faire participer de façon efficace et dynamique les bêta-testeurs et les utilisateurs finals au processus de localisation : pendant qu'ils utilisent l'application, les utilisateurs connaissant la langue originale du logiciel (souvent mais pas toujours l'anglais) peuvent intervenir sur les éléments textuels d'interface que l'application leur présente dans leur contexte d'utilisation courant. Ils peuvent ainsi traduire en contexte les boutons, les menus, les étiquettes, les onglets, etc., ou améliorer la traduction proposée par des systèmes de traduction automatique (TA) ou des mémoires de traductions (MT). Afin de mettre en place ce nouveau paradigme, nous avons besoin d'intervenir très localement sur le code source du logiciel : il s'agit donc aussi d'un paradigme de localisation interne. La mise en place d'une telle approche de localisation a nécessité l'intégration d'un gestionnaire de flot de traductions " SECTra_w ". Ainsi, nous avons un nouveau processus de localisation tripartite dont les trois parties sont l'utilisateur, l'éditeur du logiciel et le site collaboratif SECTra_w. Nous avons effectué une expérimentation complète du nouveau processus de localisation sur deux logiciels libres à code source ouvert : Notepad-plus-plus et Vuze.
199

Personnalisation et Adaptation de L'accès à L'information Contextuelle en utilisant un Assistant Intelligent

Asfari, Ounas 19 September 2011 (has links) (PDF)
L'accès à une information pertinente, adaptée aux besoins et au contexte de l'utilisateur est un challenge dans un environnement Internet, caractérisé par une prolifération de ressources hétérogènes. Les travaux présentés dans cette thèse rentrent dans le cadre de la Recherche d'Information (RI) et s'intéressent à la prise en compte du contexte de l'utilisateur pendant la phase de requête. Nous proposons un assistant d'aide à la reformulation de requêtes reposant sur l'utilisation d'une méthode hybride d'expansion de requêtes afin de fournir des résultats personnalisés en fonction du contexte. Cet assistant utilise le profil de l'utilisateur, qui contient les centres d'intérêts et les préférences des utilisateurs, et utilise également le contexte de l'utilisateur qui considère l'état actuel de la tâche courante de l'utilisateur pendant le processus de recherche. Une implémentation de cette approche est réalisée, suivie d'une étude expérimentale. Nous proposons également une procédure d'évaluation qui tient compte l'évaluation des termes d'expansion, générés par notre système de reformulation de requêtes, et de l'évaluation des résultats retournés en utilisant les requêtes reformulées SRQ. Nous montrons sur plusieurs scénarios que notre approche, en particulier celle qui prend en compte la tâche actuelle de l'utilisateur est effectivement plus performante que les approches reposant soit uniquement sur la requête initiale, ou encore sur la requête reformulée en considérant uniquement le profil de l'utilisateur.
200

Personnalisation d'analyses décisionnelles sur des données multidimensionnelles

Jerbi, Houssem 20 January 2012 (has links) (PDF)
Le travail présenté dans cette thèse aborde la problématique de la personnalisation des analyses OLAP au sein des bases de données multidimensionnelles. Une analyse OLAP est modélisée par un graphe dont les noeuds représentent les contextes d'analyse et les arcs traduisent les opérations de l'utilisateur. Le contexte d'analyse regroupe la requête et le résultat. Il est décrit par un arbre spécifique qui est indépendant des structures de visualisation des données et des langages de requête. Par ailleurs, nous proposons un modèle de préférences utilisateur exprimées sur le schéma multidimensionnel et sur les valeurs. Chaque préférence est associée à un contexte d'analyse particulier. En nous basant sur ces modèles, nous proposons un cadre générique comportant deux mécanismes de personnalisation. Le premier mécanisme est la personnalisation de requête. Il permet d'enrichir la requête utilisateur à l'aide des préférences correspondantes afin de générer un résultat qui satisfait au mieux aux besoins de l'usager. Le deuxième mécanisme de personnalisation est la recommandation de requêtes qui permet d'assister l'utilisateur tout au long de son exploration des données OLAP. Trois scénarios de recommandation sont définis : l'assistance à la formulation de requête, la proposition de la prochaine requête et la suggestion de requêtes alternatives. Ces recommandations sont construites progressivement à l'aide des préférences de l'utilisateur. Afin valider nos différentes contributions, nous avons développé un prototype qui intègre les mécanismes de personnalisation et de recommandation de requête proposés. Nous présentons les résultats d'expérimentations montrant la performance et l'efficacité de nos approches. Mots-clés: OLAP, analyse décisionnelle, personnalisation de requête, système de recommandation, préférence utilisateur, contexte d'analyse, appariement d'arbres de contexte.

Page generated in 0.055 seconds