Spelling suggestions: "subject:"informatique décisionnelle"" "subject:"informatique décisionnelles""
1 |
Elaboration, validation et application de la grille de critères de persuasion interactive / Development, validation and application of the criteria grid for interactive persuasionNemery, Alexandra 19 January 2012 (has links)
Les concepteurs d'interfaces ont un besoin sans cesse évoluant d'influencer les utilisateurs. Dans n'importe quel domaine, de la vente à l'écologie en passant par l'éducation, les interfaces se font de plus en plus intelligentes, adaptatives et interactives afin d'inciter les individus à modifier leur attitude, voire leur comportement. Si l'inspection ergonomique et l'utilisabilité sont depuis longtemps prises en compte durant les phases d'évaluation ou de conception d'un produit, il s'avère que la dimension persuasive des technologies n'est pas encore reconnue. Or, elle fait partie intégrante de l?expérience utilisateur. Face à l'absence d'outil validé dans ce domaine, une grille de critères a été créée à ce besoin. Suite à la revue de cent soixante-quatre articles portant sur le domaine de la captologie, une grille de huit critères a été élaborée. Une expérience basée sur une tâche d'identification d'éléments dits persuasifs dans quinze interfaces a été mise en place auprès de 30 experts en ergonomie. L'utilisation de la grille a montré qu'elle aidait les experts à identifier 78,8% des éléments persuasifs présents. Avec un score de Kappa de 0.76, un accord inter-juge fort a été démontré. Suite à cette validation en laboratoire, une expérience réelle visant à montrer son opérationnalisation et à tester son efficacité sur le terrain a été menée. Appliquée dans le cadre d'un sondage entreprise en ligne annuel, la grille de critères a permis de passer de 25% à 41% de répondants sur une population de 897 salariés. Enfin, un travail d'aménagement de deux outils a permis d'élaborer une réflexion sur les éléments de la persuasion interactive propres à l'informatique décisionnelle / Interface designer have a constant need to influence users. In any field, interfaces are more and more smart, adaptive and interactive in order to encourage people to change. If ergonomic inspection and usability has long been considered to be a part of the evaluation phase or product design process, persuasive technology has not yet been taken into account. Faced with the lack of validated tool in this area, a set of criteria was elaborated. Following the review of 164 articles on the captology field, a grid of eight criteria was proposed. Following various pre-test and its stabilization, this list of criteria was tested with 30 experts in ergonomics to proceed to its validation. Experience-based identification task called persuasive elements in interfaces; 15 have been chosen. The use of the grid showed that it helped the experts identify 78.8% of persuasive elements. With a Kappa score of 0.76, a strong inter-judges agreement has been demonstrated. Following this validation in the laboratory, a real experience test to prove its effectiveness in the field has also been conducted. Applied in the context of an online survey company, annual use of the criteria increased the number of respondents from 25% to 41% in a population of 897 employees. Finally, intelligence has specific features to the world of professional software
|
2 |
Elaboration, validation et application de la grille de critères de persuasion interactiveAlexandra, Nemery 19 January 2012 (has links) (PDF)
Les concepteurs d'interfaces ont un besoin sans cesse évoluant d'influencer les utilisateurs. Dans n'importe quel domaine, de la vente à l'écologie en passant par l'éducation, les interfaces se font de plus en plus intelligentes, adaptatives et interactives afin d'inciter les individus à modifier leur attitude, voire leur comportement. Si l'inspection ergonomique et l'utilisabilité sont depuis longtemps prises en compte durant les phases d'évaluation ou de conception d'un produit, il s'avère que la dimension persuasive des technologies n'est pas encore reconnue. Or, cet aspect d'influence dans les médias représente un champ émergent ayant déjà fait ses preuves au cours de nombreuses recherches dans des domaines variés. Il fait partie intégrante de l'expérience utilisateur. Face à l'absence d'outil validé dans ce domaine, une grille de critères a été créée pour répondre à ce besoin des concepteurs, des évaluateurs mais également des utilisateurs. Suite à la revue de cent soixante quatre articles portant sur le domaine de la captologie, une grille de huit critères a été élaborée comprenant : crédibilité, privacité, personnalisation, attractivité, sollicitation, accompagnement initial, engagement et emprise. Cette grille dégage également vingt-trois sous-critères. Elle distingue la dimension statique, soit l'ensemble des qualités qu'une interface devrait posséder pour être propice à la mise en place d'une boucle dite engageante, aussi appelée dimension dynamique. Cette grille a suivi une méthode inductive et est basée sur un processus de conception itératif prenant en compte l'avis d'experts en IHM et en ergonomie. Suite à différents pré-tests et à sa stabilisation, cet outil a été testé auprès de trente experts en ergonomie afin de procéder à sa validation. Une expérience basée sur une tâche d'identification d'éléments dits persuasifs dans quinze interfaces a été mise en place. L'utilisation de la grille a montré qu'elle aidait les experts à identifier 78,8% des éléments persuasifs présents. Avec un score de Kappa de 0.76, un accord inter-juge fort a été démontré. Suite à cette validation en laboratoire, une expérience réelle visant à montrer son opérationnalisation et à tester son efficacité sur le terrain a été menée. Après un premier usage comme outil d'évaluation, la grille a été utilisée comme aide à la conception d'interfaces plus influentes. Appliquée dans le cadre d'un sondage entreprise en ligne annuel, la grille de critères a permis de passer de 25% à 41% de répondants sur une population de 897 salariés. Enfin, l'application de cet outil dans le domaine de l'informatique décisionnelle et des progiciels de gestion intégrée présente des spécificités. Un travail d'aménagement de deux outils a permis d'élaborer une réflexion sur les éléments de la persuasion interactive propres à l'informatique décisionnelle.
|
3 |
Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques / Machine Learning for Simplifying the Use of Cardiac Image DatabasesMargeta, Ján 14 December 2015 (has links)
L'explosion récente de données d'imagerie cardiaque a été phénoménale. L'utilisation intelligente des grandes bases de données annotées pourrait constituer une aide précieuse au diagnostic et à la planification de thérapie. En plus des défis inhérents à la grande taille de ces banques de données, elles sont difficilement utilisables en l'état. Les données ne sont pas structurées, le contenu des images est variable et mal indexé, et les métadonnées ne sont pas standardisées. L'objectif de cette thèse est donc le traitement, l'analyse et l'interprétation automatique de ces bases de données afin de faciliter leur utilisation par les spécialistes de cardiologie. Dans ce but, la thèse explore les outils d'apprentissage automatique supervisé, ce qui aide à exploiter ces grandes quantités d'images cardiaques et trouver de meilleures représentations. Tout d'abord, la visualisation et l'interprétation d'images est améliorée en développant une méthode de reconnaissance automatique des plans d'acquisition couramment utilisés en imagerie cardiaque. La méthode se base sur l'apprentissage par forêts aléatoires et par réseaux de neurones à convolution, en utilisant des larges banques d'images, où des types de vues cardiaques sont préalablement établies. La thèse s'attache dans un deuxième temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une étape clé de ce processus. A cet effet une méthode basée sur les forêts aléatoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposée. En troisième partie, l'apprentissage supervisé de sémantique cardiaque est enrichi grâce à une méthode de collecte en ligne d'annotations d'usagers. Enfin, la dernière partie utilise l'apprentissage automatique basé sur les forêts aléatoires pour cartographier des banques d'images cardiaques, tout en établissant les notions de distance et de voisinage d'images. Une application est proposée afin de retrouver dans une banque de données, les images les plus similaires à celle d'un nouveau patient. / The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images.
|
4 |
Conception et génération dynamique de tableaux de bord d’apprentissage contextuels / Design and dynamic generation of contextual Learning Analytics dashboardsDabbebi, Ines 11 October 2019 (has links)
Ce travail s’inscrit dans une problématique générale de l’analytique de l’apprentissage numérique et particulièrement dans le contexte du projet ANR HUBBLE, un observatoire national permettant le dépôt de processus d’analyse de haut niveau. Nous nous intéressons principalement à la communication des données d’analyse aux utilisateurs en mettant à leur disposition des tableaux de bord d'apprentissage (TBA). Notre problématique porte sur l’identification de structures génériques dans le but de générer dynamiquement des TBA sur mesure. Ces structures doivent être à la fois génériques et adaptables aux besoins d’utilisateurs. Les travaux existants proposent le plus souvent des TBA trop généraux ou développés de manière adhoc. Au travers du projet HUBBLE, nous souhaitons exploiter les décisions des utilisateurs pour générer dynamiquement des TBA. Nous nous sommes intéressés au domaine de l’informatique décisionnelle en raison de la place des tableaux de bord dans leur processus. La prise de décision exige une compréhension explicite des besoins des utilisateurs. C'est pourquoi nous avons adopté une approche de conception centrée sur l'utilisateur dans le but de lui fournir des TBA adaptés. Nous proposons aussi un processus de capture des besoins qui a permis l’élaboration de nos modèles (indicateur, moyens de visualisation, utilisateur, …). Ces derniers sont utilisés par un processus de génération implémenté dans un prototype de générateur dynamique. Nous avons procédé à une phase d'évaluation itérative dont l’objectif est d'affiner nos modèles et de valider l'efficacité de notre processus de génération ainsi que de démontrer l'impact de la décision sur la génération des TBA. / This work is part of a broader issue of Learning Analytics (LA). It is particularly carried out within the context of the HUBBLE project, a national observatory for the design and sharing of data analysis processes. We are interested in communicating data analysis results to users by providing LA dashboards (LAD). Our main issue is the identification of generic LAD structures in order to generate dynamically tailored LAD. These structures must be generic to ensure their reuse, and adaptable to users’ needs. Existing works proposed LAD which remains too general or developed in an adhoc way. According to the HUBBLE project, we want to use identified decisions of end-users to generate dynamically our LAD. We were interested in the business intelligence area because of the place of dashboards in the decision-making process. Decision-making requires an explicit understanding of user needs. That's why we have adopted a user-centered design (UCD) approach to generate adapted LAD. We propose a new process for capturing end-users’ needs, in order to elaborate some models (Indicator, visualization means, user, pattern, …). These models are used by a generation process implemented in a LAD dynamic generator prototype. We conducted an iterative evaluation phase. The objective is to refine our models and validate the efficiency of our generation process. The second iteration demonstrates the impact of the decision on the LAD generation. Thus, we can confirm that the decision is considered as a central element for the generation of LADs.
|
5 |
Analyse de l’image de marque sur le Web 2.0 / Analyse of entities representation over the Web 2.0Cossu, Jean-Valère 16 December 2015 (has links)
Image sur le web : analyse de la dynamique des images sur le Web 2.0. En plus d’être un moyen d’accès à la connaissance, Internet est devenu en quelques années un lieu privilégié pour l’apparition et la diffusion d’opinions.Chaque jour, des millions d’individus publient leurs avis sur le Web 2.0 (réseaux sociaux, blogs, etc.). Ces commentaires portent sur des sujets aussi variés que l’actualité, la politique, les résultats sportifs, biens culturels, des objets de consommation, etc. L’amoncellement et l’agglomération de ces avis publiés sur une entité (qu’il s’agisse d’un produit, une entreprise ou une personnalité publique)donnent naissance à l’image de marque de cette entité.L’image d’une entité est ici comprise comme l’idée qu’une personne ou qu’un groupe de personnes se fait de cette entité. Cette idée porte a priori sur un sujet particulier et n’est valable que dans un contexte, à un instant donné.Cette image perçue est par nature différente de celle que l’entité souhaitait initialement diffuser (par exemple via une campagne de communication). De plus,dans la réalité, il existe au final plusieurs images qui cohabitent en parallèle sur le réseau, chacune propre à une communauté et toutes évoluant différemment au fil du temps (imaginons comment serait perçu dans chaque camp le rapprochement de deux hommes politiques de bords opposés). Enfin, en plus des polémiques volontairement provoquées par le comportement de certaines entités en vue d’attirer l’attention sur elles (pensons aux tenues ou déclarations choquantes), il arrive également que la diffusion d’une image dépasse le cadre qui la régissait et même parfois se retourne contre l’entité (par exemple, «le mariage pour tous» devenu « la manif pour tous »). Les opinions exprimées constituent alors autant d’indices permettant de comprendre la logique de construction et d’évolution de ces images. Ce travail d’analyse est jusqu’à présent confié à des spécialistes de l’e-communication qui monnaient leur subjectivité. Ces derniers ne peuvent considérer qu’un volume restreint d’information et ne sont que rarement d’accord entre eux. Dans cette thèse, nous proposons d’utiliser différentes méthodes automatiques, statistiques, supervisées et d’une faible complexité permettant d’analyser et représenter l’image de marque d’entité à partir de contenus textuels les mentionnant. Plus spécifiquement, nous cherchons à identifier les contenus(ainsi que leurs auteurs) qui sont les plus préjudiciables à l’image de marque d’une entité. Nous introduisons un processus d’optimisation automatique de ces méthodes automatiques permettant d’enrichir les données en utilisant un retour de pertinence simulé (sans qu’aucune action de la part de l’entité concernée ne soit nécessaire). Nous comparer également plusieurs approches de contextualisation de messages courts à partir de méthodes de recherche d’information et de résumé automatique. Nous tirons également parti d’algorithmes de modélisation(tels que la Régression des moindres carrés partiels), dans le cadre d’une modélisation conceptuelle de l’image de marque, pour améliorer nos systèmes automatiques de catégorisation de documents textuels. Ces méthodes de modélisation et notamment les représentations des corrélations entre les différents concepts que nous manipulons nous permettent de représenter d’une part, le contexte thématique d’une requête de l’entité et d’autre, le contexte général de son image de marque. Nous expérimentons l’utilisation et la combinaison de différentes sources d’information générales représentant les grands types d’information auxquels nous sommes confrontés sur internet : de long les contenus objectifs rédigés à des informatives, les contenus brefs générés par les utilisateurs visant à partager des opinions. Nous évaluons nos approches en utilisant deux collections de données, la première est celle constituée dans le cadre du projet Imagiweb, la seconde est la collection de référence sur le sujet : CLEFRepLab / Analyse of entities representation over the Web 2.0Every day, millions of people publish their views on Web 2.0 (social networks,blogs, etc.). These comments focus on subjects as diverse as news, politics,sports scores, consumer objects, etc. The accumulation and agglomerationof these notices on an entity (be it a product, a company or a public entity) givebirth to the brand image of that entity. Internet has become in recent years aprivileged place for the emergence and dissemination of opinions and puttingWeb 2.0 at the head of observatories of opinions. The latter being a means ofaccessing the knowledge of the opinion of the world population.The image is here understood as the idea that a person or a group of peopleis that entity. This idea carries a priori on a particular subject and is onlyvalid in context for a given time. This perceived image is different from theentity initially wanted to broadcast (eg via a communication campaign). Moreover,in reality, there are several images in the end living together in parallel onthe network, each specific to a community and all evolve differently over time(imagine how would be perceived in each camp together two politicians edgesopposite). Finally, in addition to the controversy caused by the voluntary behaviorof some entities to attract attention (think of the declarations required orshocking). It also happens that the dissemination of an image beyond the frameworkthat governed the and sometimes turns against the entity (for example,« marriage for all » became « the demonstration for all »). The views expressedthen are so many clues to understand the logic of construction and evolution ofthese images. The aim is to be able to know what we are talking about and howwe talk with filigree opportunity to know who is speaking.viiIn this thesis we propose to use several simple supervised statistical automaticmethods to monitor entity’s online reputation based on textual contentsmentioning it. More precisely we look the most important contents and theirsauthors (from a reputation manager point-of-view). We introduce an optimizationprocess allowing us to enrich the data using a simulated relevance feedback(without any human involvement). We also compare content contextualizationmethod using information retrieval and automatic summarization methods.Wealso propose a reflection and a new approach to model online reputation, improveand evaluate reputation monitoring methods using Partial Least SquaresPath Modelling (PLS-PM). In designing the system, we wanted to address localand global context of the reputation. That is to say the features can explain thedecision and the correlation betweens topics and reputation. The goal of ourwork was to propose a different way to combine usual methods and featuresthat may render reputation monitoring systems more accurate than the existingones. We evaluate and compare our systems using state of the art frameworks: Imagiweb and RepLab. The performances of our proposals are comparableto the state of the art. In addition, the fact that we provide reputation modelsmake our methods even more attractive for reputation manager or scientistsfrom various fields.
|
Page generated in 0.0858 seconds