• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 4
  • Tagged with
  • 17
  • 17
  • 10
  • 8
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modèles de mélange pour la classification non supervisée de données qualitatives et mixtes / Model-based clustering for categorical and mixed data sets

Marbac-Lourdelle, Matthieu 23 September 2014 (has links)
Cette thèse propose une contribution originale pour la classification non supervisée de données qualitatives ou de données mixtes. Les approches proposées sont à base de modèles probabilistes ayant pour but de modéliser la distribution des données observées. Dans les cas de données qualitatives ou mixtes, il est d'usage de supposer l'indépendance entre les variables conditionnellement à la classe. Cependant, cette approche s'avère biaisée lorsque l'hypothèse d'indépendance conditionnelle est erronée. L'objet de cette thèse est d'étudier et de proposer des modèles relâchant l'hypothèse d'indépendance conditionnelle. Ceux-ci doivent permettre de résumer chaque classe par quelques paramètres significatifs. La première partie de cette thèse porte sur la classification non supervisée de données qualitatives. Lorsque ces données sont corrélées au sein des classes, le statisticien est confronté à de nombreux problèmes combinatoires (grand nombre de paramètres et choix de modèle complexe). Notre approche consiste à relâcher l'hypothèse d'indépendance conditionnelle en regroupant les variables en blocs conditionnellement indépendants. Cette méthode nous amène à présenter deux modèles probabilistes. Ceux-ci définissent la distribution d'un bloc de manière à limiter le nombre de paramètres du modèle tout en fournissant un modèle facilement interprétable. Le premier modélise la distribution d'un bloc de variables par le mélange des deux distributions de dépendances extrêmes tandis que le second modèle utilise une distribution multinomiale par modes. La seconde partie de cette thèse porte sur la classification non supervisée de données mixtes. La difficulté spécifique à de telle données est due à l'absence de distribution de référence pour le cas de variables de différentes natures. Ainsi, on souhaite définir un modèle probabiliste respectant les deux contraintes suivantes. Tout d'abord, les distributions marginales de chacune des composantes doivent être des distributions classiques afin de faciliter l'interprétation du modèle. De plus, le modèle doit permettre de caractériser les dépendances intra-classes par quelques paramètres significatifs. Ce cahier des charges nous amène naturellement à utiliser la théorie des copules. Ainsi, nous proposons un modèle de mélange de copules gaussiennes que nous considérons comme la contribution majeure de cette thèse. Pour ce modèle, nous effectuons une inférence bayésienne à partir d'un échantillonneur de Gibbs. Les critères d'information classiques (BIC, ICL), nous permettent de répondre aux problématiques de choix de modèles. / This work is our contribution to the cluster analysis of categorical and mixed data. The methods proposed in this manuscript modelize the data distribution in a probabilistic framework. When the data are categorical or mixed, the classical model assumes the independence between the variables conditionally on class. However, this approach is biased when the variables are intra-class correlated. The aim of this thesis is to study and to present some mixture models which relax the conditional independence assumption. Moreover, they have to summarize each class with few characteristic parameters. The first part of this manuscript is devoted to the cluster analysis of categorical data. The categorical variables are difficult to cluster since they leave the statistician facing with many combinatorial challenges. In this context, our contribution consists in two parsimonious mixture models which allow to cluster categorical data presenting intra-class dependencies. The main idea of these models is to group the variables into conditionally independent blocks. By setting specific distributions for these blocks, both models consider the intra-classdependencies between the variables. The first approach modelizes the block distribution by a mixture of two extreme dependency distributions while the second approach modelizes it by a multinomial distribution per modes. The study of the cluster analysis of mixed data sets is the second objective of this work. The challenge is due to the lack of classical distributions for mixed variables. Thus, we defined a probabilistic model respecting two main constraints. Firstly, the one-dimensional margin distributions of the components are classical for each variables. Secondly, the model characterizes the main intra-class dependencies. This model is defined as a mixture of Gaussian copulas. The Bayesian inference is performed via a Gibbs sampler. The classical information criteria (BIC, ICL) permit to perform the model selection.
2

Techniques d'interaction avec un espace de données temporelles

Daassi, Chaouki 16 July 2003 (has links) (PDF)
Les données temporelles sont fréquemment manipulées dans plusieurs domaines d'application (bancaire, clinique, géographique, etc.). Malgré la diversité des techniques proposées pour visualiser ce type de données, nous constatons un manque d'approches et de méthodes de conception. Dans cette thèse, nous proposons une approche de conception de techniques de visualisation et plus généralement d'interaction avec des espaces de données temporelles. Pour garantir l'utilisabilité de ces techniques, nous proposons de prendre en compte les caractéristiques des données manipulées et les tâches utilisateur, nous situant ainsi à la jonction de deux domaines de l'informatique : les Bases de Données et les Interfaces Homme-Machine. Ce travail contribue donc à la conception de systèmes interactifs pour l'analyse visuelle de données temporelles. Dans ce contexte, nous proposons une taxonomie qui organise les travaux existants de visualisation de données temporelles selon leur processus de visualisation. Cette taxonomie est construite à partir du processus de visualisation proposé par Chi. En collaboration avec des utilisateurs géographes, nous avons identifié une liste de tâches utilisateur pertinentes pour la manipulation de données temporelles. A partir de cette liste, nous avons conçu et implémenté cinq techniques d'interaction adaptées aux tâches identifiées. Nous avons intégré ces techniques pour développer INVEST (Interactive Visualization and Explorative System of Temporal data) qui est une plate-forme multi-techniques pour l'analyse visuelle de données temporelles. Chaque technique de visualisation est une vue du même espace de données. INVEST inclut un moteur de sélection de techniques de visualisation en fonction des tâches utilisateur spécifiées.
3

Projet sur le graphisme et l'ergonomie dans la création de produits multimédias : visualisation de l'information

Schieber, Guillaume January 2008 (has links) (PDF)
Je souhaite pouvoir explorer le graphisme, l'ergonomie et la visualisation de l'information dans la création de produits multimédias et partager mon expérience et le résultat de ces recherches, avec les interacteurs qui utiliseront cette oeuvre. Mais je veux aussi leur offrir une possibilité d'expression afin d'améliorer, par la suite, ma propre expérience sur ces sujets. Pour que cela soit possible, j'ai développé deux aspects distincts: ma recherche personnelle avec le moyen de la mettre à disposition pour exprimer mon besoin de création, et les procédés pertinents pour y intégrer une participation créatrice de l'interacteur. De ce fait, cette oeuvre est produite comme un outil, utile et attirant pour l'interacteur, qui intègre un système de collecte de l'information. « Tracks31 », se découpe donc en deux parties: Un outil Internet et un jeu « exploratoire » ou ludoéducatif. Au travers de ce document, je vais définir ces deux aspects du projet et bien d'autres éléments s'y rattachant. Pour résumer simplement ce qu'est tracks31, voici les phrases qui définissent l'oeuvre en elle-même et qui se retrouvent sur son site, ww.tracks31.com : « Träcks31 » est un outil simple pour créer, sauvegarder et partager vos navigations sur Internet. Vous pouvez démarrer une session de navigation maintenant, ou explorer celles qui existent et suivre les traces d'un utilisateur de « träcks31 ». Si vous voulez garder un historique de vos sessions de navigations, ou les modifier, vous pouvez créer ou utiliser un compte. « Träcks31 » est aussi une base de données universitaire pour la recherche sur les interfaces multimédias et la visualisation de l'information. Ces informations sont recueillies au travers d'une interface, qui vous permet de vous tester en jouant une session « träcks31 ». ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Ergonomie, Visualisation de l'information, Internet, Multimédia, Graphisme, Outil, Web 2.0, Exploration, Ludoéducatif, Tracks31, Session de navigation, Jeu, Création, Échange, Captation de données, Gestion de données, Architecture de l'information, Interfaces, Recherche.
4

Saisir l’économie par le(s) sens: Une approche critique et sorcière de la visualisation de données économiques par le design

Sabatier, Fabrice 15 November 2021 (has links) (PDF)
La recherche interroge, par la création de projets de design et par une thèse écrite, le rôle et le pouvoir de la visualisation de données dans l’approche des problématiques économiques. Dans cette étude critique et théorique, je me demande d’abord en quoi les visualisations de données qui construisent des accès aux informations et aux questionnements économiques façonnent des représentations et des comportements singuliers. Je fais l’hypothèse que les « technologies intellectuelles » (Goody) qui rendent visibles ces données – les diagrammes, les réseaux, les cartes – ont construit depuis le début du XIXe siècle, une vision particulièrement étroite, désincarnée et dépolitisante de l’économie. Cependant, le design dispose de moyens favorisant, dans certaines conditions, la réappropriation des sujets économiques par les non-expert·e·s. Il s’agit alors de comprendre, en étudiant l’évolution de ses méthodes, la nature du régime contemporain de visualisation des phénomènes économiques, que je qualifie de néolibéral, et d’explorer ensuite les espaces d’intervention du design où des alternatives peuvent se déployer.Dans un second temps, au-delà de décrire, de comprendre ou de faire comprendre des phénomènes économiques, il m’a semblé que le rôle du design dans la visualisation de données était d’opérer des actes de « saisie » : saisir les données et les phénomènes, sur le plan cognitif, pour les comprendre ; mais aussi saisir les phénomènes économiques, dans leur sens, leur signification et leur raison d’être, le sens de l’économie et les objectifs qu’elle poursuit ; enfin, saisir par les sens, sur le plan sensoriel et sensible, en nous rappelant qu’au-delà de l’œil et de la vue, c’est le corps tout entier qui peut opérer la saisie. Ne parvenant pas à saisir l’économie, en me concentrant sur la performance cognitive ou communicationnelle des visualisations de données, l’hypothèse d’une « emprise sorcière » (Stengers et Pignarre), s’est alors imposée comme un terrain d’expérimentation fécond et comme une clé de lecture précieuse pour positionner, dans mon travail, l’imagination, les corps, les sens, les représentations mentales en tant qu’éléments essentiels pour penser l’économie. La magie qui habite nos rapports à l’économie m’oriente d’abord vers le pouvoir de rendre visible l’invisible, que détiennent les visualisations de données, et m’amène à questionner leur puissance liée à leur nature d’image. J’esquisse ensuite, avec la magie des liens (Bruno), une théorie de la visualisation comme pouvoir de relier et introduit la méthode des microcosmogrammes. Enfin, avec la sorcellerie, c’est la capacité à rendre tangible l’impalpable qui est examinée et confrontée au concept de désorcèlement (Favret-Saada), d’où j’extrais des principes méthodologiques et un questionnement sur la figure de la ou du designer-désorceleur. / Through the creation of design projects and a written thesis, the research questions the role and power of data visualisation in the approach to economic issues. In this critical and theoretical study, I first wonder how data visualisations that construct access to economic information and issues, shape specific representations and behaviours. I hypothesise that the 'intellectual technologies' (Goody) that make these data visible – charts, diagrams, networks, maps – have built a particularly narrow, disembodied and depoliticising view of the economy since the early nineteenth century. However, under certain conditions, design has the means to encourage the reappropriation of economic subjects by non-experts. I try to understand, by studying the evolution of its methods, the nature of the contemporary regime of visualisation of economic phenomena, which I describe as neoliberal. I then explore the design spaces where alternatives can be deployed.Secondly, beyond describing, understanding or making economic phenomena understood, it seemed to me that the role of design in data visualisation was to allow to grasp: to grasp data and phenomena, on a cognitive level, in order to understand them; but also to grasp economic phenomena, in their meaning, their significance and their raison d'être, the meaning of the economy and the objectives it pursues; finally, to grasp through the senses, on a sensory and sensitive level, reminding us that beyond the eye and the sight, it is the whole body that can carry out the grasping. As I was unable to grasp the economy by focusing on the cognitive or communicative performance of data visualisations, the hypothesis of a 'sorcerer's capture' (Stengers and Pignarre), became a fertile field of experimentation and as a precious key to understanding. It has allowed to position, in my work, imagination, bodies, senses and mental representations as essential elements for thinking about the economy. Firstly, with the magic that inhabits our relationship to the economy, I focus on the power of data visualisations to make the invisible visible, and then I question their power linked to their nature as images. Then, with the magical bondings (Bruno), I sketch a theory of visualisation as a power to bind and introduce the method of microcosmograms. Finally, with witchcraft, it is the capacity to touch the impalpable that is examined and confronted with the concept of unbewitching (Favret-Saada), from which I extract methodological principles and a questioning of the figure of the designer-unbewitcher. / Doctorat en Art et Sciences de l'Art / info:eu-repo/semantics/nonPublished
5

Analyse et visualisation de trajectoires de soins par l’exploitation de données massives hospitalières pour la pharmacovigilance / Analysis and visualization of care trajectories by using hospital big data for pharmacovigilance

Ledieu, Thibault 19 October 2018 (has links)
Le phénomène de massification des données de santé constitue une opportunité de répondre aux questions des vigilances et de qualité des soins. Dans les travaux effectués au cours de cette thèse, nous présenterons des approches permettant d’exploiter la richesse et le volume des données intra hospitalières pour des cas d’usage de pharmacovigilance et de surveillance de bon usage du médicament. Cette approche reposera sur la modélisation de trajectoires de soins intra hospitalières adaptées aux besoins spécifiques de la pharmacovigilance. Il s’agira, à partir des données d’un entrepôt hospitalier de caractériser les événements d’intérêt et d’identifier un lien entre l’administration de ces produits de santé et l’apparition des effets indésirables, ou encore de rechercher les cas de mésusage du médicament. L’hypothèse posée dans cette thèse est qu’une approche visuelle interactive serait adaptée pour l’exploitation de ces données biomédicales hétérogènes et multi-domaines dans le champ de la pharmacovigilance. Nous avons développé deux prototypes permettant la visualisation et l’analyse des trajectoires de soins. Le premier prototype est un outil de visualisation du dossier patient sous forme de frise chronologique. La deuxième application est un outil de visualisation et fouille d’une cohorte de séquences d’événements. Ce dernier outil repose sur la mise en œuvre d’algorithme d’analyse de séquences (Smith-Waterman, Apriori, GSP) pour la recherche de similarité ou de motifs d’événements récurrents. Ces interfaces homme-machine ont fait l’objet d’études d’utilisabilité sur des cas d’usage tirées de la pratique réelle qui ont prouvé leur potentiel pour un usage en routine. / The massification of health data is an opportunity to answer questions about vigilance and quality of care. The emergence of big data in health is an opportunity to answer questions about vigilance and quality of care. In this thesis work, we will present approaches to exploit the diversity and volume of intra-hospital data for pharmacovigilance use and monitoring the proper use of drugs. This approach will be based on the modelling of intra-hospital care trajectories adapted to the specific needs of pharmacovigilance. Using data from a hospital warehouse, it will be necessary to characterize events of interest and identify a link between the administration of these health products and the occurrence of adverse reactions, or to look for cases of misuse of the drug. The hypothesis put forward in this thesis is that an interactive visual approach would be suitable for the exploitation of these heterogeneous and multi-domain biomedical data in the field of pharmacovigilance. We have developed two prototypes allowing the visualization and analysis of care trajectories. The first prototype is a tool for visualizing the patient file in the form of a timeline. The second application is a tool for visualizing and searching a cohort of event sequences The latter tool is based on the implementation of sequence analysis algorithms (Smith-Waterman, Apriori, GSP) for the search for similarity or patterns of recurring events. These human-machine interfaces have been the subject of usability studies on use cases from actual practice that have proven their potential for routine use.
6

Enrichissement des Modèles de Classification de Textes Représentés par des Concepts / Improving text-classification models using the bag-of-concept paradigm

Risch, Jean-Charles 27 June 2017 (has links)
La majorité des méthodes de classification de textes utilisent le paradigme du sac de mots pour représenter les textes. Pourtant cette technique pose différents problèmes sémantiques : certains mots sont polysémiques, d'autres peuvent être des synonymes et être malgré tout différenciés, d'autres encore sont liés sémantiquement sans que cela soit pris en compte et enfin, certains mots perdent leur sens s'ils sont extraits de leur groupe nominal. Pour pallier ces problèmes, certaines méthodes ne représentent plus les textes par des mots mais par des concepts extraits d'une ontologie de domaine, intégrant ainsi la notion de sens au modèle. Les modèles intégrant la représentation des textes par des concepts restent peu utilisés à cause des résultats peu satisfaisants. Afin d'améliorer les performances de ces modèles, plusieurs méthodes ont été proposées pour enrichir les caractéristiques des textes à l'aide de nouveaux concepts extraits de bases de connaissances. Mes travaux donnent suite à ces approches en proposant une étape d'enrichissement des modèles à l'aide d'une ontologie de domaine associée. J'ai proposé deux mesures permettant d'estimer l'appartenance aux catégories de ces nouveaux concepts. A l'aide de l'algorithme du classifieur naïf Bayésien, j'ai testé et comparé mes contributions sur le corpus de textes labéllisés Ohsumed et l'ontologie de domaine Disease Ontology. Les résultats satisfaisants m'ont amené à analyser plus précisément le rôle des relations sémantiques dans l'enrichissement des modèles. Ces nouveaux travaux ont été le sujet d'une seconde expérience où il est question d'évaluer les apports des relations hiérarchiques d'hyperonymie et d'hyponymie. / Most of text-classification methods use the ``bag of words” paradigm to represent texts. However Bloahdom and Hortho have identified four limits to this representation: (1) some words are polysemics, (2) others can be synonyms and yet differentiated in the analysis, (3) some words are strongly semantically linked without being taken into account in the representation as such and (4) certain words lose their meaning if they are extracted from their nominal group. To overcome these problems, some methods no longer represent texts with words but with concepts extracted from a domain ontology (Bag of Concept), integrating the notion of meaning into the model. Models integrating the bag of concepts remain less used because of the unsatisfactory results, thus several methods have been proposed to enrich text features using new concepts extracted from knowledge bases. My work follows these approaches by proposing a model-enrichment step using a domain ontology, I proposed two measures to estimate to belong to the categories of these new concepts. Using the naive Bayes classifier algorithm, I tested and compared my contributions on the Ohsumed corpus using the domain ontology ``Disease Ontology”. The satisfactory results led me to analyse more precisely the role of semantic relations in the enrichment step. These new works have been the subject of a second experiment in which we evaluate the contributions of the hierarchical relations of hypernymy and hyponymy.
7

TEMPOS : une plate-forme pour le développement d'applications temporelles au dessus de SGBD à objets

Dumas Menjivar, Marlon 26 June 2000 (has links) (PDF)
Les données temporelles sont présentes dans de nombreuses applications utilisant des Systèmes de Gestion de Bases de Données (SGBD). Aussi, la plupart de ces systèmes offrent des types correspondant aux concepts de date et de durée, grâce auxquels il est possible de modéliser des associations temporelles simples, comme par exemple la date de naissance ou l'âge d'une personne. Toutefois, à quelques nuances près, aucun de ces systèmes n'offre des abstractions dédiées à la modélisation d'associations temporelles plus complexes, telles que l'historique du salaire d'un employé, ou la séquence d'annotations attachées à une vidéo. Dès lors, ces associations doivent être codées au travers de constructeurs de type tels que ''liste'' et ''n-uplet'', et la sémantique de ce codage doit être intégrée dans la logique des programmes applicatifs, accroissant par là leur complexité. Pour combler ces lacunes, des extensions dites ''temporelles'' de modèles et de langages pour Bases de Données ont été proposées. Cette thèse analyse et unifie les contributions de ces travaux, dans le but de les intégrer dans une extension temporelle du standard pour SGBD à objets de l'ODMG. Le résultat est une plate-forme logicielle baptisée TEMPOS, fondée sur trois modèles de sophistication croissante : un modèle du temps, un modèle d'historiques et un modèle d'objets et de propriétés temporels. Ce dernier fournit des fonctionnalités facilitant la transformation de bases de données conformes à l'ODMG en des bases de données temporelles. à partir de ces trois modèles, des extensions des langages de spécification de schéma et d'interrogation de l'ODMG sont définies. Enfin, un outil de visualisation basé sur un nouveau paradigme de navigation interactive au travers d'objets temporels est développé. L'ensemble des propositions sont formalisées, implantées au dessus d'un SGBD commercial, et validées par des études de cas.
8

De l'apprentissage artificiel pour l'apprentissage humain : de la récolte de traces à la modélisation utilisateur

Damez-Fontaine, Marc 18 September 2008 (has links) (PDF)
Les interactions entre l'homme et l'ordinateur peuvent être étudiées sous plusieurs angles : certaines analyses s'attachent à décrire le comportement humain utilisant des outils informatiques, d'autres cherchent à optimiser l'ergonomie de l'interface, et enfin, d'autres cherchent à améliorer l'interactivité entre l'utilisateur et l'immense quantité d'informations véhiculées par le dispositif numérique. Après avoir récapitulé l'ensemble des propriétés nécessaires à la conception d'un système générique de récolte de données issues directement de l'interaction homme-machine, nous présentons des méthodes de visualisations de ces données permettant la mise à jour de propriétés utiles ainsi que des exemples d'analyses automatiques par des méthodes algorithmiques. Nous proposons un nouveau formalisme générique de récolte de données provenant des interactions homme-machine. Ce modèle permet toutes les modélisations et l'application de toutes les méthodes évoquées précédemment. Nous présentons également des outils d'analyses, qui permettent la reconnaissance automatique de caractéristiques de comportements des utilisateurs, ainsi qu'un outil de visualisation de ces données qui permettent la remise en contexte de l'action de l'utilisateur ainsi que la comparaison de l'activité de plusieurs individus sur une ou plusieurs interfaces. Deux algorithmes sont introduits pour faciliter la lecture de la visualisation. Ces travaux doivent s'appliquer dans un contexte scolaire et quelques théories pédagogiques élaborées par les psychologues cognitivistes spécialisés ce domaine ont été étudiées. Une plateforme permettant l'implémentation de méthodes d'apprentissage artificiel décrit les modalités d'application pour adapter automatiquement l'interaction et fournir une aide personnalisée. Des méthodes algorithmiques d'apprentissage artificiel sont également détaillées suivant une typologie des méthodes de traitement des données. Deux analyses effectuées sur des données récoltées lors d'expériences que nous avons menées, ont permis d'élaborer des méthodes de personnalisations automatiques de l'interaction homme-machine pour l'enseignement.
9

Connaissance et optimisation de la prise en charge des patients : la science des réseaux appliquée aux parcours de soins / Understanding and optimization of patient care and services : networks science applied to healthcare pathways

Jaffré, Marc-Olivier 26 October 2018 (has links)
En France, la nécessaire rationalisation des moyens alloués aux hôpitaux a abouti à une concentration des ressources et une augmentation de la complexité des plateaux techniques. Leur pilotage et leur répartition territoriale s’avèrent d’autant plus difficile, soulevant ainsi la problématique de l’optimisation des systèmes de soins. L’utilisation des données massives produites pas ces systèmes pourrait constituer une nouvelle approche en matière d’analyse et d’aide à la décision. Méthode : A partir d’une réflexion sur la notion de performance, différentes approches d’optimisation préexistantes sont d’abord mis en évidence. Le bloc opératoire a été choisi en tant que terrain expérimental. Suit une analyse sur une fusion d’établissements en tant qu’exemple d’une approche d’optimisation par massification.Ces deux étapes permettent de défendre une approche alternative qui associe l’usage de données massives, la science des réseaux et la visualisation des données sous forme cartographique. Deux sets de séjours en chirurgie orthopédique sur la région ex-Midi-Pyrénées sont utilisés. L’enchainement des séjours de soins est considéré en tant en réseau de données. L’ensemble est projeté dans un environnement visuel développé en JavaScript et permettant une fouille dynamique du graphe. Résultats : La possibilité de visualiser des parcours de santé sous forme de graphes NŒUDS-LIENS est démontrée. Les graphes apportent une perception supplémentaire sur les enchainements de séjours et les redondances des parcours. Le caractère dynamique des graphes permet en outre leur fouille. L’approche visuelle subjective est complétée par une série de mesures objectives issues de la science des réseaux. Les plateaux techniques de soins produisent des données massives utiles à leur analyse et potentiellement à leur optimisation. La visualisation graphique de ces données associées à un cadre d’analyse tel que la science des réseaux donne des premiers indicateurs positifs avec notamment la mise en évidence de motifs redondants. La poursuite d’expérimentations à plus large échelle est requise pour valider, renforcer et diffuser ces observations et cette méthode. / In France, the streamlining of means assigned hospitals result in concentration of resources ana growing complexily of heallhcare facilities. Piloting and planning (them turn out to be all the more difficult, thus leading of optimjzation problems. The use of massive data produced by these systems in association with network science an alternative approach for analyzing and improving decision-making support jn healthcare. Method : Various preexisting optimisation are first highblighted based on observations in operating theaters chosen as experirnentai sites. An analysis of merger of two hospitlas also follows as an example of an optimization method by massification. These two steps make it possible to defend an alternative approach that combines the use of big data science of networks data visualization techniques. Two sets of patient data in orthopedic surgery in the ex-Midi-Pyrénées region in France are used to create a network of all sequences of care. The whole is displayed in a visual environment developed in JavaScript allowing a dynamic mining of the graph. Results: Visualizing healthcare sequences in the form of nodes and links graphs has been sel out. The graphs provide an additional perception of' the redundancies of he healthcare pathways. The dynamic character of the graphs also allows their direct rnining. The initial visual approach is supplernented by a series of objcctive measures from the science of networks. Conciusion: Healthcare facilities produce massive data valuable for their analysis and optimization. Data visualizalion together with a framework such as network science gives prelimiaary encouraging indicators uncovering redondant healthcare pathway patterns. Furthev experimentations with various and larger sets of data is required to validate and strengthen these observations and methods.
10

Une approche basée sur le web sémantique pour l'étude de trajectoires de vie / A semantic web based approach to study life trajectories

Noel, David 17 June 2019 (has links)
La notion de trajectoire fait l'objet de nombreux travaux en informatique. La trajectoire de vie a plusieurs particularités qui la distinguent des trajectoires habituellement considérées dans ces travaux. C'est d'abord son emprise temporelle, qui est celle de la vie, de l'existence du sujet observé. C'est ensuite son emprise thématique, celle-ci pouvant potentiellement concerner de multiples aspects de la vie d'un objet ou d'un individu. C'est enfin, l'utilisation métaphorique du terme de trajectoire, qui renvoie davantage au sens de la trajectoire qu'à la description d'une simple évolution dans le temps et l'espace. La trajectoire de vie est utilisée par l'expert (sociologue, urbaniste...) qui souhaite mettre en perspective dans le temps les informations sur les individus pour mieux les comprendre. Les motivations d'étude de la trajectoire de vie sont différentes selon les cas d'application et les thématiques considérées : le rapport au travail, la vie familiale, la vie sociale, la santé, la trajectoire résidentielle...Nous proposons une approche d'étude des trajectoires de vie, basée sur le Web Sémantique, qui en permet la modélisation, la collecte et l'analyse. Cette approche est concrétisée par une architecture logicielle. Cette architecture repose sur un patron de conception d'ontologie de trajectoire de vie, ainsi que sur un modèle de facteurs explicatifs d'évènements de vie. Pour la modélisation,nous avons conçu des algorithmes qui permettent la création d'une ontologie de trajectoire de vie en exploitant le patron et le modèle précédents. Pour lacollecte de données, nous avons développé des APIs permettant de faciliter i)la construction d'une interface de collecte de données conforme aux modéles ;ii) l'insertion des données collectées dans un Triple Store. Notre approche permet la représentation, et, par suite, la collecte et l'exploitation d'informations multi-granulaires, qu'elles soient spatiales, temporelles ou thématiques.Enfin, pour permettre l'analyse des trajectoires, nous proposons des fonctions génériques, implémentées en étendant le langage SPARQL. L'approche méthodologique et les outils proposés sont validés sur un cas d'application visant à étudier les choix résidentiels d'individus en mettant en exergue les caractéristiques de leur trajectoire résidentielle et les éléments explicatifs de celle-ci. / The notion of trajectory is the subject of many works in computer science. The life trajectory has several peculiarities which distinguish it from the trajectories usually considered in these works. It is first of all its temporal hold, which is the life, the existence of the observed subject. It is then its thematic hold, this one potentially concerning multiple aspects of the life of an object or an individual. Finally, it is the metaphorical use of the term trajectory, which refers more to the meaning of the trajectory than to the description of a simple evolution in time and space. The life trajectory is used by the expert (sociologist, urban planner ...) who wishes to put in perspective the information on individuals to better understand their choices. The motivations for studying the life trajectory are depending on the application and themes considered: the relation to work and employment, family life, social life, health, residential trajectory ...We propose a Semantic Web based approach to study life trajectories, which allows their modeling, collection and analysis. This approach is embodied by a software architecture whose components are configurable for each application case. This architecture is based on a life trajectory ontology design pattern, as well as a model of explanatory factors for life events. To operationalize the proposed modeling, we designed algorithms that allow the creation of a life trajectory ontology by exploiting the previous pattern and model. For data collection, we developed APIs to facilitate i) the construction of a model-compliant data collection interface; and ii) the insertion of the collected data into a Triple Store. Our approach allows the representation, and hence the collection and exploitation of multi-granular information, whether spatial, temporal or thematic. Finally, to allow the analysis of the trajectories, we propose generic functions, which are implemented by extending the SPARQL language.The methodological approach and the proposed tools are validated on a case study on residential choices of individuals in the Grenoble metropolitan area by highlighting the characteristics of their residential trajectory and the explanatory elements of it, including from their personal and professional trajectories.

Page generated in 0.1614 seconds