• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1537
  • 435
  • 135
  • 17
  • 5
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2172
  • 1170
  • 440
  • 373
  • 298
  • 256
  • 248
  • 227
  • 216
  • 203
  • 154
  • 147
  • 147
  • 146
  • 138
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Contribution à la prévention des risques liés à l’anesthésie par la valorisation des informations hospitalières au sein d’un entrepôt de données / Contributing to preventing anesthesia adverse events through the reuse of hospital information in a data warehouse

Lamer, Antoine 25 September 2015 (has links)
Introduction Le Système d'Information Hospitalier (SIH) exploite et enregistre chaque jours des millions d'informations liées à la prise en charge des patients : résultats d'analyses biologiques, mesures de paramètres physiologiques, administrations de médicaments, parcours dans les unités de soins, etc... Ces données sont traitées par des applications opérationnelles dont l'objectif est d'assurer un accès distant et une vision complète du dossier médical des patients au personnel médical. Ces données sont maintenant aussi utilisées pour répondre à d'autres objectifs comme la recherche clinique ou la santé publique, en particulier en les intégrant dans un entrepôt de données. La principale difficulté de ce type de projet est d'exploiter des données dans un autre but que celui pour lequel elles ont été enregistrées. Plusieurs études ont mis en évidence un lien statistique entre le respect d'indicateurs de qualité de prise en charge de l'anesthésie et le devenir du patient au cours du séjour hospitalier. Au CHRU de Lille, ces indicateurs de qualité, ainsi que les comorbidités du patient lors de la période post-opératoire pourraient être calculés grâce aux données recueillies par plusieurs applications du SIH. L'objectif de se travail est d'intégrer les données enregistrées par ces applications opérationnelles afin de pouvoir réaliser des études de recherche clinique.Méthode Dans un premier temps, la qualité des données enregistrées dans les systèmes sources est évaluée grâce aux méthodes présentées par la littérature ou développées dans le cadre ce projet. Puis, les problèmes de qualité mis en évidence sont traités lors de la phase d'intégration dans l'entrepôt de données. De nouvelles données sont calculées et agrégées afin de proposer des indicateurs de qualité de prise en charge. Enfin, deux études de cas permettent de tester l'utilisation du système développée.Résultats Les données pertinentes des applications du SIH ont été intégrées au sein d'un entrepôt de données d'anesthésie. Celui-ci répertorie les informations liées aux séjours hospitaliers et aux interventions réalisées depuis 2010 (médicaments administrées, étapes de l'intervention, mesures, parcours dans les unités de soins, ...) enregistrées par les applications sources. Des données agrégées ont été calculées et ont permis de mener deux études recherche clinique. La première étude a permis de mettre en évidence un lien statistique entre l'hypotension liée à l'induction de l'anesthésie et le devenir du patient. Des facteurs prédictifs de cette hypotension ont également étaient établis. La seconde étude a évalué le respect d'indicateurs de ventilation du patient et l'impact sur les comorbidités du système respiratoire.Discussion The data warehouse L'entrepôt de données développé dans le cadre de ce travail, et les méthodes d'intégration et de nettoyage de données mises en places permettent de conduire des analyses statistiques rétrospectives sur plus de 200 000 interventions. Le système pourra être étendu à d'autres systèmes sources au sein du CHRU de Lille mais également aux feuilles d'anesthésie utilisées par d'autres structures de soins. / Introduction Hospital Information Systems (HIS) manage and register every day millions of data related to patient care: biological results, vital signs, drugs administrations, care process... These data are stored by operational applications provide remote access and a comprehensive picture of Electronic Health Record. These data may also be used to answer to others purposes as clinical research or public health, particularly when integrated in a data warehouse. Some studies highlighted a statistical link between the compliance of quality indicators related to anesthesia procedure and patient outcome during the hospital stay. In the University Hospital of Lille, the quality indicators, as well as the patient comorbidities during the post-operative period could be assessed with data collected by applications of the HIS. The main objective of the work is to integrate data collected by operational applications in order to realize clinical research studies.Methods First, the data quality of information registered by the operational applications is evaluated with methods … by the literature or developed in this work. Then, data quality problems highlighted by the evaluation are managed during the integration step of the ETL process. New data are computed and aggregated in order to dispose of indicators of quality of care. Finally, two studies bring out the usability of the system.Results Pertinent data from the HIS have been integrated in an anesthesia data warehouse. This system stores data about the hospital stay and interventions (drug administrations, vital signs …) since 2010. Aggregated data have been developed and used in two clinical research studies. The first study highlighted statistical link between the induction and patient outcome. The second study evaluated the compliance of quality indicators of ventilation and the impact on comorbity.Discussion The data warehouse and the cleaning and integration methods developed as part of this work allow performing statistical analysis on more than 200 000 interventions. This system can be implemented with other applications used in the CHRU of Lille but also with Anesthesia Information Management Systems used by other hospitals.
52

Partenariat patient dans une démarche d’amélioration de la qualite des soins : l’expérience du programme qualité en mucoviscidose / Patient and parent involvement in a Quality Improvement Program in Cystic Fibrosis (CF) care in France

Pougheon Bertrand, Dominique 11 December 2017 (has links)
Contexte : Un programme d’amélioration de la qualité des soins est implémenté depuis2011 en France dans la filière mucoviscidose en adaptant la démarche qualité collaborativedéveloppée aux USA par la Cystic Fibrosis Foundation et le Dartmouth Institute pour lescentres spécialisés américains.Objectif : Evaluer l’apport de la participation des patients et parents d’enfants malades, auxcôtés des professionnels soignants, dans les équipes qualité des CRCM formés auprogramme qualitéMéthode : Design mixte de recherche associant un volet quantitatif sur l’évolution desindicateurs de santé des patients et un volet qualitatif selon une étude réaliste à travers uneenquête par questionnaire et focus group auprès des patients, parents et professionnelsimpliqués dans le programme qualité.Résultats : Les résultats témoignent des bonnes conditions créées par le programme pourla participation des patients et parents, de l’appropriation de cette démarche par lesprofessionnels et les patients/parents, de son utilité perçue pour améliorer la qualité dessoins et de l’évolution de la représentation de la place de l’usager dans l’amélioration del’organisation et des processus jusqu’à la considérer comme une évidence et un atout.Discussion : La démarche qualité développe la pratique collaborative interdisciplinaire etavec les patients/parents. Les progrès organisationnels observés sont concomitants dudéveloppement d’une culture de la qualité. L’implication des patients/parents dans unedémarche qualité au sein du microsystème clinique constitue une évolution majeure pourl’amélioration du système de soin. / Background: A quality improvement program (QIP) has been implemented since 2011 inthe CF care network in France adapting the Learning and Leadership Collaborative programdeveloped in the US by the CF Foundation and the Dartmouth Institute for the American CFCentre network.Objective: Assess the contribution of patients and parents of children with CF engaged inthe CF center quality improvement teams, besides their care team, to improve care in theircenter.Method: Mixed design research including a quantitative study focusing on patient outcomesevolution and a qualitative study according to a realist approach using a questionnaire andfocus groups to patients, parents and professionals engaged in the QIP.Results: Participants attested of the good conditions implemented by the QIP to allowpatient and parent engagement, a consensus about the appropriation of the quality methodand tools, the usefulness of the program to improve the quality of care; in the end, patientand parent engagement in the QIP was found to be a given and an asset.Discussion: The QIP has developed collaborative practice in multidisciplinary teams andwith patients and parents. Organizational improvements were concurrent with a cultural shifttowards a culture of quality improvement. Patient and parent engagement in a QIP within theclinical microsystem is a major development for the improvement of the health care system.
53

Data Quality Evaluation in Data Integration Systems

Peralta, Veronika 17 November 2006 (has links) (PDF)
Les besoins d'accéder, de façon uniforme, à des sources de données multiples, sont chaque jour plus forts, particulièrement, dans les systèmes décisionnels qui ont besoin d'une analyse compréhensive des données. Avec le développement des Systèmes d'Intégration de Données (SID), la qualité de l'information est devenue une propriété de premier niveau de plus en plus exigée par les utilisateurs. Cette thèse porte sur la qualité des données dans les SID. Nous nous intéressons, plus précisément, aux problèmes de l'évaluation de la qualité des données délivrées aux utilisateurs en réponse à leurs requêtes et de la satisfaction des exigences des utilisateurs en terme de qualité. Nous analysons également l'utilisation de mesures de qualité pour l'amélioration de la conception du SID et de la qualité des données. Notre approche consiste à étudier un facteur de qualité à la fois, en analysant sa relation avec le SID, en proposant des techniques pour son évaluation et en proposant des actions pour son amélioration. Parmi les facteurs de qualité qui ont été proposés, cette thèse analyse deux facteurs de qualité : la fraîcheur et l'exactitude des données. Nous analysons les différentes définitions et mesures qui ont été proposées pour la fraîcheur et l'exactitude des données et nous faisons émerger les propriétés du SID qui ont un impact important sur leur évaluation. Nous résumons l'analyse de chaque facteur par le biais d'une taxonomie, qui sert à comparer les travaux existants et à faire ressortir les problèmes ouverts. Nous proposons un canevas qui modélise les différents éléments liés à l'évaluation de la qualité tels que les sources de données, les requêtes utilisateur, les processus d'intégration du SID, les propriétés du SID, les mesures de qualité et les algorithmes d'évaluation de la qualité. En particulier, nous modélisons les processus d'intégration du SID comme des processus de workflow, dans lesquels les activités réalisent les tâches qui extraient, intègrent et envoient des données aux utilisateurs. Notre support de raisonnement pour l'évaluation de la qualité est un graphe acyclique dirigé, appelé graphe de qualité, qui a la même structure du SID et contient, comme étiquettes, les propriétés du SID qui sont relevants pour l'évaluation de la qualité. Nous développons des algorithmes d'évaluation qui prennent en entrée les valeurs de qualité des données sources et les propriétés du SID, et, combinent ces valeurs pour qualifier les données délivrées par le SID. Ils se basent sur la représentation en forme de graphe et combinent les valeurs des propriétés en traversant le graphe. Les algorithmes d'évaluation peuvent être spécialisés pour tenir compte des propriétés qui influent la qualité dans une application concrète. L'idée derrière le canevas est de définir un contexte flexible qui permet la spécialisation des algorithmes d'évaluation à des scénarios d'application spécifiques. Les valeurs de qualité obtenues pendant l'évaluation sont comparées à celles attendues par les utilisateurs. Des actions d'amélioration peuvent se réaliser si les exigences de qualité ne sont pas satisfaites. Nous suggérons des actions d'amélioration élémentaires qui peuvent être composées pour améliorer la qualité dans un SID concret. Notre approche pour améliorer la fraîcheur des données consiste à l'analyse du SID à différents niveaux d'abstraction, de façon à identifier ses points critiques et cibler l'application d'actions d'amélioration sur ces points-là. Notre approche pour améliorer l'exactitude des données consiste à partitionner les résultats des requêtes en portions (certains attributs, certaines tuples) ayant une exactitude homogène. Cela permet aux applications utilisateur de visualiser seulement les données les plus exactes, de filtrer les données ne satisfaisant pas les exigences d'exactitude ou de visualiser les données par tranche selon leur exactitude. Comparée aux approches existantes de sélection de sources, notre proposition permet de sélectionner les portions les plus exactes au lieu de filtrer des sources entières. Les contributions principales de cette thèse sont : (1) une analyse détaillée des facteurs de qualité fraîcheur et exactitude ; (2) la proposition de techniques et algorithmes pour l'évaluation et l'amélioration de la fraîcheur et l'exactitude des données ; et (3) un prototype d'évaluation de la qualité utilisable dans la conception de SID.
54

Les déterminants de la qualité expérientielle comme facteurs de positionnement dans le secteur de l'hôtellerie de luxe

Lachkar, Mounia January 2006 (has links) (PDF)
Les services se caractérisent par leur production et consommation simultanées, ils se caractérisent aussi par la participation du consommateur à leur livraison, ce qui implique que les gestionnaires doivent prendre en considération non seulement la valeur intrinsèque du service mais aussi les valeurs périphériques de ce dernier. Avec l'augmentation du nombre des offres touristiques les gestionnaires des destinations ont de plus en plus besoin d'éléments comparatifs et de différenciation, qui sont par nature des éléments de positionnement aussi pour déduire des actions compétitive et concurrentielle. Pour différencier les services, le contenu de ces derniers est bien peu important puisqu'il est facilement imitable. L'avantage concurrentiel demeure en fait, basé sur des dimensions de qualité expérientielle qui peuvent tout autant constituer des éléments de positionnement. Cette étude a pour objectif de présenter et de détailler d'une part l'expérience touristique dans un hôtel de luxe en un ensemble de variables, mais aussi de vérifier quelles sont celles qui sont plus favorables et plus pertinentes dans l'esprit des consommateurs. Un autre objectif est de démystifier la relation existante entre les variables composant chacun des facteurs de qualité expérientielle. Pour ce faire, nous avons exploré empiriquement cette possibilité de recherche dans le milieu hôtelier (de luxe), au moyen d'une étude par questionnaire qui a servi à vérifier les hypothèses proposées à l'issue de notre revue de littérature. Les résultats de nos analyses révèlent que les touristes assignent plusieurs degrés d'importance aux dimensions de la qualité dépendamment de la phase de l'expérience (accueil, séjour ou départ). Il en résulte que des dimensions, telle que l'environnement physique ou la fiabilité sont plus significatives à travers une certaine catégorie de variables lors de la phase du séjour et le sont à travers une deuxième catégorie de variables, complètement différente de la première, lors d'une autre phase. En outre, une attention particulière devrait être attribuée aux deux dimensions de l'environnement relationnel de prise en charge et de la fiabilité puisqu'elles sont considérées comme la route centrale de l'offre hôtelière. De plus, et plus particulièrement dans l'hôtellerie de luxe, nous avons constaté, à travers nos résultats, une grande influence de l'individualisation et la personnalisation du service sur l'évaluation de la qualité de ce dernier. En effet, plusieurs variables telle que la réponse aux demandes exceptionnelles, l'adaptation du service aux besoins du client..., influencent directement la perception de la qualité du service. Les gestionnaires des hôtels de luxe, pour leur part, acquièrent à travers l'étude un savoir-faire en terme de gestion des dimensions de la qualité en utilisant des variables spécifiques pour pouvoir les conjuguer avec de nouvelles productions d'expériences. Ils savent qu'une expérience est toujours assurée si un hôtel a délibérément recours à des services en tant que plate forme et à des produits en tant qu'instrument de mémorabilité. Cette étude leur permet de savoir comment gérer et entretenir les émotions intentionnelles des clients dans la chaîne d'approvisionnement du service hôtelier. Finalement, nous pouvons dire que le principal bénéficiaire de ces approches est principalement le client qui souhaite que non seulement ses attentes et besoins soient satisfaits d'après un schéma de gestion traditionnelle de la qualité, mais aussi ses désirs les plus profonds, ses aspirations, ses espérances et ses rêves les plus fous qui ne pourront être exaucés grâce à une méthode de gestion purement fonctionnelle. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Services, Qualité des services, Offres hôtelières, Positionnement, Luxe.
55

Les limites de la "Qualité totale" dans l'enseignement supérieur privé au Liban : exemple de l'université américaine de Beyrouth

Barakat, Ronald 08 1900 (has links) (PDF)
Par ce travail, on se propose de savoir, dans un premier temps, si la Qualité totale, en tant que concept corporatif, est applicable à l'«entreprise» universitaire qui possède des logiques et des dynamiques sociales particulières et si elle tient compte de la complexité et de la spécificité des rapports sociaux intra-universitaires pour une implantation efficace de son dispositif. La question est aussi de savoir s'il existe des référentiels normatifs, autres que l'ISO 9001 :2000 sur l'éducation, spécifiquement conçus pour l'enseignement supérieur et, dans l'affirmative, quelles sont les universités libanaises pionnières dans l'implantation d'un système Qualité standardisé, pour quels motifs celles-ci se sont attelées à un tel projet et quelles sortes d'avantages ont-elles tiré du processus d'implantation. Dans un deuxième temps, on se proposera de savoir si l'implantation de standards tels que les «Services aux étudiants» et «Intégrité» ont contribué à améliorer les conditions d'études et la qualité de vie universitaire en général, à favoriser le climat d'entente entre les étudiants et entre ceux-ci et l'institution ainsi que l'esprit civique et démocratique dans la vie au campus, partant la vie civile; si la Qualité totale a pu transmettre ses valeurs et infléchir positivement les modes de penser, de sentir et d'agir sans rencontrer de résistances aux changements institutionnels opérés par son implantation. Au vu des troubles enregistrés sur certains campus, dont l'institution est pourtant engagée dans une démarche Qualité, on se demandera pourquoi celle-ci n'est pas parvenue à prévenir ou résoudre ces troubles, ce qu'il a manqué au programme pour inoculer son «Esprit Qualité» dans les esprits au campus, et quelle approche sociologique il convient de proposer pour encadrer la démarche Qualité, forcer les résistances aux changements institutionnels et résoudre les problèmes d'intolérance, voire de violence à l'université. ______________________________________________________________________________
56

The real time product quality intelligent forecasting and analysis system

Ma, Kui 09 1900 (has links) (PDF)
Catalytic cracking fractional colurnn is the most important production device for refining enterprises in China. Its main products are car gasoline and diesel fuel. The yield and quality of these two kinds of products decide directly the economie efficiency of enterprises. In order to increase the economic efficiency of enterprises, it is needed to better adjust and control the quality of car gasoline and diesel fuel. Because fluidized catalytic cracking unit (FCCU) is in closed state, it is impossible to observe actual production process manually. But if people cannot timely master product quality condition, it is impossible to adjust effectively the technological parameters in order to control product quality. But at present, it takes four hours to obtain quality level of products if using the method of manual sampling testing. If it is as this, production process cannot, based on the analyzed results, be timely adjusted. Therefore, developing the real-time product quality intellect forecasting and analysis system of fractional column and realizing forecasting and analysis on-line have important theoretic meaning and value in engineering application. This system can real-timely forecast product quality of fractional colurnn, and can also real-timely analyze the factors affecting the products. So, the adjustment oftechnological parameters is more targeted, and shortens adjustment time, and increases efficiency. It is no doubt that the economic efficiency will increase. The thesis, taking fractional colurnn of fluidized catalytic cracking unit (FCCU) as research target, with the aim of forecasting product quality level of fractional column, establishes quality forecasting model through the method of neural network, and speculates the critical technological parameters that are hard to measure or impossible to measure at all through the technological parameters that are easy to measure. The system first finishes interactive interface between control system and operator with the functions of dynamic display and real-time data acquisition through configuration software DCS (Distributed Control System), which can supervise, control, activate and manage the whole system. Then it will realize product quality forecasting of fractional colurnn through the method of combining utility function based on average level and neural network. Finally it will realize the analysis of factors affecting product quality through the method of combining fuzzy technology and neural network. The thesis, through system configuration and using neural network technology to forecast product quality of fractional colurnn and analyze the factors affecting product quality, combines fuzzy technology and neural network which play their respective advantages to finish the display and control of operation state of fractionation system and realize real-time forecasting and analysis. The online forecasting system of product quality of catalytic cracking fractional colurnn based on the method mentioned above is developed for many small and medium petrochemical enterprises. The aim is to transform the equipments under the present condition of small and medium petrochemical enterprises with no change in the hardware of the original DCS (Distributed Control System) of refining enterprises. Therefore, this system has many advantages such as small investment, short transformation time and easy realization, etc. Currently, this system has been tried on the fluidized catalytic cracking unit (FCCU) in Tianjin First Petrochemical Plant in China. The operating result shows that the value and laboratory value of dry point of car gasoline and solidifying point of diesel fuel forecasted real-timely in this model have better goodness of fit, satisfying the requirements of product quality index. The test result shows that the technical path and method using neural network technology to forecast product quality put forward in the thesis is feasible. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Catalytic cracking, Fractional column, Neural network
57

Business Process Models Quality : evaluation and improvement / La qualité des processus métier : évaluation et amélioration

Ayad, Sarah 18 December 2013 (has links)
La problématique scientifique abordée correspond à la modélisation et à l'amélioration des processus métiers. Ce problème est d'un intérêt croissant pour les entreprises qui prennent conscience de l'impact indéniable que peuvent avoir une meilleure compréhension et une meilleure gestion des processus métiers (PM) sur l'efficacité, la cohérence et la transparence de leurs activités. Le travail envisagé dans le cadre de la thèse vise à proposer une méthode et un outil pour mesurer et améliorer la qualité des modèles de processus métier. L’originalité de l’approche est qu’elle vise non seulement la qualité syntaxique mais aussi la qualité sémantique et pragmatique en s’appuyant notamment sur les connaissances du domaine. / In recent years the problems related to modeling and improving business processes have been of growing interest. Indeed, companies are realizing the undeniable impact of a better understanding and management of business processes (BP) on the effectiveness, consistency, and transparency of their business operations. BP modeling aims at a better understanding of processes, allowing deciders to achieve strategic goals of the company. However, inexperienced systems analysts often lack domain knowledge leading and this affects the quality of models they produce.Our approach targets the problem related to business process modeling quality by proposing an approach encompassing methods and tools for business process (BP) models quality measurement and improvement. We propose to support this modeling effort with an approach that uses domain knowledge to improve the semantic quality of BP models.The main contribution of this thesis is fourfold:1. Exploiting the IS domain knowledge: A business process metamodel is identified.Semantics are added to the metamodel by the mean of OCL constraints.2. Exploiting the application domain knowledge. It relies on domain ontologies. Alignment between the concepts of both metamodels is defined and illustrated.3. Designing of the guided quality process encompassing methods and techniques to evaluate and improve the business process models. Our process propose many quality constraints and metrics in order to evaluat the quality of the models and finally the process propose relevant recommendations for improvement.4. Development of a software prototype “BPM-Quality”. Our prototype implements all theabove mentioned artifacts and proposes a workflow enabling its users to evaluate andimprove CMs efficiently and effectively.We conducted a survey to validate the selection of the quality constraints through a first experience and also conducted a second experiment to evaluate the efficacy and efficiency of our overall approach and proposed improvements.
58

On quality of experience (QoE) for multimedia services in communication ecosystem / Sur la qualité de l'expérience (QoE) pour les services multimédias dans l'écosystème de la communication

Laghari, Khalil ur Rehman 30 April 2012 (has links)
Aujourd'hui, la satisfaction du client et la joie deviennent les principaux différenciateurs pour évaluer l'efficacité des opérateurs télécoms et les fournisseurs de services. Dans ce marché concurrentiel, la mauvaise qualité de l'expérience (QoE) conduit à une réaction en chaîne de la parole négative de la bouche, pousser les clients dans les bras de concurrents en attente. Par conséquent, il est important pour les fournisseurs de services pour assurer la qualité supérieure de l'expérience afin d'éviter la déloyauté clientèle et la réputation négative. QoE est une émergence rapide multi-disciplinaire discipline axée sur la compréhension globale des exigences de qualité de l'homme sous différents angles tels que la technologie, des affaires et contexte d'utilisation. Le premier défi et avant tout est de comprendre comment différentes caractéristiques qui influencent liés à l'activité, la technologie, et le comportement influence du contexte humain. Dans cette thèse, les premiers travaux répond à ce défi de comprendre l'influence des domaines disparates sur QoE. Un modèle d'interaction QoE consolidée est proposé qui relie les domaines disparates (humains, des affaires, la technologie, et le contexte) pour comprendre la qualité globale de l'homme de l'expérience requise. Puis la taxonomie est présenté pour le modèle d'interaction QoE. Deuxième contribution dans cette thèse est basé sur le premier et son principal objectif est de capturer et analyser des données QoE à travers des études de l'utilisateur. Sur la base de données de l'utilisateur, l'influence des paramètres technologiques, contextuelles et d'affaires de plus de QoE sont évalués. Différents services multimédias ont été sélectionnés pour l'étude d'utilisateur tels que le service de streaming vidéo, la téléphonie (VoIP et PSTN), et service de téléconférence audio 3D. Selon le service multimédia, différents aspects ont été considérés lors de chaque étude sur les utilisateurs telles que les types de paramètres de service (QoS multimédia, le contenu, le contexte), les types de mesures (QoE subjective, objectif cognitif ou les deux), les caractéristiques de l'homme (âge, sexe, etc) , et les rôles de l'homme (l'utilisateur ou le client). Ces résultats aident à comprendre le lien entre QoE et d'autres domaines d'influence. La troisième contribution est basée sur les travaux en cours d'élaboration QoE des outils basés sur des services de streaming vidéo. Deux outils basés sur QoE pour l'évaluation des services multimédias ont été présentés dans cette thèse, leurs principales fonctions consistent à saisir, analyser et rapporter métriques QoE en temps réel. Ces outils sont utiles pour QoE mesure en temps réel de paramètres QoE / Today, the fulfillment of customer demands and user experience requirements are becoming the main differentiators for gauging the effectiveness of telecom operators and service providers. In this competitive market, the poor Quality of Experience (QoE) leads to a chain reaction of negative word of mouth, pushing customers into the arms of waiting competitors. Therefore it is important for service providers to ensure superior quality of experience in order to avoid customer disloyalty and negative reputation. QoE is a fast emerging multi-disciplinary field focused on understanding overall human quality requirements from different angles such as technology, business and context of use. The first and foremost challenge is to understand how different influencing characteristics related to business, technology, and context influence human behavior. In this thesis, initial work addresses this challenge of understanding the influence of disparate domains over QoE. A consolidated QoE interaction model is proposed which links disparate domains (human, business, technology, and context) to understand overall human quality of experience requirements. Then taxonomy is presented for QoE interaction model. Second contribution in this thesis is based on the first and its main objective is to capture and analyze QoE data through user studies. Based on user data, the influence of technological, contextual and business parameters over QoE are evaluated. Different multimedia services were selected for user study such as video streaming service, telephony (VoIP and PSTN), and 3D audio teleconferencing service. Depending upon multimedia service, different aspects were considered during each user study such as types of multimedia service parameters (QoS, content, context), the types of QoE metrics (subjective, objective cognitive or both), human characteristics (age, gender etc), and human roles (user, or customer). These findings help in understanding the link between QoE and other influencing domains. The third contribution is based upon ongoing work of developing QoE based tools for video streaming services. Two QoE based tools for the assessment of multimedia services have been presented in this thesis, their main functions are to capture, analyze and report QoE metrics in real time. These QoE tools are useful for real time measurement of QoE metrics
59

Analyse et influence des paramètres d’affaires sur la qualité d’expérience des services Over-The-Top / Analysis and influence of business parameters on quality of experience for Over-The-Top services

Rivera Villagra, Diego 28 February 2017 (has links)
A l'époque où l'Internet est devenu la plateforme par défaut pour offrir de la valeur ajoutée, des nouveaux fournisseurs de services multimédia ont saisi cette opportunité en définissant les services Over-The-Top (OTT). Cependant, Internet n'étant pas un réseau de distribution fiable, il nécessaire de garantir de haut niveau de Qualité d'Expérience (QoE), ainsi que les revenues des Fournisseurs de Services d'Internet (ISP) et des OTTs.Le travail présenté dans ce document va au-delà de l'état de l'art, en proposant une solution qui prend en compte cet objectif. Les principaux apports qui y sont présentés peuvent être synthétisées en quatre contributions.En premier lieu, l'inclusion des paramètres liés aux modèles d'affaires dans l'analyse de la QoE a demandé un nouveau cadre pour calculer la QoE d'un service OTT. Ce cadre est basé sur le formalisme mathématique des Machines Étendues à États Finis (EFSM), ce qui profite de deux avantages des EFSMs~: les traces des machines suivent les décisions de l'utilisateur et les variables du contexte utilisés comme indicateurs de qualité, seront utilisées ultérieurement pour computer la QoE.La deuxième contribution consiste à mettre en œuvre deux algorithmes. Le premier fait le calcul d'une forme équivalent, ayant la forme d'un arbre qui représente les traces de la machine. Le deuxième utilise les traces et fait le calcul de la QoE pour les états terminaux de chaque trace. Les deux algorithmes peuvent être utilisés comme base d'un outil de monitorage capable de prévoir la valeur de la QoE d'un utilisateur. De plus, une mise en œuvre concrète des ces deux algorithmes comme une extension de l'Outil de Monitorage de Montimage (MMT) est aussi présentée.La troisième contribution présente la validation de l'approche avec un double objectif. D'une part, l'inclusion de paramètres du modèle d'affaires est validée et on détermine leur impact sur la QoE. D'autre part, le modèle de la QoE proposé est validé par la mise en œuvre d'une plateforme d'émulation d'un service OTT qui montre des vidéos perturbés. Cette implémentation est utilisée pour obtenir des valeurs estimées par utilisateurs réels qui sont utilisés pour dériver un modèle approprié de la QoE.La dernière contribution se base sur le cadre donné et fournit un analyse statique d'un service OTT. Cette procédure est réalisé par un troisième algorithme qui calcule la quantité des configurations contenues dans le modèle. En analysant à l'avance touts les scénarios possibles qu'un utilisateur peut rencontrer, le fournisseur des services OTT peut détecter des défauts dans le modèle et le service à une stade précoce du développement / At a time when the Internet has become the de facto platform for delivering value, the new multimedia providers took advantage of this opportunity to define Over-The-Top (OTT) services. Considering that Internet is not a reliable distribution network, it is necessary to ensure high levels of Quality of Experience (QoE) and revenues for Internet Service Providers (ISP) and OTTs. The work presented in this dissertation goes beyond the state of the art by providing a solution having this goal in mind. The main contributions presented here can be summarized in four main points.First, the inclusion of business-model related parameters in the QoE analysis required a new framework for calculating the QoE of an OTT service.This framework is based on the Extended Finite States Machine (EFSM) mathematical formalism, which takes advantage of two features of the EFSMs: (1) the traces of the machines that keep track of the user's decisions and; (2) the context variables used as quality indicators, correlated later with the QoE.The second contribution is the design and the implementation of two algorithms. The first computes the $l$-equivalent, a version in the form of a tree of the model that exposes the traces of the machine. The second uses the traces and computes the QoE at the final stages of each trace. Both algorithms can be used to design a monitoring tool that can predict a user’s QoE value. In addition, a concrete implementation is given as an extension of the Montimage Monitoring Tool (MMT).The third contribution presents the validation of the approach, having two objectives in mind. On the one hand, the inclusion of business-model related parameters was validated by determining the impact of such variables on the QoE. On the other hand, the proposed QoE model is validated by the implementation of an OTT emulation platform showing disrupted videos. This implementation is used to obtain QoE values evaluated from real users, values used to derive an appropriate QoE model.The last contribution uses the framework to perform a static analysis of an OTT service. This is done by a third algorithm that computes the amount of configurations contained in the model. By analyzing in advance all the possible scenarios a user can face -- and their respective QoE, the OTT provider can detect flaws in the model and the service from the early stages of development
60

Data quality for the decision of the ambient systems / Qualité des données pour la décision des systèmes ambiants

Kara, Madjid 14 March 2018 (has links)
La qualité des données est une condition commune à tous les projets de technologie de l'information, elle est devenue un domaine de recherche complexe avec la multiplicité et l’expansion des différentes sources de données. Des chercheurs se sont penchés sur l’axe de la modélisation et l’évaluation des données, plusieurs approches ont été proposées mais elles étaient limitées à un domaine d’utilisation bien précis et n’offraient pas un profil de qualité nous permettant d’évaluer un modèle de qualité de données global. L’évaluation basée sur les modèles de qualité ISO a fait son apparition, néanmoins ces modèles ne nous guident pas pour leurs utilisation, le fait de devoir les adapter à chaque cas de figure sans avoir de méthodes précises. Notre travail se focalise sur les problèmes de la qualité des données d'un système ambiant où les contraintes de temps pour la prise de décision sont plus importantes par rapport aux applications traditionnelles. L'objectif principal est de fournir au système décisionnel une vision très spécifique de la qualité des données issues des capteurs. Nous identifions les aspects quantifiables des données capteurs pour les relier aux métriques appropriées de notre modèle de qualité de données spécifique. Notre travail présente les contributions suivantes : (i) création d’un modèle de qualité de données générique basé sur plusieurs standards de qualité existants, (ii) formalisation du modèle de qualité sous forme d’une ontologie qui nous permet l’intégration de ces modèles (de i), en spécifiant les différents liens, appelés relations d'équivalence, qui existent entre les critères composant ces modèles, (iii) proposition d’un algorithme d’instanciation pour extraire le modèle de qualité de données spécifique à partir du modèle de qualité de données générique, (iv) proposition d’une approche d’évaluation globale du modèle de qualité de données spécifique en utilisant deux processus, le premier processus consiste à exécuter les métriques reliées aux données capteurs et le deuxième processus récupère le résultat de cette exécution et utilise le principe de la logique floue pour l’évaluation des facteurs de qualité de notre modèle de qualité de données spécifique. Puis, l'expert établie des valeurs représentant le poids de chaque facteur en se basant sur la table d'interdépendance pour prendre en compte l'interaction entre les différents critères de données et on utilisera la procédure d'agrégation pour obtenir un degré de confiance. En ce basant sur ce résultat final, le composant décisionnel fera une analyse puis prendra une décision. / Data quality is a common condition to all information technology projects; it has become a complex research domain with the multiplicity and expansion of different data sources. Researchers have studied the axis of modeling and evaluating data, several approaches have been proposed but they are limited to a specific use field and did not offer a quality profile enabling us to evaluate a global quality model. The evaluation based on ISO quality models has emerged; however, these models do not guide us for their use, having to adapt them to each scenario without precise methods. Our work focuses on the data quality issues of an ambient system where the time constraints for decision-making is greater compared to traditional applications. The main objective is to provide the decision-making system with a very specific view of the sensors data quality. We identify the quantifiable aspects of sensors data to link them to the appropriate metrics of our specified data quality model. Our work presents the following contributions: (i) creating a generic data quality model based on several existing data quality standards, (ii) formalizing the data quality models under an ontology, which allows integrating them (of i) by specifying various links, named equivalence relations between the criteria composing these models, (iii) proposing an instantiation algorithm to extract the specified data quality model from the generic data quality models, (iv) proposing a global evaluation approach of the specified data quality model using two processes, the first one consists in executing the metrics based on sensors data and the second one recovers the result of the first process and uses the concept of fuzzy logic to evaluate the factors of our specified data quality model. Then, the expert defines weight values based on the interdependence table of the model to take account the interaction between criteria and use the aggregation procedure to get a degree of confidence value. Based on the final result, the decisional component makes an analysis to make a decision.

Page generated in 0.4903 seconds