• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 4
  • 1
  • Tagged with
  • 21
  • 9
  • 7
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Evaluation et étude de la perception, au sein du monde médical, de la qualité de vie des patients souffrant dun cancer des voies aéro-digestives supérieures

DEMEZ, Pierre 12 October 2009 (has links)
Les cancers des voies aéro-digestives supérieures sont connus pour entraîner, par eux-mêmes et par leur traitement, une altération significative de la qualité de vie. Depuis le milieu des années septante, un grand nombre dauteurs ont étudié cette qualité de vie. De nombreux outils de mesure ont été fabriqués et le sujet occupe de plus en plus de place tant dans la littérature que dans les congrès scientifiques. Pourtant, jusquà présent, aucune étude importante ne sest penchée sur la perception quont les médecins de la qualité de vie de leurs malades souffrant dun cancer de la tête et du cou ainsi que sur les implications de cette « représentation» médicale. Nous proposons donc ici dessayer de pallier à ce manque et de présenter un travail sur une large population médicale. Lensemble de la population ORL belge ainsi que 3000 médecins traitants belges ont été contactés. Chacun dentre eux a reçu un questionnaire par la poste. Ce questionnaire, totalement anonyme, formulé dans la langue maternelle de chaque médecin (français ou néerlandais) avait pour but de recueillir de manière la plus précise possible des indications sur la perception des soignants. Ces questions portaient aussi bien sur la perception générale de la qualité de vie que sur les symptômes importants et sur les différents traitements habituellement utilisés en oncologie cervico-faciale. Une étude statistique sérieuse de ces réponses nous a conduits à appréhender de manière nettement plus scientifique cette problématique. Par ailleurs, nous nous sommes attachés à comparer dans la mesure du possible cette perception médicale avec ce que le patient pense vraiment de sa propre qualité de vie (sur base de la littérature scientifique existante). 245 ORL ont répondu à létude tandis que 506 généralistes faisaient de même. Lanalyse des réponses démontre que le monde médical accorde énormément dimportance à la qualité de vie. Cette attention portée à la qualité de vie paraît plus importante que chez les patients eux-mêmes. Les médecins sont très majoritairement prêts à sacrifier le pronostic en terme de survie pour maintenir une qualité de vie quils jugeraient plus acceptable. Sur base de la littérature, ceci va à lencontre de la volonté première du malade. Une moitié des médecins répondeurs reconnaissent ne pas présenter dempathie pour leur malade cancéreux. Il transparaît que les soignants perçoivent la qualité de vie liée à un cancer des voies aéro-digestives supérieures comme étant moins bonne que pour dautres localisations néoplasiques. Probablement pour cette raison, ils pensent très majoritairement quune prise en charge psychologique est indispensable pour de tels patients. Ils pensent également de manière générale que leur façon daborder le patient peut indirectement influencer sa qualité de vie. Pour les médecins, tous les symptômes nont pas la même importance en terme de qualité de vie. La douleur joue, pour eux, un rôle prépondérant. Elle est suivie dans lordre par la respiration, lalimentation, la voix et finalement lapparence physique. Des différences interculturelles ont été retrouvées notamment pour la voix et lalimentation. Les médecins perçoivent également différemment les traitements habituellement utilisés en oncologie cervico-faciale sur base de la qualité de vie quils peuvent offrir aux patients traités. La radiothérapie est clairement mieux perçue que la chirurgie. La chimiothérapie offre la moins bonne qualité de vie post-thérapeutique aux yeux de nos confrères. Ces différences ne semblent pas sappuyer sur des éléments cliniques solides quand on se place du côté des patients (sur base de la littérature). Il est important de remarquer également que bien que le médecin traitant souhaite participer à la décision thérapeutique, il se sent sous informé quant aux cancers des voies aéro-digestives et à la qualité de vie résiduelle. En conclusion, nous pouvons affirmer que le médecin considère la qualité de vie du malade comme un point essentiel dans sa prise en charge et est prêt à sacrifier partiellement la survie pour préserver la qualité de vie. Ceci doit ouvrir un débat éthique important et doit nous amener à une question fondamentale : « Sachant que notre représentation de soignant diffère autant de celle du patient tant du point de vue de la qualité de vie que du but principal du traitement, sommes-nous autorisés à imposer notre perception de la maladie et de ses effets dans le choix thérapeutique? ». Par ailleurs, sur base de nos résultats, il serait judicieux que les spécialistes cervico-faciaux puissent mieux informer leurs collègues sur le cancer de la tête et du cou ainsi que sur la qualité de vie résiduelle.
2

Introduire la mesure de performance dans la régulation des services d'eau et d'assainissement en France. Instrumentation et organisation

GUERIN SCHNEIDER, Laëtitia 11 May 2001 (has links) (PDF)
La gestion des services d'eau et d'assainissement a connu durant les vingt dernières années de profondes évolutions. Les objectifs d'augmentation quantitative de la desserte ont cédé la place à la logique d'amélioration qualitative. Avec la hausse du prix, le besoin de transparence s'est accru.<br />Dans ce contexte, les collectivités locales, communes ou syndicats, sont responsables de l'organisation des services d'eau. Elles doivent faire en sorte que les objectifs de service public soient pris en compte, en particulier dans leur nouvelle composante qualitative. Elles doivent également informer l'usager.<br />La maîtrise des services d'eau par les élus est cependant rendue difficile : le déséquilibre d'information avec l'exploitant, l'existence d'un oligopole ou encore la situation de monopole naturel sont autant d'éléments qui viennent affaiblir la position de la collectivité. A la lumière de la théorie des contrats, l'analyse du modèle français, mais également celle d'autres pays européens, montre que les limites du mécanisme concurrentiel obligent à envisager une régulation plus poussée dans le secteur de l'eau que dans d'autres services publics.<br />La mesure de performance par des indicateurs portant sur les résultats qualitatifs du service apparaît comme un outil propre à améliorer cette maîtrise de la gestion par les élus. En introduisant des mécanismes de circulation d'information, elle permet de mieux appréhender les évolutions de chaque service, mais aussi de les comparer entre eux. L'incitation par pseudo-concurrence peut ainsi jouer pleinement, quel que soit le mode de gestion. Les indicateurs vont aussi servir à définir la qualité attendue dans la phase pré-contractuelle, puis à suivre et à piloter les résultats du service en phase d'exécution. Ils permettent enfin une communication vers les usagers-clients, rendant ainsi plus visibles des progrès du service qui restent souvent cachés.<br />La participation à plusieurs groupes de travail, rassemblant des experts français et étrangers, a permis de constituer un panel commun d'indicateurs balayant l'ensemble des missions des services d'eau et d'assainissement. Ces indicateurs, en nombre limité et souvent assez simples à obtenir, sont hiérarchisés de manière à guider le choix de la collectivité, sans toutefois lui retirer la possibilité d'adapter la liste au contexte particulier de son service. Ces indicateurs, rassemblés en critère de synthèse forment des tableaux de bord qui présentent les principaux aspects de la gestion d'un service : qualité du service au client, gestion du réseau, gestion de la ressource, gestion de la station d'épuration et capacité de financement de la collectivité. Ces éléments permettent de cerner non seulement la qualité des prestations immédiates, mais également la pérennité du service et la protection de l'environnement. L'analyse annuelle de ces critères permet de caractériser la situation du service, de repérer d'éventuelles dérives et de remonter aux origines pour déboucher sur des recommandations concrètes. Ainsi, le dialogue avec l'exploitant s'engage sur une base plus objective, dans une logique d'amélioration. Le test de terrain sur cinq collectivités a permis de démontrer l'efficacité de cette méthode, même si l'outil doit être utilisé avec précaution, notamment lors des comparaisons entre services.<br />Cette thèse propose d'insérer cet outil de gestion dans un dispositif de régulation plus global. Les premières expériences, notamment au sein du Ministère de l'Agriculture, et les réflexions menées avec le Ministère de l'Environnement permettent de dessiner les principes de cette nouvelle organisation de la régulation. Une autorité de régulation nationale pourrait être associée à des réseaux d'experts locaux, au service des collectivités. L'autorité assurerait la mutualisation de l'information. Les experts locaux, sur le modèle de l'intervention actuelle des DDAF, transmettraient l'information et les compétences constituées à un niveau plus centralisé, pour rétablir un certain équilibre avec l'exploitant. Ces conseillers pourraient à la fois aider les collectivités à interpréter correctement les indicateurs et jouer le rôle d'intermédiaire neutre entre le régulateur et le régulé (ou entre le principal et l'agent). Ainsi, les collectivités conserveraient leurs prérogatives, mais avec l'appui de conseillers compétents. Les usagers informés pourraient également mieux jouer leur rôle de pression démocratique.<br />Ces travaux ouvrent la voie à deux prolongements. D'abord, un travail statistique est nécessaire pour constituer les références et trouver les facteurs descriptifs permettant de former des classes de comparaison au sein des services. Par ailleurs, l'utilisation des indicateurs comme outils de pilotage des performances non financières du service peut être conjuguée avec une incitation économique. Pour cela, il faut choisir quelques indicateurs-clefs et moduler la recette de l'exploitant en fonction des résultats obtenus. L'intéressement du résultat à la performance constitue une suite logique à la mise en place des indicateurs de suivi : il permettrait de réintroduire les risques et périls de l'exploitant et de rétablir une incitation cohérente avec les nouveaux objectifs qualitatifs des services.
3

QUALITE EN CONCEPTION DE PRODUITS NOUVEAUX "proposition d'une méthode de fiabilisation du processus de management de l'information"

GAUTIER, Rémy 08 December 1995 (has links) (PDF)
L'activité de conception de produits nouveaux est analysée en tant que processus complexe, mettant en oeuvre des démarches, des méthodes et outils divers. Dans ce contexte, les risques de dysfonctionnement de ce processus sont importants. Les conséquences de ces dysfonctionnements se traduisent par le non-respects d'objectifs de coût, de délais, et de qualité. La gestion de ces risques faisant partie de la mission d'un chef de projet, la mise en place de la qualité en conception doit passer, à l'image de la qualité en production, du concept de contrôle du résultat (la définition du produit) à la maîtrise du processus (le management du projet). Le processus de Conception de Produits Nouveaux est modélisé de manière à comprendre et à agir sur ses dysfonctionnements. Ce modèle de processus est ensuite validé sur plusieurs projets de conception de Produits Nouveaux. Ces expérimentations décrivent la complexité de la gestion de projet. Elles nous permettent de faire ressortir les aspects moteurs de la qualité dans le management du triplet"produit / projet / environnement" ainsi que les manques et les améliorations possibles de la démarche en matière de maîtrise des risques. Elles démontrent en particulier, la nécessité de maîtriser l'information tout au long du cycle de vie d'un produit.<br />Cette analyse nous permet de proposer un concept nouveau de management des risques projet, comprenant une méthode globale de management de l'information et des outils que nous avons appelé "A.P.R. Projet" et "A.M.D.E.C. Projet", extrapolés des techniques de Sûreté de Fonctionnement. Nous définissons ce concept, son champ d'application, ses méthodes et outils, ses avantages et ses limites. Une validation sur des cas de projets industriels est proposée. Nous envisageons enfin des axes de recherches pour développer cette méthode.
4

QUALITE EN CONCEPTION DE PRODUITS NOUVEAUX "proposition d'une méthode de fiabilisation du processus de management de l'information"

Gauthier, Rémy 08 December 1995 (has links) (PDF)
L'activité de conception de produits nouveaux est analysée en tant que processus complexe, mettant en oeuvre des démarches, des méthodes et outils divers. Dans ce contexte, les risques de dysfonctionnement de ce processus sont importants. Les conséquences de ces dysfonctionnements se traduisent par le non-respects d?objectifs de coût, de délais, et de qualité. La gestion de ces risques faisant partie de la mission d'un chef de projet, la mise en place de la qualité en conception doit passer, à l?image de la qualité en production, du concept de contrôle du résultat (la définition du produit) à la maîtrise du processus (le management du projet). Le processus de Conception de Produits Nouveaux est modélisé de manière à comprendre et à agir sur ses dysfonctionnements. Ce modèle de processus est ensuite validé sur plusieurs projets de conception de Produits Nouveaux. Ces expérimentations décrivent la complexité de la gestion de projet. Elles nous permettent de faire ressortir les aspects moteurs de la qualité dans le management du triplet"produit / projet / environnement" ainsi que les manques et les améliorations possibles de la démarche en matière de maîtrise des risques. Elles démontrent en particulier, la nécessité de maîtriser l?information tout au long du cycle de vie d?un produit.<br />Cette analyse nous permet de proposer un concept nouveau de management des risques projet, comprenant une méthode globale de management de l'information et des outils que nous avons appelé "A.P.R. Projet" et "A.M.D.E.C. Projet", extrapolés des techniques de Sûreté de Fonctionnement. Nous définissons ce concept, son champ d'application, ses méthodes et outils, ses avantages et ses limites. Une validation sur des cas de projets industriels est proposée. Nous envisageons enfin des axes de recherches pour développer cette méthode.
5

Évaluation des Performances des Mécanismes de Qualité de Service dans l'Internet

Alemu, Tigist 13 December 2004 (has links) (PDF)
Cette thèse s'intéresse à améliorer la qualité de service (QdS) offerte par des mécanismes de gestion de file d'attente tels que RED (Random Early Detection). Nous étudions une approche adaptative de RED appelée ARED. Notre but est de trouver un extension simple de ARED afin d'améliorer la prédictibilité des mesures de performance comme le délai, le temps de gigue sans pour autant sacrifier le taux de perte. Pour cela, nous proposons un nouveau mécanisme nommé PSAND qui configure les paramètres de RED et l'évaluons à l'aide de simulations. Nos résultats de la comparaison de PSAND avec ARED et d'autres schémas bien connus ou récemment proposés ont montré que avec une complexité moindre, PSAND donne un compromis désiré et de bonnes performances telles qu'un faible délai d'attente dans la file, une faible gigue et une plus grande stabilité en présence d'un fort trafic. Une autre contribution de cette thèse est l'étude de l'interaction de FEC (Forward Error Correction) avec des schémas comme Drop Tail et RED. Les résultats ont montré que selon la valeur des paramètres comme le nombre de flux TCP actifs, le taux de redondance et de la taille des blocs FEC parfois RED ou parfois Drop Tail donne de meilleures performances. Un modèle analytique ayant confirmé les résultats obtenus par simulations a également été présenté.
6

Indices de prix pour les services de la téléphonie mobile en France: Application de la méthode des prix Hédoniques

Karamti, Chiraz 05 1900 (has links) (PDF)
Le marché français de la téléphonie mobile se caractérise par des innovations continues, un accroissement de la qualité des services engendré par les progrès technologiques, une segmentation de l'offre et des chutes des prix suite à des changements tarifaires. La diversité des formules tarifaires et des types de prestations, s'ajoute à une tarification complexe et rendent difficile toute comparaison directe des prix. Ce travail de recherche porte ainsi sur la problématique que pose la mesure des variations de prix dans le secteur de la téléphonie mobile. Pour établir une comparaison significative des prix des formules tarifaires, celles-ci doivent être comparées en fonction de leurs caractéristiques intrinsèques. Dans cette perspective, la méthode des prix hédoniques est la seule méthode de construction d'indices qui permette de considérer un produit comme un panier de caractéristiques qui le composent. Ce travail s'inscrit ainsi dans le courant de recherche apparu récemment en statistique économique visant à étudier les apports de la modélisation hédonique dans les problèmes d'ajustement des indices de prix aux variations de la qualité pour les produits complexes. Nos travaux sont présentés en deux parties. La première partie analyse la théorie économique des nombres indices et discute les procédures d'ajustement des prix sur la qualité. Elle montre que l'approche hédonique permet de reformuler les indices traditionnels, biaisés par rapport à l'indice microéconomique à utilité constante, dans l'espace des caractéristiques. Ces indices peuvent de ce fait fournir des approximation à l'indice théorique lorsque les variations de la qualité sont prises en compte. Dans la seconde partie, après une analyse empirique des caractéristiques du marché, une modélisation hédonique des prix des services de la téléphonie mobile est développée. L'indice de prix hédoniques corrigé des variations de la qualité ainsi calculé met en évidence des fortes baisses des prix à l'année 1997. Cette baisse des prix, caractéristique des nouveaux produits, a contribué à dynamiser la demande et a constitué un levier important à la diffusion de la téléphonie mobile. Les niveaux des prix se sont toutefois stabilisés à compter de 1998 date à partir de laquelle la différenciation par la qualité est de moins en mois forte sur le marché. L'approche hédonique s'est avérée également un outil intéressant pour comparer entre elles les formules tarifaires du même opérateur ou d'opérateurs différents, à un instant donné; entre mêmes formules pour des opérateurs différents ou à des instants différents en tenant compte à la fois des caractéristiques de variété et de qualité. De ce point de vue, l'approche hédonique peut fournir un prix de référence pour le régulateur, en lui permettant de voir comment les opérateurs se positionnent par rapport aux prix hédoniques. D'autre part, pour les opérateurs, les prix hédoniques peuvent être utilisés comme instrument de veille concurrentielle. Enfin, pour les consommateurs, c'est un indicateur de comparaison entre les différentes formules tarifaires.
7

Gestion Flexible de la Qualité de Service dans les Orchestrations de Services Web

Kattepur, Ajay 08 November 2012 (has links) (PDF)
Les services Web sont des applications logicielles avec des implémentations hétérogènes, dont les interfaces et les incarnations peuvent être définis, décrits et découverts sur un réseau. Une orchestration de tels services Web fournit un flux de contrôle centralisé pour les services composites, qui peuvent invoquer d'autres services en utilisant une série de constructions (séquentielle, parallèle, avec des timeouts par exemple). L'objectif de cette thèse est d'étudier l'effet des paramètres de Qualité de Service (QoS) dans la performance et les obligations contractuelles de ces orchestrations. Tout d'abord, nous générons un modèle précis pour étudier la QoS probabiliste multi-dimensionnelle dans les services Web. Lorsque la dépendance des données est présente dans les orchestrations, les conditions pour assurer la monotonie sont nécessaires et sont intégrées. Nous présentons une algèbre riche pouvant gérer plusieurs dimensions de la QoS et fournir une composition de contrat probabiliste. Une conséquence de cela est l'entrelacement des paramètres de QoS en spécifications fonctionnelles des orchestrations, qui peut fournir d'autres fonctionnalités intéressantes comme l'ordonnancement causal d'un flux de contrôle d'orchestration. Ensuite, nous étudions les effets de ces modèles de QoS sur la gestion améliorée des SLAs (Service Level Agreement). Les applications de cette architecture de gestion de la QoS sont diverses et comprennent la prise en compte de la variabilité au sein de la gamme de produits, des progiciels mathématiques pour la prise de décision, des techniques de simulation avancées pour quantifier les contrats et des protocoles de négociation améliorés. Certaines de ces techniques sont implémentées au dessus d'Orc, un langage de programmation concurrente ayant des constructions pour gérer plusieurs aspects de spécifications d'orchestration.
8

évaluation de la véracité des données : améliorer la découverte de la vérité en utilisant des connaissances a priori / data veracity assessment : enhancing truth discovery using a priori knowledge

Beretta, Valentina 30 October 2018 (has links)
Face au danger de la désinformation et de la prolifération de fake news (fausses nouvelles) sur le Web, la notion de véracité des données constitue un enjeu crucial. Dans ce contexte, il devient essentiel de développer des modèles qui évaluent de manière automatique la véracité des informations. De fait, cette évaluation est déjà très difficile pour un humain, en raison notamment du biais de confirmation qui empêche d’évaluer objectivement la fiabilité des informations. De plus, la quantité d'informations disponibles sur le Web rend cette tâche quasiment impossible. Il est donc nécessaire de disposer d'une grande puissance de calcul et de développer des méthodes capables d'automatiser cette tâche.Dans cette thèse, nous nous concentrons sur les modèles de découverte de la vérité. Ces approches analysent les assertions émises par différentes sources afin de déterminer celle qui est la plus fiable et digne de confiance. Cette étape est cruciale dans un processus d'extraction de connaissances, par exemple, pour constituer des bases de qualité, sur lesquelles pourront s'appuyer différents traitements ultérieurs (aide à la décision, recommandation, raisonnement…). Plus précisément, les modèles de la littérature sont des modèles non supervisés qui reposent sur un postulat : les informations exactes sont principalement fournies par des sources fiables et des sources fiables fournissent des informations exactes.Les approches existantes faisaient jusqu'ici abstraction de la connaissance a priori d'un domaine. Dans cette contribution, nous montrons comment les modèles de connaissance (ontologies de domaine) peuvent avantageusement être exploités pour améliorer les processus de recherche de vérité. Nous insistons principalement sur deux approches : la prise en compte de la hiérarchisation des concepts de l'ontologie et l'identification de motifs dans les connaissances qui permet, en exploitant certaines règles d'association, de renforcer la confiance dans certaines assertions. Dans le premier cas, deux valeurs différentes ne seront plus nécessairement considérées comme contradictoires ; elles peuvent, en effet, représenter le même concept mais avec des niveaux de détail différents. Pour intégrer cette composante dans les approches existantes, nous nous basons sur les modèles mathématiques associés aux ordres partiels. Dans le second cas, nous considérons des modèles récurrents (modélisés en utilisant des règles d'association) qui peuvent être dérivés à partir des ontologies et de bases de connaissances existantes. Ces informations supplémentaires peuvent renforcer la confiance dans certaines valeurs lorsque certains schémas récurrents sont observés. Chaque approche est validée sur différents jeux de données qui sont rendus disponibles à la communauté, tout comme le code de calcul correspondant aux deux approches. / The notion of data veracity is increasingly getting attention due to the problem of misinformation and fake news. With more and more published online information it is becoming essential to develop models that automatically evaluate information veracity. Indeed, the task of evaluating data veracity is very difficult for humans. They are affected by confirmation bias that prevents them to objectively evaluate the information reliability. Moreover, the amount of information that is available nowadays makes this task time-consuming. The computational power of computer is required. It is critical to develop methods that are able to automate this task.In this thesis we focus on Truth Discovery models. These approaches address the data veracity problem when conflicting values about the same properties of real-world entities are provided by multiple sources.They aim to identify which are the true claims among the set of conflicting ones. More precisely, they are unsupervised models that are based on the rationale stating that true information is provided by reliable sources and reliable sources provide true information. The main contribution of this thesis consists in improving Truth Discovery models considering a priori knowledge expressed in ontologies. This knowledge may facilitate the identification of true claims. Two particular aspects of ontologies are considered. First of all, we explore the semantic dependencies that may exist among different values, i.e. the ordering of values through certain conceptual relationships. Indeed, two different values are not necessary conflicting. They may represent the same concept, but with different levels of detail. In order to integrate this kind of knowledge into existing approaches, we use the mathematical models of partial order. Then, we consider recurrent patterns that can be derived from ontologies. This additional information indeed reinforces the confidence in certain values when certain recurrent patterns are observed. In this case, we model recurrent patterns using rules. Experiments that were conducted both on synthetic and real-world datasets show that a priori knowledge enhances existing models and paves the way towards a more reliable information world. Source code as well as synthetic and real-world datasets are freely available.
9

La conduite du changement par la qualité dans un contexte socioculturel. Essai de modélisation systémique et application à l'entreprise marocaine

Nouiga, Mohammed 10 January 2003 (has links) (PDF)
Si les principes de la qualité et de l'excellence paraissent universels, leur mise en oeuvre ne peut être que locale en fonction de la diversité et des spécificités des cultures. En effet, chaque entreprise développe à sa façon son processus de mise en oeuvre parce qu'elle ne dispose pas de démarche pour prendre en compte la dimension socioculturelle. Jusqu'à présent on s'est attaché beaucoup plus à poser des problèmes qu'à proposer une démarche de leur résolution. La démarche qualité étant un projet de changement, nous postulons que pour réussir ce changement, il faut impliquer le personnel à tous les niveaux de l'organisation et prendre en compte la dimension socioculturelle.<br />La conduite du changement par la qualité dans un contexte socioculturel est un processus complexe. Une modélisation systémique des systèmes " Equipes Qualité " permet de comprendre le phénomène de l'implication du personnel en vue de l'action. De même, une approche systémique de la culture permet par un ensemble de dimensions culturelles de caractériser la culture nationale, la culture d'entreprise et la culture qualité. La comparaison entre la culture existante et la culture qualité dégage des leviers qu'il faut utiliser et des résistances dont il faut tenir compte pour conduire le changement par la qualité.<br />Nos travaux de recherche qui ont comme champ d'expérimentation deux entreprises marocaines, un grand groupe industriel et minier et une entreprise moyenne de BTP, montrent que la dimension socioculturelle joue un rôle important dans la mise en oeuvre de la démarche Qualité. Ces travaux ont permis de concevoir un modèle systémique, générique et prescriptible impliquant le personnel à tous les niveaux et prenant en compte la dimension socioculturelle. Ce modèle est dédié aux acteurs du changement, responsables d'entreprise et chefs de projets qualité pour les aider à conduire le changement par la qualité dans leurs entreprises.
10

Analysis of dioxins and related compounds in biological samples using mass spectrometry: from method development to analytical quality assurance

Eppe, Gauthier 14 September 2007 (has links)
The quality of food is an increasingly important matter of concern in Europe. The feeding stuffs poisoning episode that occurred in Belgium in May 1999 pointed out the vulnerability of the food chain and the lack of appropriate monitoring. Polychlorinated dibenzo-p-dioxins and dibenzofurans (PCDD/Fs) and polychlorobiphenyls (PCBs) were the key contaminants involved. This has triggered new EU legislation, including maximum and action limits for relevant food and feed products as well as requirements for analytical method used to verify compliance. Large monitoring programs to test food and feed have been launched and, in many countries, efforts to monitor dioxins and related compounds strongly increased. To cope with the large number of samples statistically required for monitoring, the recommanded strategy involves the use of screening methods based on low resolution mass spectrometry (LRMS) and/or bio-assays, and high resolution mass spectrometry (HRMS) method, used to bear out their presence. Major analytical challenges had to be met to face with the large number of samples including the authoritys requests on developing screening and alternative methods for monitoring programs of PCDD/Fs and PCBs in food and feed. The first part of this document is devoted to the development of an alternative LRMS-based method for PCDD/Fs and PCBs measurement in food and feed. The second part of this thesis is an answer to the basic questions commonly addressed to all analytical chemists developing method but here in a particular context due to very specific family of compounds involved: How to make sure that my method is able to achieve sufficient accuracy on results? Are there any analytical benchmarks available for validation purposes? How to evaluate measurement uncertainty expressed in toxic equivalent (TEQ) units? How to report results right? How can the proficiency of my laboratory be measured? To ensure the quality of data obtained, laboratories in charge of the food control on PCDD/Fs and dioxin-like PCBs encounter a number of severe problems. One has to mention the lack of sufficient and reliable certified reference materials that are necessary to validate methods, too scarce data available on current analytical method performances, and the absence of quality criteria approach for analytical method. During the course of this work, I contributed to answer these questions to the general analytical effort by providing useful tools and methodologies. At that time, straightforward answers could not be found in the scientific literature. One of the reasons was the scarce data of dioxins in food and feed available. One can also mention the unusual part the dioxins play in chemical analysis. Indeed, the main features that characterize a dioxin measurement are the low levels at which these compounds occur in biological samples (sub parts-per-trillion), levels that are currently not explored by any other applications in chemical analysis in the food sector and therefore the difficulty to cope with precision models available; the reporting of results expressed in total tetrachloro dibenzo-p-dioxin (TCDD) toxic equivalent concentration for compliance assessment with statutory limits; and, what necessarily follows from the decision-making: the statement of the uncertainty interval also expressed in toxic units. To answer the foregoing questions in an international frame, notions such as validation of analytical procedures, fitness for purpose, internal quality control, interlaboratory studies, proficiency testing, measurement uncertainty, traceability had to be introduced. They are all encompassed in the analytical quality assurance management a laboratory should implement. These concepts are strongly connected to statistical techniques. This branch of analytical chemistry that consists in extracting relevant information from data using statistical and mathematical methods adapted to the specific needs for the chemists is called chemometrics. Quality is an essential preoccupation of chemometrics but it cannot be only limited to these aspects. Chemometrics relates also to other topics such as experiments and experimental design methodologies, (new) knowledge about chemical systems. Chemometrics and quality This thesis treats several aspects and new approaches of quality assurance for an ultra-trace contaminant laboratory: external method validation through interlaboratory studies and estimation of repeatability, reproducibility and trueness using simple statistics based on normal distributions (ISO 5725) but also more complex statistical tests for heavily tailed, skewed or even bimodal distributions; the production and the use of a reference material for internal validation and internal quality control (QC) purposes; advanced statistics in quality control chart and multi-level control charts for sensitive detection of bias; proposal of quality criteria for assessment of proficiency of dioxin laboratories; proposal of benchmark precision for internal validation purposes; estimation of measurement uncertainty. The thesis is divided in the following chapters: Chapter 1 is a general introduction for dioxins and related compounds. It consists of a brief introduction to general characterization, mechanism of toxicity, human exposure and European legislation in food and feed. Chapter 2 provides an overview of the analytical procedures for mass spectrometry based methods. It gives a brief summary of the most frequently used techniques to extract and purify PCDDs, PCDFs and dioxin-like PCBs (DL-PCBs) from food and feed matrices. Regarding detection, special attention of the principles of detection and quantification by HRMS in selected ion monitoring mode (SIM) and the quadrupole ion storage low resolution mass spectrometer in MS/MS mode is addressed. Chapter 3 discusses the development and optimization of a large volume injection (LVI)-gas chromatography (GC)-ion trap MS/MS method as an alternative to GC-HRMS for the measurement of PCDD/Fs in food and feed. Instrumental detection limits were lowered by a factor 2 to 3 with the development, in collaboration with the manufacturer, of a system of damping gas pressure inside the trap that improves precursor ions trapping efficiency. We achieved 5:1 signal to noise with the injection of 200 fg of 2,3,7,8 TCDD. With slight adjustments to sample size and final extract volume, we demonstrated on QC samples the good agreement between this method and the reference GC/HRMS method for PCDD/Fs and DL-PCBs in food and feed. In chapter 4, the first European inter-laboratory study on dioxins, furans and dioxin-like PCBs using the HRGC/HRMS method in animal feed samples is described with two main objectives. The first objective was to produce a reference material for internal validation and QC purposes. The second objective was to assess the analytical performances of the GC-HRMS method close to maximum levels as no data were available at that time and to check whether EU directives requirements were met. Chapter 5 is a general discussion on the capability of the state-of-the-art HRGC/HRMS method to provide reliable results at decreasing maximum levels. Levels have to decrease according to EU policy regarding human exposure to those contaminants. In this case, we present the issue from a different angle, i.e. the analytical point of view for the future establishment of target levels. Based on the results of PCDD/Fs and DL-PCBs interlaboratory study in animal feedingstuffs described in chapter 4, we demonstrated for the sum of the 17 PCCD/Fs toxic congeners that reliable results can be easily provided up to a value of 0.17 ng WHO-TEQ/kg. The ability to reliably quantify a minute trace of these contaminants has been pointed out with the aim of providing an analytical benchmark for the future establishment of target dioxin levels in animal feedingstuffs. Hence, both analytical and toxicological aspects should be examined together to set realistic target levels achievable for most dioxin laboratories involved in monitoring programs. One of the central themes of this thesis is the establishment of an empirical relationship between reproducibility standard deviation and the dioxin congeners level in food and feed. Chapter 6 deals with raw data from numerous performances interlaboratory studies of PCDD/Fs and DL-PCBs in food and feed. Striking linear functions in log scale between reproducibility standard deviation and congeners level over a concentration range of 10-8 to 10-14 g per g fresh weight were observed. The data fit very well to a Horwitz-type function of the form sR = 0.153c0.904, where sR and c are dimensionless mass ratios expressed in pg/g on fresh weight, regardless of the nature of the toxic congeners, food and feed matrices, or sample preparation methods. I called this relationship the dioxin function. One of the main features of the dioxin function could be its use as a suitable fitness-for-purpose criterion for dioxins and related compounds in proficiency testing (PT) exercises. We illustrated its use with practical example with data from the largest international PT in this field. Another application is its use as benchmark precision criteria for internal validation. Chapter 7 discusses the role of internal quality control (IQC) to monitor analytical processes. Introducing new QC methods derived from the industrial practice to analytical chemistry, improving data evaluation and allowing to detect shifts or trends, are elements that are difficult to point out with classical approach (Shewhart chart). The importance of ARL (average run length) as a key-criteria of the efficiency of a quality control procedure will be emphasized. The introduction of the multivariate approach of multilevel control with the Hotelling's T2-test will lead to a better detection of random errors than the independently managed conventional Shewhart charts. Moreover, the Exponentially Weighted Moving Average (EWMA) will offer a flexible tool for detecting the inacurracy of a method, especially where small shifts or bias are of interest. All these concepts, recently introduced in clinical chemistry, were applied here for the monitoring of PCDD/Fs and DL-PCBs in food and feed. Chapter 8 introduces the concept of measurement uncertainty (MU). Three top-down approaches for uncertainty estimation are proposed on the example of the GC-HRMS method for PCDD/Fs and DL-PCBs in various food and feed matrices: the approach which combines long-term precision and trueness data to obtain an estimate of MU (Barwick and Ellision method); the approach which uses the reproducibility estimate from interlaboratory-studies as uncertainty estimate; the concept of accuracy profile used in the context of validation and internal quality control to assess MU. Chapter 9 presents a general conclusion

Page generated in 0.0321 seconds