201 |
Fusion de décisions dédiée à la surveillance des systèmes complexes / Decision fusion dedicated to the monitoring of complex systemsTidriri, Khaoula 16 October 2018 (has links)
Le niveau de complexité croissant des systèmes et les exigences de performances et de sûreté de fonctionnement qui leur sont associées ont induit la nécessité de développer de nouvelles approches de surveillance. Les travaux de cette thèse portent sur la surveillance des systèmes complexes, notamment la détection, le diagnostic et le pronostic de défauts, avec une méthodologie basée sur la fusion de décisions. L’objectif principal est de proposer une approche générique de fusion de diverses méthodes de surveillance, dont la performance serait meilleure que celles des méthodes individuelles la composant. Pour cela, nous avons proposé une nouvelle démarche de fusion de décisions, basée sur la théorie Bayésienne. Cette démarche s’appuie sur une déduction théorique des paramètres du Réseau Bayésien en fonction des objectifs de performance à atteindre en surveillance. Le développement conduit à un problème multi-objectif sous contraintes, résolu par une approche lexicographique. La première étape se déroule hors-ligne et consiste à définir les objectifs de performance à respecter afin d’améliorer les performances globales du système. Les paramètres du réseau Bayésien permettant de respecter ces objectifs sont ensuite déduits de façon théorique. Enfin, le réseau Bayésien paramétré est utilisé en ligne afin de tester les performances de la fusion de décisions. Cette méthodologie est adaptée et appliquée d’une part à la détection et au diagnostic, et d’autre part au pronostic. Les performances sont évaluées en termes de taux de diagnostic de défauts (FDR) et taux de fausses alarmes (FAR) pour l’étape de détection et de diagnostic, et en durée de fonctionnement avant la défaillance du système (RUL) pour le pronostic. / Nowadays, systems are becoming more and more complex and require new effective methods for their supervision. This latter comprises a monitoring phase that aims to improve the system’s performances and ensure a safety production for humans and materials. This thesis work deals with fault detection, diagnosis and prognosis, with a methodology based on decisions fusion. The main issue concerns the integration of different decisions emanating from individual monitoring methods in order to obtain more reliable results. The methodology is based on a theoretical learning of the Bayesian network parameters, according to monitoring objectives to be reached. The development leads to a multi-objective problem under constraints, which is solved with a lexicographic approach. The first step is offline and consists of defining the objectives to be achieved in order to improve the overall performance of the system. The Bayesian network parameters respecting these objectives are then deduced theoretically. Finally, the parametrized Bayesian network is used online to test the decision fusion performances. These performances are evaluated in terms of Fault Diagnostic Rate (FDR) and False Alarm Rate (FAR) for the detection and diagnosis stage, and in terms of Remaining Useful Life (RUL) for the prognosis.
|
202 |
Détection d’anomalies dans les séries temporelles : application aux masses de données sur les pneumatiques / Outlier detection for time series data : application to tyre dataBenkabou, Seif-Eddine 21 March 2018 (has links)
La détection d'anomalies est une tâche cruciale qui a suscité l'intérêt de plusieurs travaux de recherche dans les communautés d'apprentissage automatique et fouille de données. La complexité de cette tâche dépend de la nature des données, de la disponibilité de leur étiquetage et du cadre applicatif dont elles s'inscrivent. Dans le cadre de cette thèse, nous nous intéressons à cette problématique pour les données complexes et particulièrement pour les séries temporelles uni et multi-variées. Le terme "anomalie" peut désigner une observation qui s'écarte des autres observations au point d'éveiller des soupçons. De façon plus générale, la problématique sous-jacente (aussi appelée détection de nouveautés ou détection des valeurs aberrantes) vise à identifier, dans un ensemble de données, celles qui différent significativement des autres, qui ne se conforment pas à un "comportement attendu" (à définir ou à apprendre automatiquement), et qui indiquent un processus de génération différent. Les motifs "anormaux" ainsi détectés se traduisent souvent par de l'information critique. Nous nous focalisons plus précisément sur deux aspects particuliers de la détection d'anomalies à partir de séries temporelles dans un mode non-supervisé. Le premier est global et consiste à ressortir des séries relativement anormales par rapport une base entière. Le second est dit contextuel et vise à détecter localement, les points anormaux par rapport à la structure de la série étudiée. Pour ce faire, nous proposons des approches d'optimisation à base de clustering pondéré et de déformation temporelle pour la détection globale ; et des mécanismes à base de modélisation matricielle pour la détection contextuelle. Enfin, nous présentons une série d'études empiriques sur des données publiques pour valider les approches proposées et les comparer avec d'autres approches connues dans la littérature. De plus, une validation expérimentale est fournie sur un problème réel, concernant la détection de séries de prix aberrants sur les pneumatiques, pour répondre aux besoins exprimés par le partenaire industriel de cette thèse / Anomaly detection is a crucial task that has attracted the interest of several research studies in machine learning and data mining communities. The complexity of this task depends on the nature of the data, the availability of their labeling and the application framework on which they depend. As part of this thesis, we address this problem for complex data and particularly for uni and multivariate time series. The term "anomaly" can refer to an observation that deviates from other observations so as to arouse suspicion that it was generated by a different generation process. More generally, the underlying problem (also called novelty detection or outlier detection) aims to identify, in a set of data, those which differ significantly from others, which do not conform to an "expected behavior" (which could be defined or learned), and which indicate a different mechanism. The "abnormal" patterns thus detected often result in critical information. We focus specifically on two particular aspects of anomaly detection from time series in an unsupervised fashion. The first is global and consists in detecting abnormal time series compared to an entire database, whereas the second one is called contextual and aims to detect locally, the abnormal points with respect to the global structure of the relevant time series. To this end, we propose an optimization approaches based on weighted clustering and the warping time for global detection ; and matrix-based modeling for the contextual detection. Finally, we present several empirical studies on public data to validate the proposed approaches and compare them with other known approaches in the literature. In addition, an experimental validation is provided on a real problem, concerning the detection of outlier price time series on the tyre data, to meet the needs expressed by, LIZEO, the industrial partner of this thesis
|
203 |
Effective signal processing methods for robust respiratory rate estimation from photoplethysmography signal / Estimation robuste de la fréquence respiratoire par traitement et analyse du signal de photoplethysmographieCherif, Safa 12 October 2018 (has links)
Le photopléthysmogramme (PPG) est un signal optique acquis à partir de l’oxymètre de pouls, dont l’usage principal consiste à mesurer la saturation en oxygène. Avec le développement des technologies portables, il est devenu la technique de base pour la surveillance de l’activité cardio-respiratoire des patients et la détection des anomalies. En dépit de sa simplicité d'utilisation, le déploiement de cette technique reste encore limité pour deux principales raisons : 1. L’extrême sensibilité du signal aux distorsions. 2. La non-reproductibilité entre les sujets et pour les mêmes sujets, en raison de l'âge et des conditions de santé. L’objectif de cette thèse est le développement de méthodes robustes et universelles afin d’avoir une estimation précise de la fréquence respiratoire (FR) indépendamment de la variabilité intra et interindividuelle du PPG. Plusieurs contributions originales en traitement statistiques du signal PPG sont proposées. En premier lieu, une méthode adaptative de détection des artefacts basée sur la comparaison de modèle a été développée. Des tests par la technique Random Distortion Testing sont introduits pour détecter les pulses de PPG avec des artefacts. En deuxième lieu, une analyse de plusieurs méthodes spectrales d’estimation de la FR est proposée. Afin de mettre en évidence la robustesse des méthodes proposées face à la variabilité du signal, plusieurs tests ont été effectués sur deux bases de données avec de différentes tranches d'âge et des différents modes respiratoires. En troisième lieu, un indice de qualité respiratoire spectral (SRQI) est conçu dans le but de communiquer au clinicien que les valeurs fiables de la FR avec un certain degré de confiance. / One promising area of research in clinical routine involves using photoplethysmography (PPG) for monitoring respiratory activities. PPG is an optical signal acquired from oximeters, whose principal use consists in measuring oxygen saturation. Despite its simplicity of use, the deployment of this technique is still limited because of the signal sensitivity to distortions and the non-reproducibility between subjects, but also for the same subject, due to age and health conditions. The main aim of this work is to develop robust and universal methods for estimating accurate respiratory rate regardless of the intra- and inter-individual variability that affects PPG features. For this purpose, firstly, an adaptive artefact detection method based on template matching and decision by Random Distortion Testing is introduced for detecting PPG pulses with artefacts. Secondly, an analysis of several spectral methods for Respiratory Rate (RR) estimation on two different databases, with different age ranges and different respiratory modes, is proposed. Thirdly, a Spectral Respiratory Quality Index (SRQI) is attributed to respiratory rate estimates, in order that the clinician may select only RR values with a large confidence scale. Promising results are found for two different databases.
|
204 |
Optimisation du protocole de recherche des Escherichia coli producteurs de Shiga-toxines (STEC) dans les aliments / Optimisation of shiga toxin producing escherichia coli (STEC) research protocol in foodSavoye, Fanny 28 March 2011 (has links)
Les Escherichia coli producteurs de Shiga-toxines (STEC) sont des agents pathogènes importants émergents en santé publique. Ces bactéries sont à l’origine des épidémies de colites hémorragiques et de syndrome hémolytique et urémique (SHU). La grande majorité des cas est liée à la consommation d’aliments contaminés par un type particulier de STEC appelés E. coli entérohémorragiques (EHEC) parmi lesquels on trouve les sérogroupes définis comme pathogènes par l’AFSSA : O26, O103, O111, O145 et O157.Les bovins ont depuis longtemps été identifiés comme un important réservoir de STEC. Bien que la transmission des STEC à l'homme soit fréquemment associée à la consommation de viande, les produits laitiers ont également été impliqués dans les cas humains. Le développement de méthodes rapides pour la détection des STEC les plus impliqués en pathologie humaine est donc essentiel pour assurer la sécurité des produits alimentaires. Cependant, la détection des STEC dans les aliments est problématique principalement en raison de la diversité des sérogroupes de STEC et de l'absence de caractéristiques biochimiques communes permettant de les distinguer des autres E. coli.L'objectif de cette thèse était d’optimiser le protocole de détection des STEC dans les aliments de manière à pouvoir proposer aux industriels des protocoles leur permettant une réelle maîtrise du « danger STEC » dans leur filière.Pour se faire, nous sommes intervenus à différentes étapes du protocole. Nous avons notamment sélectionné un milieu d’enrichissement permettant la détection des E. coli O26 dans les fromages au lait cru : EPT+ acriflavine + CT. Nous avons également évalué les performances d’une méthode de détection des E. coli O157 :H7 (VIDAS ECPT UP) dans la viande de boeuf. Cette nouvelle technique est basée sur l’utilisation de protéines recombinante de phage qui ciblent spécifiquement les E. coli O157. A travers cette étude, nous avons démontré la possibilité d’avoir des temps d’enrichissement minimes pour l’analyse d’échantillon de 25g (6h) et la faisabilité d’analyser des échantillons de 375g avec un ratio de dilution de ¼ et un enrichissement de 24h. Enfin nous nous sommes intéressés à l’étape de confirmation en mettant au point un test d’immuno-concentration automatisé (utilisant des protéines de phages spécifiques de nos bactéries cibles) permettant d’immuno-concentrer les 5 sérogroupes les plus connus de STEC (O26, O103, O111, O145 et O157) en une seule fois / Enterohemorrhagic Escherichia coli (EHEC) are an important subset of Shiga toxin–producing E. coli (STEC) associated with foodborne infections. These bacteria can cause hemorrhagic diarrhoeal disease and Haemolytic and Uremic Syndrome which are associated with some predominant serotypes defined by AFSSA institute: O26, O103, O111, O145 and O157.Cattle are the primary reservoir of STEC. Although STEC transmission to humans is frequently associated with consumption of meat, dairy products have also been implicated in human cases. Sensitive and rapid detection methods for STEC are essential for the food industry to ensure a safe food supply. However, the detection of STEC in foods is problematic because it’s an heterogeneous group which displays a broad range of both genotypic and phenotypic differences.The aim of this thesis was to optimize the research protocol of STEC strains in food in order to provide some protocols to the industries for improving risk management protocol.So, we involved in different steps of the protocol: the enrichment of E. coli O26 allowing their detection in raw milk cheeses after 24 h enrichment in EPT+ acriflavine + cefixime-tellurite. Then, we evaluated the VIDAS ECPT UP performances’ for the detection of E. coli O157: H7 in raw ground beef. Through this study, we showed the ability to reduce enrichment time for sample analysis of 25g (6h) and the feasibility of analyzing samples of 375g with a sample to broth ratio of ¼ after 24h enrichment. Thereafter we looked at the confirmation step. We developed and optimized automated VIDAS immuno-concentration of E. coli O157, O26, O103, O111 and O145 (VIDAS ESPT) with the use of recombinant phage proteins for capture
|
205 |
Contribution au développement d'un système de surveillance des structures en génie civilFrigui, Farouk Omar 13 July 2018 (has links) (PDF)
Ce travail s’inscrit dans le cadre de la mise en place d’une stratégie de SHM (Structural Health Monitoring) dédiée à la surveillance des structures en génie civil. Il a porté, d’une part, sur l’étude des méthodes de détection et de localisation de l’endommagement du bâti existant et, d’autre part, sur l’élaboration du cahier des charges d’un capteur « intégré » capable de délivrer des informations par transmission compacte des données pour les communiquer à une chaîne SHM. Des études numériques et expérimentales ont été réalisées dans cet objectif. L’état de l’art a clairement mis en évidence plusieurs points faibles des méthodes de détection et de localisation d’endommagements usuelles comme, par exemple, le manque de précision et/ou la complexité de mise en place. On observe aussi que la sensibilité de ces méthodes par rapport à plusieurs paramètres, essentiellement la direction de mesure, le positionnement des capteurs et la sévérité des endommagements, ne permet pas à ce jour de dresser un diagnostic précis de l’état de santé des structures. Pour répondre au cahier des charges d’une chaîne SHM, un Algorithme de Détection et de Localisation (ADL) a été élaboré. Cet algorithme fait appel à des méthodes utilisant les paramètres modaux, essentiellement les fréquences propres et les déformées modales. Leurs mises en œuvre séquentielles et itératives, judicieusement structurées et pilotées,a permis de répondre aux objectifs fixés. Les paramètres modaux requis sont identifiés à l’aide des techniques d’Analyse Modale Opérationnelle (AMO) et à partir de la réponse en accélérations des structures. Deux algorithmes d’AMO ont été utilisés pour leur efficacité et pour leur aptitude à l’automatisation: la méthode stochastique par sous ensemble (SSI), et la méthode de décomposition dans le domaine fréquentiel (FDD). En fusionnant les algorithmes d’AMO avec l’ADL, une chaîne complète de surveillance a été créée. La validation des algorithmes et de la chaîne de surveillance s’est faite à plusieurs niveaux. Tout d’abord, basés sur la théorie des éléments finis, des modèles numériques de la tour de l'Ophite et du pont canadien de la Rivière aux-Mulets ont permis d'évaluer l'ADL. Ces modèles sont endommagés par des signaux sismiques et fournissent les données accélérométriques, données d’entrée du logiciel que nous avons développé. Les résultats obtenus sont tout à fait satisfaisants voire meilleurs que ceux issus des méthodes usuelles. Dans un second temps, nous avons traité des données expérimentales «réelles », issues des mesures accélérométriques sur la tour de l’Ophite. La confrontation entre les résultats d’identification des fréquences propres et des déformées modales issus des algorithmes d’AMO et ceux reportés par la bibliographie, a révélé l’efficacité des algorithmes développés.Enfin, une maquette d’un bâtiment à échelle réduite a également été élaborée et instrumentée.L’application de la chaine de surveillance a permis, d’une part, de détecter et localiser l’endommagement introduit dans la structure et, d’autre part, de mettre en évidence l’intérêt de la surveillance automatique. Finalement, une étude a été menée dans le but de réduire la quantité d’informations enregistrées sur les structures et de faciliter le transfert des données servant comme entrées de la chaîne de surveillance. Les résultats de ces études ont contribué à la spécification d’un nouveau système de surveillance
|
206 |
Diagnostic sans modèle a priori / Fault diagnosis without a priori modelMoussa Ali, Abdouramane 20 April 2011 (has links)
Le diagnostic des systèmes automatiques consiste à remonter des symptômes perçus vers les causes. Les méthodes de diagnostic à base de modèle utilisent un modèle mathématique explicite du processus. Les synthèses modernes de génération de résidus demandent une connaissance très fine du système à commander ou à diagnostiquer. L'écriture des modèles les plus précis demande une compréhension en détail des mécanismes et utilise les lois de la Physique. Les modèles obtenus de cette façon font intervenir des paramètres physiques qui, par définition, sont mesurables par des expériences non nécessairement en rapport avec la façon d'utiliser le système. Cependant, dans certains cas pratiques, ces paramètres ne peuvent pas être évalués a priori. Par ailleurs, la fiabilité donnée par les modèles de connaissance est en général accompagnée par l'inconvénient d'une trop grande complexité. Ce travail contribue à développer une nouvelle approche algébrique et déterministe de diagnostic qui ne suppose pas l'existence a priori d'un modèle explicite du système et qui présente un nouveau point de vue basé sur la théorie des distributions et l'analyse du pseudospectre de faisceaux de matrices. Notre démarche s'inspire de certains outils et développements de la théorie de l'estimation algébrique courants en automatique mais très peu usuels en traitement du signal. Le principal atout de cette approche est qu'il est possible, sous certaines hypothèses, de détecter, localiser et identifier les défauts à l'aide des seules mesures de la commande et de la sortie sans avoir à identifier les paramètres du modèle / The fault diagnosis in automatic systems is to trace perceived symptoms to causes. Most of model-based methods are based on the concept of analytical redundancy. The analytical redundancy relations are equations derived from an analytical model, which admits as input only the measured variables. Other classes of model-based methods are based directly on the parameter estimate. The modern syntheses of residuals generation require very detailed knowledge of system to control or to diagnose. Writing the most accurate models require a deep understanding of mechanisms and uses law of physics. The models obtained this way are called knowledge-based models. They involve physical parameters which, by definition, are measurable by experiments which are not necessarily related to how to use the system. However, in some practical cases, these parameters can be evaluated a priori. Moreover, the reliability provided by the knowledge-based models is usually accompanied by the disadvantage of excessive complexity. These models may not be used in practice and we must often reduce the complexity. This work contributes to develop a new algebraic and deterministic approach of fault diagnosis, which is not based on an a priori explicit model of the process and presents a new perspective based on the theory of distributions and the pseudospectra analysis of matrix pencils. Our approach is based on certain tools and developments in the theory of algebraic estimation usual in automatic community but very unconventional in signal processing
|
207 |
Des fondements de la virologie informatique vers une immunologie formelle / From the computer virology fudments toward a formal immunologyKaczmarek, Matthieu 03 December 2008 (has links)
Cette thèse aborde trois thèmes : la formalisation de la virologie informatique, l'élaboration de protections contre l'auto-reproduction et le problème de la détection des programmes malicieux. Nous proposons une formalisation s'appuyant sur les fondements de l'informatique théorique et sur les travaux fondateurs de la discipline. Nous obtenons un formalisme souple où le théorème de récursion prend le rôle d'un compilateur de virus informatiques. Ce théorème trouve alors la place qui lui manquait encore dans la théorie de la programmation. Ce formalisme nous fournit des bases suffisamment solides pour étudier de nouvelles stratégies de protection. Dans un premier temps nous nous intéressons aux relations qu'entretiennent auto-reproduction et capacités de calcul afin d'identifier un modèle raisonnable où l'auto-reproduction est impossible. Ensuite nous exposons deux stratégies construite sur la complexité de Kolmogorov, un outil de l'informatique théorique reliant la sémantique et la syntaxe concrète d'un langage de programmation. Le thème de la détection comporte deux parties. La première traite de la difficulté de la détection des virus informatiques : nous identifions les classes de la hiérarchie arithmétique correspondant à différents scénarios d'infections informatiques. La seconde partie aborde des aspects plus pratiques en décrivant l'architecture d'un détecteur de programmes malicieux conçu durant cette thèse. Ce prototype utilise une détection morphologique, l'idée est de reconnaître la forme des programmes malicieux en utilisant des critères syntaxiques et sémantiques / This dissertation tackles three topics: the formalization of the computer virology, the construction of protections against self-reproduction and the issue of malware detection. We propose a formalization that is based over computer science foundations and over the founder works of the discipline. We obtain a generic framework where the recursion theorem takes a key role. This theorem is seen as computer virus compiler, this approach provides a new programming perspective. The sound basis of this framework allows to study new protection strategies. First, we analyze the relations between the notion of self-reproduction and the computation capabilities. We aims at identifying a reasonable model of computation where self-reproduction is impossible. Then we propose two defense strategies based on the Kolmogorov complexity, a tool which relates the semantics to the concrete syntax of programming languages. We treat the issue of malware detection in two steps. First, we study the difficulty related to the detection of several scenarios of computer infection. Second, we present a malware detector that was designed during the thesis. It is based on a morphological detection which allies syntaxical and semantical criteria to identify the shapes of malware
|
208 |
Estimation d'état et diagnostic de systèmes à commutation par filtrage multi-modèle / Sate estimation and diagnosis of switching systems by multiple model estimatorsHocine, Abdelfettah 08 December 2006 (has links)
Ce travail concerne la détection de défauts sur les systèmes sujets à des changements de mode de fonctionnement. Le système réel est modélisé par un système à commutation markovienne qui est représenté par un ensemble de modèles de fonctionnement (fonctionnements normaux et anormaux) et par une matrice de probabilité de transition de Markov qui contient les probabilités de passage d'un modèle de fonctionnement à un autre. Cette représentation offre un cadre idéal à l'application des méthodes d'estimation multi-modèle. L'intérêt d'utiliser ce type d'estimateurs réside dans le fait qu'en plus de l'estimation de l'état du système, les estimateurs multi-modèles procurent la probabilité d'occurrence ou d'activation de chaque modèle de fonctionnement. Ces probabilités peuvent alors être utilisées pour la détection de défaut. Dans ce travail, nous avons utilisé les spécificités de l'estimation multi-modèle afin de procéder à la détection et l'isolation des défauts qui peuvent affecter un système linéaire. Plusieurs améliorations et aménagements ont été apportés à ce type d’estimateurs dans le but d'augmenter les performances du diagnostic / In this thesis, a fault detection method is developed for switching dynamic systems. These systems are represented by several linear models, each of them being associated to a particular operating mode. The proposed method is based on mode probabilities with the aim of finding the system operating mode and estimating the state. The method also uses a priori knowledge information about the mode transition probabilities represented by a Markov chain. This kind of model offers an ideal framework to the application of the multiple model estimation methods. The interest to use this type of estimators lies in the fact that in addition to the state estimation, the multiple model estimators get the probability activation of each model. These probabilities can be used for fault detection purpose. However, several improvements were made to this type of estimators in order to increasing the performances of the diagnosis
|
209 |
Nouvelles stratégies de détection de la contamination bactérienne des concentrés de plaquettes / New strategies for detection of bacterial contamination of platelet concentratesChetouane, Yasmine 05 July 2018 (has links)
La contamination bactérienne des concentrés plaquettaires (CPs) représente le risque le plus fréquent d'infection transmise par transfusion. Malgré les progrès techniques accomplis dans le dépistage des agents infectieux, le risque de transmission de ces agents par transfusion ne peut encore être considéré comme totalement maîtrisé. Nous avons pu développer une méthode de détection par la technique de MALDI-TOF. Notre protocole permet une détection dans un délai de 8 heures à de faibles concentrations bactériennes.Nous avons évalué les performances d’un automate d’hémoculture, le VersaTREK, par rapport au Bactec, qui est fréquemment utilisé par les centres de transfusion. Nos résultats démontrent son intérêt dans la détection de la contamination bactérienne des CPs. Afin de caractériser l’origine de la contamination bactérienne, nous avons comparé, dans une étude rétrospective, les espèces bactériennes identifiées dans les hémocultures des patients de l’hôpital de la Timone, à celles identifiées dans des poches de CPs contaminés. Les espèces responsables de la contamination des CPs sont essentiellement issues de la flore cutanée. Elles sont donc différentes des espèces responsables d’épisodes de bactériémies.Ainsi, ce travail propose de nouvelles méthodes de détection de la contamination bactérienne. La mise en œuvre de ces nouvelles stratégies de diagnostic couplées à une meilleure connaissance de la prévalence et de l’origine de la contamination bactérienne des CPs pourrait permettre d’améliorer davantage la prévention et la réduction de la morbi-mortalité induite par une transfusion de CPs. / Bacterial contamination of platelet concentrates (PCs) is the most common risk of transfusion-transmitted infection. Despite better control of the elements of the technical progress achieved in the detection of infectious agents, the risk of transmission of these agents by transfusion cannot yet be considered as totally mastered. We have developed a method for detecting PCs contamination by MALDI-TOF. To the best of our knowledge, this is the first time that MALDI-TOF is used in the detection of microbial contamination in a complex medium such as PCs. Our protocol allows detection within 8 hours at low bacterial concentrations. In a second step, we evaluated the performance of a blood culture machine, VersaTREK®, compared to Bactec®, frequently used by transfusion centers. Our results demonstrate its interest in the detection of bacterial contamination of PCs. In order to characterize the origin of bacterial contamination of PCs, we compared in a retrospective study, bacterial species identified in patients' blood cultures treated at the Timone hospital, with those identified in infected PC units. The species responsible for the contamination of the PCs are mainly resulting from the cutaneous flora and are therefore different from the species responsible for episodes of bacteremia.Thus, this work proposes new methods for detecting bacterial contamination. The implementation of these new diagnostic strategies coupled with a better knowledge of the prevalence and origin of bacterial contamination of PCs could further improve the prevention and reduction of both morbidity and mortality induced by blood transfusion of PCs.
|
210 |
Certification de l'intégrité d'images numériques et de l'authenticité / Certification of authenticity and integrity of digital imagesNguyen, Hoai phuong 07 February 2019 (has links)
Avec l’avènement de l’informatique grand public et du réseau Internet, de nombreuses vidéos circulent un peu partout dans le monde. La falsification de ces supports est devenue une réalité incontournable, surtout dans le domaine de la cybercriminalité. Ces modifications peuvent être relativement anodines (retoucher l’apparence d’une personne pour lui enlever des imperfections cutanées), dérangeantes (faire disparaitre les défauts d’un objet) ou bien avoir de graves répercussions sociales (montage présentant la rencontre improbable de personnalités politiques). Ce projet s’inscrit dans le domaine de l’imagerie légale (digital forensics en anglais). Il s’agit de certifier que des images numériques sont saines ou bien falsifiées. La certification peut être envisagée comme une vérification de la conformité de l’image à tester en rapport à une référence possédée. Cette certification doit être la plus fiable possible car la preuve numérique de la falsification ne pourra être établie que si la méthode de détection employée fournit très peu de résultats erronés. Une image est composée de zones distinctes correspondantes à différentes portions de la scène (des individus, des objets, des paysages, etc.). La recherche d’une falsification consiste à vérifier si une zone suspecte est « physiquement cohérente » avec d’autres zones de l’image. Une façon fiable de définir cette cohérence consiste à se baser sur les « empreintes physiques » engendrées par le processus d’acquisition. Le premier caractère novateur de ce projet est la différenciation entre les notions de conformité et d’intégrité. Un support est dit conforme s’il respecte le modèle physique d’acquisition. Si certains des paramètres du modèle prennent des valeurs non autorisées, le support sera déclaré non-conforme. Le contrôle d’intégrité va plus loin. Il s’agit d’utiliser le test précédent pour vérifier si deux zones distinctes sont conformes à un modèle commun. Autrement dit, contrairement au contrôle de conformité qui s’intéresse au support dans son ensemble, le contrôle d’intégrité examine l’image zone par zone pour vérifier si deux zones sont mutuellement cohérentes, c’est-à-dire si la différence entre les paramètres caractérisant ces deux zones est cohérente avec la réalité physique du processus d’acquisition. L’autre caractère novateur du projet est la construction d’outils permettant de pouvoir calculer analytiquement les probabilités d’erreurs du détecteur de falsifications afin de fournir un critère quantitatif de décision. Aucune méthode ou outil actuels ne répondent à ces contraintes. / Nowadays, with the advent of the Internet, the falsification of digital media such as digital images and video is a security issue that cannot be ignored. It is of vital importance to certify the conformity and the integrity of these media. This project, which is in the domain of digital forensics, is proposed to answer this problematic.
|
Page generated in 0.0948 seconds