• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Détection de signaux émergents au sein d'habitacles : mesures et modélisation

Dubois, Françoise 19 July 2011 (has links)
La caractérisation du ressenti global du bruit intérieur d’habitacle passe par la définition des conditions conduisant à l’audibilité de ces composantes fréquentielles, émergeant du bruit de fond. Mon travail de thèse s’est attaché à décomposer les situations de masquage pouvant apparaître au sein d’automobile ou de train, en complexifiant progressivement les stimuli au cours des mesures de masquage, en laboratoire. Un certain nombre de choix méthodologiques ont dû être effectués, limitant l’étude aux sons stationnaires, sans modulation d’amplitude, sans déphasage entre les oreilles.Nous nous sommes confrontés tout d’abord à la question du mode de reproduction. Nous avons souligné les difficultés rencontrées lors de la mesure de l’étalonnage des casques d’écoute. Nous avons validé l’écoute au casque étalonné au tympan, en comparant les mesures de seuils masqués de sons purs dans un bruit large bande, à une écoute en chambre sourde, face à une enceinte monophonique.Ensuite, nous avons complexifié le contenu spectral du masque en présentant des bruits comportant des tonalités marquées. Plusieurs modèles perceptifs ont été testés de façon à prédire l’élévation des seuils mesurés.Enfin, nous avons étudié l’amélioration à la détection d’un signal multifréquentiel et développé un modèle, issu de la théorie de la détection du signal, applicable aux signaux présentant des différences en niveau entre les composantes. L’influence du bruit masquant a également été révélé par la mesure de seuils de signaux multifréquentiels dans un bruit d’habitacle automobile. Un unique modèle de détection de signaux émergents, applicable aux signaux stationnaires, a été proposé. Ces travaux ouvrent de nombreuses perspectives, comme la poursuite du travail sur les émergences multifréquentielles, la prise en compte de la relation de phase entre les oreilles, l'étude des sons non stationnaires ou les phénomènes attentionels. / Emergences like tonal components take part in automobile and railroad acoustic comfort. These signals are totally or partially masked by the background noise, of automobile or train coaches. Determining the audibility of spectrally complex signals in a complex broadband noise masker, with tonalities or not, is yet an unanswered question and an industry expectation to characterize the overall sound quality of train/car cabins. The purpose of my PhD thesis was to measure detection thresholds for tones or complex tones, masked by a broadband noise, with pronounced tonal components or not. Several choices must have been performed, restricting study to stationary sounds, without modulation of amplitude, without inter-aural phase differences.First, different methods of sound reproduction are compared measuring detection thresholds. We underlined difficulties met during the measure of the calibration of headphones We validated the eardrum calibration, by comparing detection thresholds of pure sounds in a broad band noise, in a anechoic room, in front of a monophonic loudspeaker.Then, the masking thresholds of pure tones in the presence of maskers with pronounced tonal components are measured. Several perceptual models were tested in order to predict the elevation of the measured thresholds.Finally, we studied the improvement in detection of a multitone complex and developed a model to predict masking thresholds, based on the statistical summation model, applicable to multicomponent signals with differences in level between components. The influence of tonalities have been revealed with the car cabin noise.A threshold model, applicable to the stationary sounds, is proposed. Several perspectives are discussed, from time-variant signals to inter-aural differences or attention phenomena for example.
192

Prévention et détection des interférences inter-aspects : méthode et application à l'aspectisation de la tolérance aux fautes / Aspect onlated programs testing

Lauret, Jimmy 15 May 2013 (has links)
La programmation orientée aspects (POA) sépare les différentes préoccupations composant un système informatique pour améliorer la modularité. La POA offre de nombreux bénéfices puisqu'elle permet de séparer le code fonctionnel du code non-fonctionnel améliorant ainsi leur réutilisation et la configurabilitè des systèmes informatiques. La configurabilité est un élément essentiel pour assurer la résilience des systèmes informatiques, puisqu’elle permet de modifier les mécanismes de sûreté de fonctionnement. Cependant le paradigme de programmation orientée aspect introduit de nouveaux défis pour le test. Dans les systèmes de grande taille où plusieurs préoccupations non fonctionnelles cohabitent, une implémentation à l'aide d'aspects de ces préoccupations peut être problématique. Partageant le même flot de données et le même flot de contrôle les aspects implémentant les différentes préoccupations peuvent écrire dans des variables lues par d'autres aspects ou interrompre le flot de contrôle commun aux différents aspects empêchant ainsi l'exécution de certains d'entre eux. Dans cette thèse nous nous intéressons plus spécifiquement aux interférences entre aspects dans le cadre du développement de mécanismes de tolérance aux fautes implémentés sous forme d’aspects. Ces interférences sont dues à une absence de déclaration de précédence entre les aspects ou à une déclaration de précédence erronée. Afin de mieux maîtriser l’assemblage des différents aspects composant un mécanisme de tolérance aux fautes, nous avons développé une méthode alliant l'évitement à la détection des interférences au niveau du code. Le but de l'évitement est d'empêcher l'introduction d'interférences en imposant une déclaration de précédence entre les aspects lors de l'intégration des aspects. La détection permet d'exhiber lors du test les erreurs introduites dans la déclaration des précédences. Ces deux facettes de notre approche sont réalisées grâce à l’utilisation d’une extension d'AspectJ appelée AIRIA. Les constructions d'AIRIA permettent l’instrumentation et donc la détection des interférences entre aspects, avec des facilités de compilation permettant de mettre en œuvre l’évitement d’interférences. Notre approche est outillée et vise à limiter le temps de déboguage : le testeur peut se concentrer directement sur les points où une interférence se produit. Nous illustrons notre approche sur une étude de cas: un protocole de réplication duplex. Dans ce contexte le protocole est implémenté en utilisant des aspects à grain fin permettant ainsi une meilleure configurabilité de la politique de réplication. Nous montrons que l'assemblage de ces aspects à grain fin donne lieu à des interférences de flot de données et flot de contrôle qui sont détectées par notre approche d'instrumentation. Nous définissons un ensemble d'aspects interférant pour l'exemple, et nous montrons comment notre approche permet la détection d'interférences. / Aspect-oriented programming (AOP) separates the different concerns of a computer software system to improve modularity. AOP offers many benefits since it allows separating the functional code from the non-functional code, thus improving reuse and configurability of computer systems. Configurability is essential to ensure the resilience of computer systems, since it allows modifying the dependability mechanisms. However, the paradigm of aspectoriented programming introduces new challenges regarding testing. In large systems where multiple non-functional concerns coexist, an AOP implementation of these concerns can be problematic. Sharing the same data flow and the same control flow, aspects implementing different concerns can write into variables read by other aspects, or interrupt the control flow involving various aspects, and thus preventing the execution of some aspects in the chain. In this work we focus more specifically on interference between aspects implementing fault tolerance mechanisms. This interference is due to a lack of declaration of fine-grain precedence between aspects or an incorrect precedence declaration. To better control the assembly of the various aspects composing fault tolerance mechanisms, we have developed a method combining avoidance of interferences with runtime detection interferences at code level. The purpose of avoidance is to prevent the introduction of interference by requiring a statement of precedence between aspects during the aspects integration. Detection allows exhibiting during the test, errors introduced in the precedence statement. These two aspects of our approach are performed through the use of an extension called AspectJ AIRIA. AIRIA ‘s constructs allow instrumentation and therefore the detection of interference between aspects, with facilities compilation to implement the interference avoidance. Our approach is designed and equipped to limit the debugging time : the tester can focus directly on the points where an interference occurs. Finaly, we illustrate our approach on a case study : a duplex replication protocol. In this context, the protocol is implemented using fine grained aspects allowing a better configurability of the replication policy.We show that the assembly of these fine-grained aspects gives rise to interference data flow and control flow that are detected by our instrumentation approach. We define a set of interfering aspects in this example, and show how our approach allows the detection of interferences.
193

Définition et évaluation d'un mécanisme de génération de règles de corrélation liées à l'environnement. / Definition and assessment of a mechanism for the generation of environment specific correlation rules

Godefroy, Erwan 30 September 2016 (has links)
Dans les systèmes d'informations, les outils de détection produisent en continu un grand nombre d'alertes.Des outils de corrélation permettent de réduire le nombre d'alertes et de synthétiser au sein de méta-alertes les informations importantes pour les administrateurs.Cependant, la complexité des règles de corrélation rend difficile leur écriture et leur maintenance.Cette thèse propose par conséquent une méthode pour générer des règles de corrélation de manière semi-automatique à partir d’un scénario d’attaque exprimé dans un langage de niveau d'abstraction élevé.La méthode repose sur la construction et l'utilisation d’une base de connaissances contenant une modélisation des éléments essentiels du système d’information (par exemple les nœuds et le déploiement des outils de détection). Le procédé de génération des règles de corrélation est composé de différentes étapes qui permettent de transformer progressivement un arbre d'attaque en règles de corrélation.Nous avons évalué ce travail en deux temps. D'une part, nous avons déroulé la méthode dans le cadre d'un cas d'utilisation mettant en jeu un réseau représentatif d'un système d'une petite entreprise.D'autre part, nous avons mesuré l'influence de fautes touchant la base de connaissances sur les règles de corrélation générées et sur la qualité de la détection. / Information systems produce continuously a large amount of messages and alerts. In order to manage this amount of data, correlation system are introduced to reduce the alerts number and produce high-level meta-alerts with relevant information for the administrators. However, it is usually difficult to write complete and correct correlation rules and to maintain them. This thesis describes a method to create correlation rules from an attack scenario specified in a high-level language. This method relies on a specific knowledge base that includes relevant information on the system such as nodes or the deployment of sensor. This process is composed of different steps that iteratively transform an attack tree into a correlation rule. The assessment of this work is divided in two aspects. First, we apply the method int the context of a use-case involving a small business system. The second aspect covers the influence of a faulty knowledge base on the generated rules and on the detection.
194

Synchronisation, détection et égalisation de modulation à phase continue dans des canaux sélectifs en temps et en fréquence

Chayot, Romain 15 January 2019 (has links) (PDF)
Si les drones militaires connaissent un développement important depuis une quinzaine d’année, suivi depuis quelques années par les drones civiles dont les usages ne font que se multiplier, en réalité les drones ont un siècle avec le premier vol d’un avion équipé d’un système de pilotage automatique sur une centaine de kilomètre en 1918. La question des règles d’usage des drones civiles sont en cours de développement malgré leur multiplication pour des usages allant de l’agriculture, à l’observation en passant par la livraison de colis. Ainsi, leur intégration dans l’espace aérien reste un enjeu important, ainsi que les standards de communication avec ces drones dans laquelle s’inscrit cette thèse. Cette thèse vise en effet à étudier et proposer des solutions pour les liens de communications des drones par satellite.L’intégration de ce lien de communication permet d’assurer la fiabilité des communications et particulièrement du lien de Commande et Contrôle partout dans le monde, en s’affranchissant des contraintes d’un réseau terrestre (comme les zones blanches). En raison de la rareté des ressources fréquentielles déjà allouées pour les futurs systèmes intégrant des drones, l’efficacité spectrale devient un paramètre important pour leur déploiement à grande échelle et le contexte spatiale demande l’utilisation d’un système de communication robuste aux non-linéarités. Les Modulations à Phase Continue permettent de répondre à ces problématiques. Cependant, ces dernières sont des modulations non-linéaire à mémoire entraînant une augmentation de la complexité des récepteurs. Du fait de la présence d’un canal multi-trajet (canal aéronautique par satellite), le principal objectif de cette thèse est de proposer des algorithmes d’égalisation (dans le domaine fréquentiel pour réduire leur complexité) et de synchronisation pour CPM adaptés à ce concept tout en essayant de proposer une complexité calculatoire raisonnable. Dans un premier temps, nous avons considéré uniquement des canaux sélectifs en fréquence et avons étudier les différents égaliseurs de la littérature. En étudiant leur similitudes et différences, nous avons pu développer un égaliseur dans le domaine fréquentiel qui proposant les mêmes performances a une complexité moindre. Nous proposons également des méthodes d’estimation canal et une méthode d’estimation conjointe du canal et de la fréquence porteuse. Dans un second temps nous avons montré comment étendre ces méthodes à des canaux sélectifs en temps et fréquence permettant ainsi de conserver une complexité calculatoire raisonnable.
195

Eigenvalue Based Detector in Finite and Asymptotic Multi-antenna Cognitive Radio Systems / Détecteurs de bandes libres utilisant les valeurs propres pour la radio intelligente multi-antennes : comportement asymptotique et non-asymptotique

Kobeissi, Hussein 13 December 2016 (has links)
La thèse aborde le problème de la détection d’un signal dans une bande de fréquences donnée sans aucune connaissance à priori sur la source (détection aveugle) dans le contexte de la radio intelligente. Le détecteur proposé dans la thèse est basé sur l’estimation des valeurs propres de la matrice de corrélation du signal reçu. A partir de ces valeurs propres, plusieurs critères ont été développés théoriquement (Standard Condition Number, Scaled Largest Eigenvalue, Largest Eigenvalue) en prenant pour hypothèse majeure un nombre fini d’éléments, contrairement aux hypothèses courantes de la théorie des matrices aléatoires qui considère un comportement asymptotique de ces critères. Les paramètres clés des détecteurs ont été formulés mathématiquement (probabilité de fausse alarme, densité de probabilité) et une correspondance avec la densité GEV a été explicitée. Enfin, ce travail a été étendu au cas multi-antennes (MIMO) pour les détecteurs SLE et SCN. / In Cognitive Radio, Spectrum Sensing (SS) is the task of obtaining awareness about the spectrum usage. Mainly it concerns two scenarios of detection: (i) detecting the absence of the Primary User (PU) in a licensed spectrum in order to use it and (ii) detecting the presence of the PU to avoid interference. Several SS techniques were proposed in the literature. Among these, Eigenvalue Based Detector (EBD) has been proposed as a precious totally-blind detector that exploits the spacial diversity, overcome noise uncertainty challenges and performs adequately even in low SNR conditions. The first part of this study concerns the Standard Condition Number (SCN) detector and the Scaled Largest Eigenvalue (SLE) detector. We derived exact expressions for the Probability Density Function (PDF) and the Cumulative Distribution Function (CDF) of the SCN using results from finite Random Matrix Theory; In addition, we derived exact expressions for the moments of the SCN and we proposed a new approximation based on the Generalized Extreme Value (GEV) distribution. Moreover, using results from the asymptotic RMT we further provided a simple forms for the central moments of the SCN and we end up with a simple and accurate expression for the CDF, PDF, Probability of False-Alarm, Probability of Detection, of Miss-Detection and the decision threshold that could be computed and hence provide a dynamic SCN detector that could dynamically change the threshold value depending on target performance and environmental conditions. The second part of this study concerns the massive MIMO technology and how to exploit the large number of antennas for SS and CRs. Two antenna exploitation scenarios are studied: (i) Full antenna exploitation and (ii) Partial antenna exploitation in which we have two options: (i) Fixed use or (ii) Dynamic use of the antennas. We considered the Largest Eigenvalue (LE) detector if noise power is perfectly known and the SCN and SLE detectors when noise uncertainty exists.
196

Nanotechnologies pour la bolométrie infrarouge / naotechnologies for infrared bolometers

Koechlin, Charlie 05 October 2012 (has links)
Les travaux de cette thèse ont porté sur les micro-bolomètres (détecteurs infrarouges non refroidis) qui fonctionnent selon le principe suivant : le rayonnement infrarouge incident provoque l’échauffement d’une membrane suspendue dont la résistivité électrique dépend de la température. Deux voies ont été explorées pour les améliorer, grâce aux nanotechnologies. D’une part, les propriétés optiques et électroniques (transport et bruit) des films de nanotube de carbone ont été étudiées afin d’évaluer le potentiel de ce nouveau matériau comme thermistor. Pour ce faire des procédés technologiques en salle blanche, des caractérisations et des modèles théoriques ont été mis au point. Après avoir obtenu les figures de mérite adaptées, cette étude a conclu au manque de potentiel de ce matériau pour une application aux micro-bolomètres. D’autre part, nous avons étudié des résonateurs sub-longueur d’onde basés sur des cavités métal-isolant-métal permettant d’obtenir des absorbants totaux, et omnidirectionnels. Un modèle analytique permettant de les décrire et de les concevoir rapidement a été mis au point. La combinaison de ces résonateurs à l’échelle sub-longueur d’onde a permis de mettre en évidence un phénomène de tri de photon et la possibilité de concevoir des absorbants large bande. Nous avons ainsi proposé (et breveté) l’utilisation de ces antennes comme absorbants pour les micro-bolomètres. En effet leur capacité à focaliser le champ dans des volumes sub-longueur d’onde permet d’introduire une rupture conceptuelle pour la conception de bolomètres à hautes performances. / This work was focused on bolometers (uncooled infrared sensors), which are based on the following principle: the incoming infrared radiation is absorbed by a self-standing membrane whose resistivity depends on temperature. In order to improve their design and performances, we explored two solutions based on nanotechnologies. On the one hand, optical and electronic (transport and noise) properties of carbon nanotube films have been investigated in order to evaluate the potential of this new material as a thermistor. Clean room processes, characterization benches and theoretical models have been developed. The obtained figures of merit allow to concluding on the lack of potential for applications in uncooled infrared sensors. On the second hand, subwavelength resonators based on metal-insulator-metal cavities, have been investigated and exhibit perfect, tunable and omni-directional absorption. An analytical model allowing a fast study and design of these resonators has been developed. Photon sorting and wideband absorption have been demonstrated thanks to the combination of these resonators at the sub-wavelength scale. We have thus proposed (and patented) the use of such “antennas” as micro-bolometer’s absorber. Indeed their capacity to focalize the incoming radiation at a subwavelength scale paves the way to the conception of high performance micro-bolometers.
197

Fusion de décisions dédiée à la surveillance des systèmes complexes / Decision fusion dedicated to the monitoring of complex systems

Tidriri, Khaoula 16 October 2018 (has links)
Le niveau de complexité croissant des systèmes et les exigences de performances et de sûreté de fonctionnement qui leur sont associées ont induit la nécessité de développer de nouvelles approches de surveillance. Les travaux de cette thèse portent sur la surveillance des systèmes complexes, notamment la détection, le diagnostic et le pronostic de défauts, avec une méthodologie basée sur la fusion de décisions. L’objectif principal est de proposer une approche générique de fusion de diverses méthodes de surveillance, dont la performance serait meilleure que celles des méthodes individuelles la composant. Pour cela, nous avons proposé une nouvelle démarche de fusion de décisions, basée sur la théorie Bayésienne. Cette démarche s’appuie sur une déduction théorique des paramètres du Réseau Bayésien en fonction des objectifs de performance à atteindre en surveillance. Le développement conduit à un problème multi-objectif sous contraintes, résolu par une approche lexicographique. La première étape se déroule hors-ligne et consiste à définir les objectifs de performance à respecter afin d’améliorer les performances globales du système. Les paramètres du réseau Bayésien permettant de respecter ces objectifs sont ensuite déduits de façon théorique. Enfin, le réseau Bayésien paramétré est utilisé en ligne afin de tester les performances de la fusion de décisions. Cette méthodologie est adaptée et appliquée d’une part à la détection et au diagnostic, et d’autre part au pronostic. Les performances sont évaluées en termes de taux de diagnostic de défauts (FDR) et taux de fausses alarmes (FAR) pour l’étape de détection et de diagnostic, et en durée de fonctionnement avant la défaillance du système (RUL) pour le pronostic. / Nowadays, systems are becoming more and more complex and require new effective methods for their supervision. This latter comprises a monitoring phase that aims to improve the system’s performances and ensure a safety production for humans and materials. This thesis work deals with fault detection, diagnosis and prognosis, with a methodology based on decisions fusion. The main issue concerns the integration of different decisions emanating from individual monitoring methods in order to obtain more reliable results. The methodology is based on a theoretical learning of the Bayesian network parameters, according to monitoring objectives to be reached. The development leads to a multi-objective problem under constraints, which is solved with a lexicographic approach. The first step is offline and consists of defining the objectives to be achieved in order to improve the overall performance of the system. The Bayesian network parameters respecting these objectives are then deduced theoretically. Finally, the parametrized Bayesian network is used online to test the decision fusion performances. These performances are evaluated in terms of Fault Diagnostic Rate (FDR) and False Alarm Rate (FAR) for the detection and diagnosis stage, and in terms of Remaining Useful Life (RUL) for the prognosis.
198

Détection d’anomalies dans les séries temporelles : application aux masses de données sur les pneumatiques / Outlier detection for time series data : application to tyre data

Benkabou, Seif-Eddine 21 March 2018 (has links)
La détection d'anomalies est une tâche cruciale qui a suscité l'intérêt de plusieurs travaux de recherche dans les communautés d'apprentissage automatique et fouille de données. La complexité de cette tâche dépend de la nature des données, de la disponibilité de leur étiquetage et du cadre applicatif dont elles s'inscrivent. Dans le cadre de cette thèse, nous nous intéressons à cette problématique pour les données complexes et particulièrement pour les séries temporelles uni et multi-variées. Le terme "anomalie" peut désigner une observation qui s'écarte des autres observations au point d'éveiller des soupçons. De façon plus générale, la problématique sous-jacente (aussi appelée détection de nouveautés ou détection des valeurs aberrantes) vise à identifier, dans un ensemble de données, celles qui différent significativement des autres, qui ne se conforment pas à un "comportement attendu" (à définir ou à apprendre automatiquement), et qui indiquent un processus de génération différent. Les motifs "anormaux" ainsi détectés se traduisent souvent par de l'information critique. Nous nous focalisons plus précisément sur deux aspects particuliers de la détection d'anomalies à partir de séries temporelles dans un mode non-supervisé. Le premier est global et consiste à ressortir des séries relativement anormales par rapport une base entière. Le second est dit contextuel et vise à détecter localement, les points anormaux par rapport à la structure de la série étudiée. Pour ce faire, nous proposons des approches d'optimisation à base de clustering pondéré et de déformation temporelle pour la détection globale ; et des mécanismes à base de modélisation matricielle pour la détection contextuelle. Enfin, nous présentons une série d'études empiriques sur des données publiques pour valider les approches proposées et les comparer avec d'autres approches connues dans la littérature. De plus, une validation expérimentale est fournie sur un problème réel, concernant la détection de séries de prix aberrants sur les pneumatiques, pour répondre aux besoins exprimés par le partenaire industriel de cette thèse / Anomaly detection is a crucial task that has attracted the interest of several research studies in machine learning and data mining communities. The complexity of this task depends on the nature of the data, the availability of their labeling and the application framework on which they depend. As part of this thesis, we address this problem for complex data and particularly for uni and multivariate time series. The term "anomaly" can refer to an observation that deviates from other observations so as to arouse suspicion that it was generated by a different generation process. More generally, the underlying problem (also called novelty detection or outlier detection) aims to identify, in a set of data, those which differ significantly from others, which do not conform to an "expected behavior" (which could be defined or learned), and which indicate a different mechanism. The "abnormal" patterns thus detected often result in critical information. We focus specifically on two particular aspects of anomaly detection from time series in an unsupervised fashion. The first is global and consists in detecting abnormal time series compared to an entire database, whereas the second one is called contextual and aims to detect locally, the abnormal points with respect to the global structure of the relevant time series. To this end, we propose an optimization approaches based on weighted clustering and the warping time for global detection ; and matrix-based modeling for the contextual detection. Finally, we present several empirical studies on public data to validate the proposed approaches and compare them with other known approaches in the literature. In addition, an experimental validation is provided on a real problem, concerning the detection of outlier price time series on the tyre data, to meet the needs expressed by, LIZEO, the industrial partner of this thesis
199

Effective signal processing methods for robust respiratory rate estimation from photoplethysmography signal / Estimation robuste de la fréquence respiratoire par traitement et analyse du signal de photoplethysmographie

Cherif, Safa 12 October 2018 (has links)
Le photopléthysmogramme (PPG) est un signal optique acquis à partir de l’oxymètre de pouls, dont l’usage principal consiste à mesurer la saturation en oxygène. Avec le développement des technologies portables, il est devenu la technique de base pour la surveillance de l’activité cardio-respiratoire des patients et la détection des anomalies. En dépit de sa simplicité d'utilisation, le déploiement de cette technique reste encore limité pour deux principales raisons : 1. L’extrême sensibilité du signal aux distorsions. 2. La non-reproductibilité entre les sujets et pour les mêmes sujets, en raison de l'âge et des conditions de santé. L’objectif de cette thèse est le développement de méthodes robustes et universelles afin d’avoir une estimation précise de la fréquence respiratoire (FR) indépendamment de la variabilité intra et interindividuelle du PPG. Plusieurs contributions originales en traitement statistiques du signal PPG sont proposées. En premier lieu, une méthode adaptative de détection des artefacts basée sur la comparaison de modèle a été développée. Des tests par la technique Random Distortion Testing sont introduits pour détecter les pulses de PPG avec des artefacts. En deuxième lieu, une analyse de plusieurs méthodes spectrales d’estimation de la FR est proposée. Afin de mettre en évidence la robustesse des méthodes proposées face à la variabilité du signal, plusieurs tests ont été effectués sur deux bases de données avec de différentes tranches d'âge et des différents modes respiratoires. En troisième lieu, un indice de qualité respiratoire spectral (SRQI) est conçu dans le but de communiquer au clinicien que les valeurs fiables de la FR avec un certain degré de confiance. / One promising area of research in clinical routine involves using photoplethysmography (PPG) for monitoring respiratory activities. PPG is an optical signal acquired from oximeters, whose principal use consists in measuring oxygen saturation. Despite its simplicity of use, the deployment of this technique is still limited because of the signal sensitivity to distortions and the non-reproducibility between subjects, but also for the same subject, due to age and health conditions. The main aim of this work is to develop robust and universal methods for estimating accurate respiratory rate regardless of the intra- and inter-individual variability that affects PPG features. For this purpose, firstly, an adaptive artefact detection method based on template matching and decision by Random Distortion Testing is introduced for detecting PPG pulses with artefacts. Secondly, an analysis of several spectral methods for Respiratory Rate (RR) estimation on two different databases, with different age ranges and different respiratory modes, is proposed. Thirdly, a Spectral Respiratory Quality Index (SRQI) is attributed to respiratory rate estimates, in order that the clinician may select only RR values with a large confidence scale. Promising results are found for two different databases.
200

Optimisation du protocole de recherche des Escherichia coli producteurs de Shiga-toxines (STEC) dans les aliments / Optimisation of shiga toxin producing escherichia coli (STEC) research protocol in food

Savoye, Fanny 28 March 2011 (has links)
Les Escherichia coli producteurs de Shiga-toxines (STEC) sont des agents pathogènes importants émergents en santé publique. Ces bactéries sont à l’origine des épidémies de colites hémorragiques et de syndrome hémolytique et urémique (SHU). La grande majorité des cas est liée à la consommation d’aliments contaminés par un type particulier de STEC appelés E. coli entérohémorragiques (EHEC) parmi lesquels on trouve les sérogroupes définis comme pathogènes par l’AFSSA : O26, O103, O111, O145 et O157.Les bovins ont depuis longtemps été identifiés comme un important réservoir de STEC. Bien que la transmission des STEC à l'homme soit fréquemment associée à la consommation de viande, les produits laitiers ont également été impliqués dans les cas humains. Le développement de méthodes rapides pour la détection des STEC les plus impliqués en pathologie humaine est donc essentiel pour assurer la sécurité des produits alimentaires. Cependant, la détection des STEC dans les aliments est problématique principalement en raison de la diversité des sérogroupes de STEC et de l'absence de caractéristiques biochimiques communes permettant de les distinguer des autres E. coli.L'objectif de cette thèse était d’optimiser le protocole de détection des STEC dans les aliments de manière à pouvoir proposer aux industriels des protocoles leur permettant une réelle maîtrise du « danger STEC » dans leur filière.Pour se faire, nous sommes intervenus à différentes étapes du protocole. Nous avons notamment sélectionné un milieu d’enrichissement permettant la détection des E. coli O26 dans les fromages au lait cru : EPT+ acriflavine + CT. Nous avons également évalué les performances d’une méthode de détection des E. coli O157 :H7 (VIDAS ECPT UP) dans la viande de boeuf. Cette nouvelle technique est basée sur l’utilisation de protéines recombinante de phage qui ciblent spécifiquement les E. coli O157. A travers cette étude, nous avons démontré la possibilité d’avoir des temps d’enrichissement minimes pour l’analyse d’échantillon de 25g (6h) et la faisabilité d’analyser des échantillons de 375g avec un ratio de dilution de ¼ et un enrichissement de 24h. Enfin nous nous sommes intéressés à l’étape de confirmation en mettant au point un test d’immuno-concentration automatisé (utilisant des protéines de phages spécifiques de nos bactéries cibles) permettant d’immuno-concentrer les 5 sérogroupes les plus connus de STEC (O26, O103, O111, O145 et O157) en une seule fois / Enterohemorrhagic Escherichia coli (EHEC) are an important subset of Shiga toxin–producing E. coli (STEC) associated with foodborne infections. These bacteria can cause hemorrhagic diarrhoeal disease and Haemolytic and Uremic Syndrome which are associated with some predominant serotypes defined by AFSSA institute: O26, O103, O111, O145 and O157.Cattle are the primary reservoir of STEC. Although STEC transmission to humans is frequently associated with consumption of meat, dairy products have also been implicated in human cases. Sensitive and rapid detection methods for STEC are essential for the food industry to ensure a safe food supply. However, the detection of STEC in foods is problematic because it’s an heterogeneous group which displays a broad range of both genotypic and phenotypic differences.The aim of this thesis was to optimize the research protocol of STEC strains in food in order to provide some protocols to the industries for improving risk management protocol.So, we involved in different steps of the protocol: the enrichment of E. coli O26 allowing their detection in raw milk cheeses after 24 h enrichment in EPT+ acriflavine + cefixime-tellurite. Then, we evaluated the VIDAS ECPT UP performances’ for the detection of E. coli O157: H7 in raw ground beef. Through this study, we showed the ability to reduce enrichment time for sample analysis of 25g (6h) and the feasibility of analyzing samples of 375g with a sample to broth ratio of ¼ after 24h enrichment. Thereafter we looked at the confirmation step. We developed and optimized automated VIDAS immuno-concentration of E. coli O157, O26, O103, O111 and O145 (VIDAS ESPT) with the use of recombinant phage proteins for capture

Page generated in 0.0857 seconds