• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 11
  • 1
  • Tagged with
  • 38
  • 38
  • 17
  • 13
  • 10
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Preprocessing and analysis of environmental data : Application to the water quality assessment of Mexican rivers / Pré-traitement et analyse des données environnementales : application à l'évaluation de la qualité de l'eau des rivières mexicaines

Serrano Balderas, Eva Carmina 31 January 2017 (has links)
Les données acquises lors des surveillances environnementales peuvent être sujettes à différents types d'anomalies (i.e., données incomplètes, inconsistantes, inexactes ou aberrantes). Ces anomalies qui entachent la qualité des données environnementales peuvent avoir de graves conséquences lors de l'interprétation des résultats et l’évaluation des écosystèmes. Le choix des méthodes de prétraitement des données est alors crucial pour la validité des résultats d'analyses statistiques et il est assez mal défini. Pour étudier cette question, la thèse s'est concentrée sur l’acquisition des données et sur les protocoles de prétraitement des données afin de garantir la validité des résultats d'analyse des données, notamment dans le but de recommander la séquence de tâches de prétraitement la plus adaptée. Nous proposons de maîtriser l'intégralité du processus de production des données, de leur collecte sur le terrain et à leur analyse, et dans le cas de l'évaluation de la qualité de l'eau, il s’agit des étapes d'analyse chimique et hydrobiologique des échantillons produisant ainsi les données qui ont été par la suite analysées par un ensemble de méthodes statistiques et de fouille de données. En particulier, les contributions multidisciplinaires de la thèse sont : (1) en chimie de l'eau: une procédure méthodologique permettant de déterminer les quantités de pesticides organochlorés dans des échantillons d'eau collectés sur le terrain en utilisant les techniques SPE–GC-ECD (Solid Phase Extraction - Gas Chromatography - Electron Capture Detector) ; (2) en hydrobiologie : une procédure méthodologique pour évaluer la qualité de l’eau dans quatre rivières Mexicaines en utilisant des indicateurs biologiques basés sur des macroinvertébrés ; (3) en science des données : une méthode pour évaluer et guider le choix des procédures de prétraitement des données produites lors des deux précédentes étapes ainsi que leur analyse ; et enfin, (4) le développement d’un environnement analytique intégré sous la forme d’une application développée en R pour l’analyse statistique des données environnementales en général et l’analyse de la qualité de l’eau en particulier. Enfin, nous avons appliqué nos propositions sur le cas spécifique de l’évaluation de la qualité de l’eau des rivières Mexicaines Tula, Tamazula, Humaya et Culiacan dans le cadre de cette thèse qui a été menée en partie au Mexique et en France. / Data obtained from environmental surveys may be prone to have different anomalies (i.e., incomplete, inconsistent, inaccurate or outlying data). These anomalies affect the quality of environmental data and can have considerable consequences when assessing environmental ecosystems. Selection of data preprocessing procedures is crucial to validate the results of statistical analysis however, such selection is badly defined. To address this question, the thesis focused on data acquisition and data preprocessing protocols in order to ensure the validity of the results of data analysis mainly, to recommend the most suitable sequence of preprocessing tasks. We propose to control every step in the data production process, from their collection on the field to their analysis. In the case of water quality assessment, it comes to the steps of chemical and hydrobiological analysis of samples producing data that were subsequently analyzed by a set of statistical and data mining methods. The multidisciplinary contributions of the thesis are: (1) in environmental chemistry: a methodological procedure to determine the content of organochlorine pesticides in water samples using the SPE-GC-ECD (Solid Phase Extraction – Gas Chromatography – Electron Capture Detector) techniques; (2) in hydrobiology: a methodological procedure to assess the quality of water on four Mexican rivers using macroinvertebrates-based biological indices; (3) in data sciences: a method to assess and guide on the selection of preprocessing procedures for data produced from the two previous steps as well as their analysis; and (4) the development of a fully integrated analytics environment in R for statistical analysis of environmental data in general, and for water quality data analytics, in particular. Finally, within the context of this thesis that was developed between Mexico and France, we have applied our methodological approaches on the specific case of water quality assessment of the Mexican rivers Tula, Tamazula, Humaya and Culiacan.
32

Iterative and Expressive Querying for Big Data Series / Requêtes itératives et expressives pour l’analyse de grandes séries de données

Gogolou, Anna 15 November 2019 (has links)
Les séries temporelles deviennent omniprésentes dans la vie moderne et leur analyse de plus en plus difficile compte tenu de leur taille. L’analyse des grandes séries de données implique des tâches telles que l’appariement de modèles (motifs), la détection d’anomalies, l’identification de modèles fréquents, et la classification ou le regroupement (clustering). Ces tâches reposent sur la notion de similarité. La communauté scientifique a proposé de plusieurs techniques, y compris de nombreuses mesures de similarité pour calculer la distance entre deux séries temporelles, ainsi que des techniques et des algorithmes d’indexation correspondants, afin de relever les défis de l’évolutivité lors de la recherche de similarité.Les analystes, afin de s’acquitter efficacement de leurs tâches, ont besoin de systèmes d’analyse visuelle interactifs, extrêmement rapides, et puissants. Lors de la création de tels systèmes, nous avons identifié deux principaux défis: (1) la perception de similarité et (2) la recherche progressive de similarité. Le premier traite de la façon dont les gens perçoivent des modèles similaires et du rôle de la visualisation dans la perception de similarité. Le dernier point concerne la rapidité avec laquelle nous pouvons redonner aux utilisateurs des mises à jour des résultats progressifs, lorsque les temps de réponse du système sont longs et non interactifs. Le but de cette thèse est de répondre et de donner des solutions aux défis ci-dessus.Dans la première partie, nous avons étudié si différentes représentations visuelles (Graphiques en courbes, Graphiques d’horizon et Champs de couleur) modifiaient la perception de similarité des séries temporelles. Nous avons essayé de comprendre si les résultats de recherche automatique de similarité sont perçus de manière similaire, quelle que soit la technique de visualisation; et si ce que les gens perçoivent comme similaire avec chaque visualisation s’aligne avec différentes mesures de similarité. Nos résultats indiquent que les Graphes d’horizon s’alignent sur des mesures qui permettent des variations de décalage temporel ou d’échelle (i.e., ils promeuvent la déformation temporelle dynamique). En revanche, ils ne s’alignent pas sur des mesures autorisant des variations d’amplitude et de décalage vertical (ils ne promeuvent pas des mesures basées sur la z-normalisation). L’inverse semble être le cas pour les Graphiques en courbes et les Champs de couleur. Dans l’ensemble, nos travaux indiquent que le choix de la visualisation affecte les schémas temporels que l’homme considère comme similaires. Donc, la notion de similarité dans les séries temporelles est dépendante de la technique de visualisation.Dans la deuxième partie, nous nous sommes concentrés sur la recherche progressive de similarité dans de grandes séries de données. Nous avons étudié la rapidité avec laquelle les premières réponses approximatives et puis des mises à jour des résultats progressifs sont détectées lors de l’exécuton des requêtes progressives. Nos résultats indiquent qu’il existe un écart entre le moment où la réponse finale s’est trouvée et le moment où l’algorithme de recherche se termine, ce qui entraîne des temps d’attente gonflés sans amélioration. Des estimations probabilistes pourraient aider les utilisateurs à décider quand arrêter le processus de recherche, i.e., décider quand l’amélioration de la réponse finale est improbable. Nous avons développé et évalué expérimentalement une nouvelle méthode probabiliste qui calcule les garanties de qualité des résultats progressifs de k-plus proches voisins (k-NN). Notre approche apprend d’un ensemble de requêtes et construit des modèles de prédiction basés sur deux observations: (i) des requêtes similaires ont des réponses similaires; et (ii) des réponses progressives renvoyées par les indices de séries de données sont de bons prédicteurs de la réponse finale. Nous fournissons des estimations initiales et progressives de la réponse finale. / Time series are becoming ubiquitous in modern life, and given their sizes, their analysis is becoming increasingly challenging. Time series analysis involves tasks such as pattern matching, anomaly detection, frequent pattern identification, and time series clustering or classification. These tasks rely on the notion of time series similarity. The data-mining community has proposed several techniques, including many similarity measures (or distance measure algorithms), for calculating the distance between two time series, as well as corresponding indexing techniques and algorithms, in order to address the scalability challenges during similarity search.To effectively support their tasks, analysts need interactive visual analytics systems that combine extremely fast computation, expressive querying interfaces, and powerful visualization tools. We identified two main challenges when considering the creation of such systems: (1) similarity perception and (2) progressive similarity search. The former deals with how people perceive similar patterns and what the role of visualization is in time series similarity perception. The latter is about how fast we can give back to users updates of progressive similarity search results and how good they are, when system response times are long and do not support real-time analytics in large data series collections. The goal of this thesis, that lies at the intersection of Databases and Human-Computer Interaction, is to answer and give solutions to the above challenges.In the first part of the thesis, we studied whether different visual representations (Line Charts, Horizon Graphs, and Color Fields) alter time series similarity perception. We tried to understand if automatic similarity search results are perceived in a similar manner, irrespective of the visualization technique; and if what people perceive as similar with each visualization aligns with different automatic similarity measures and their similarity constraints. Our findings indicate that Horizon Graphs promote as invariant local variations in temporal position or speed, and as a result they align with measures that allow variations in temporal shifting or scaling (i.e., dynamic time warping). On the other hand, Horizon Graphs do not align with measures that allow amplitude and y-offset variations (i.e., measures based on z-normalization), because they exaggerate these differences, while the inverse seems to be the case for Line Charts and Color Fields. Overall, our work indicates that the choice of visualization affects what temporal patterns humans consider as similar, i.e., the notion of similarity in time series is visualization-dependent.In the second part of the thesis, we focused on progressive similarity search in large data series collections. We investigated how fast first approximate and then updates of progressive answers are detected, while we execute similarity search queries. Our findings indicate that there is a gap between the time the final answer is found and the time when the search algorithm terminates, resulting in inflated waiting times without any improvement. Computing probabilistic estimates of the final answer could help users decide when to stop the search process. We developed and experimentally evaluated using benchmarks, a new probabilistic learning-based method that computes quality guarantees (error bounds) for progressive k-Nearest Neighbour (k-NN) similarity search results. Our approach learns from a set of queries and builds prediction models based on two observations: (i) similar queries have similar answers; and (ii) progressive best-so-far (bsf) answers returned by the state-of-the-art data series indexes are good predictors of the final k-NN answer. We provide both initial and incrementally improved estimates of the final answer.
33

Géologie du Précambrien terminal (III) et traitement statistique des données géochimiques de prospection, dans la boutonnière de Bou Azzer - El Graara (Anti-Atlas, Maroc)

Azizi Samir, Moulay 21 December 1990 (has links) (PDF)
Cette étude est effectuée dans la zone de suture panafricaine de Bou Azzer-EI Graara (Anti-Atlas, Maroc). Elle s'articule en deux volets: d'une part, l'étude géologique et géodynamique du Précambrien Terminal (III) qui sert de support aux traitements statistiques de l'information géochimique de prospection récoltée dans le district de Tamdrost-Ambed d'autre part. 1) Un découpage lithostratigraphique des formations volcaniques du PIII est obtenu grâce à la cartographie détaillée au 1/4000e du district de Tamdrost-Ambed et aux coupes géologiques levées en d'autres points de la boutonnière. Ceci a permis d'établir une coupe synthétique et des corrélations lithostratigraphiques. L'étude pétrographique des roches volcaniques à prédominance pyroclastique de cette série montre leur rattachement à un magmatisme calco-alcalin, d'âge compris entre 580 et 560 Ma, dont la signification est discutée dans le cadre géodynamique régional. L'analyse structurale des formations volcaniques et volcano-sédimentaires du Précambrien III, conduit à la mise en évidence de déformations synvolcaniques en régime distensif (NW -SE) et à la détermination des paléochamps de contraintes associés aux déformations observées. Le modèle d'extension proposé implique des mouvements de coulissement senestres le long de grands décrochements régionaux parallèles à la suture, entre le craton ouest-africain et le domaine panafricain "mobile". II) Le traitement des données géochimiques (13000 analyses de 10 éléments majeurs et 24 éléments en traces par Spectrométrie d'émission) aboutit à la mise en évidence d'anomalies élémentaires et multiélémentaires significatives d'indices miniers, indépendants de la lithologie. Ce résultat passe par l'étude de la qualité des données géochimiques qui a conduit à l'évaluation de la précision et à l'application d'une correction empirique de l'erreur analytique. L'analyse statistique des données de prospection est effectuée en plusieurs étapes: - l'utilisation de la technique non conventionnelle "box and whiskers" pour la détermination des seuils anomaux, toutes lithologies confondues; -la diversité lithologique est simplifiée par analyse factorielle en composantes principales sur les médianes pour aboutir à quatre groupes lithologiques au lieu des 32 distingués sur le terrain; . - une analyse discriminante sur ces quatre groupes, désormais connus, aboutit à un modèle factoriel du fond géochimique qui explique mieux les variations liées à la lithologie; - le fond géochimique modélisé est retranché par régression factorielle pour faire apparaitre les anomalies discordantes. Des cartes de synthèse des anomalies multiélémentaires sont établies dans le but d'orienter les campagnes de sondage.
34

Towards highly flexible hardware architectures for high-speed data processing : a 100 Gbps network case study / Vers des architectures matérielles hautement flexibles pour le traitement des données à très haut débit : cas d'étude sur les réseaux à 100 Gbps

Lalevée, André 28 November 2017 (has links)
L’augmentation de la taille des réseaux actuels ainsi que de la diversité des applications qui les utilisent font que les architectures de calcul traditionnelles deviennent limitées. En effet, les architectures purement logicielles ne permettent pas de tenir les débits en jeu, tandis que celles purement matérielles n’offrent pas assez de flexibilité pour répondre à la diversité des applications. Ainsi, l’utilisation de solutions de type matériel programmable, en particulier les Field Programmable Gate Arrays (FPGAs), a été envisagée. En effet, ces architectures sont souvent considérées comme un bon compromis entre performances et flexibilité, notamment grâce à la technique de Reconfiguration Dynamique Partielle (RDP), qui permet de modifier le comportement d’une partie du circuit pendant l’exécution. Cependant, cette technique peut présenter des inconvénients lorsqu’elle est utilisée de manière intensive, en particulier au niveau du stockage des fichiers de configuration, appelés bitstreams. Pour palier ce problème, il est possible d’utiliser la relocation de bitstreams, permettant de réduire le nombre de fichiers de configuration. Cependant cette technique est fastidieuse et exige des connaissances pointues dans les FPGAs. Un flot de conception entièrement automatisé a donc été développé dans le but de simplifier son utilisation.Pour permettre une flexibilité sur l’enchaînement des traitements effectués, une architecture de communication flexible supportant des hauts débits est également nécessaire. Ainsi, l’étude de Network-on-Chips dédiés aux circuits reconfigurables et au traitements réseaux à haut débit.Enfin, un cas d’étude a été mené pour valider notre approche. / The increase in both size and diversity of applications regarding modern networks is making traditional computing architectures limited. Indeed, purely software architectures can not sustain typical throughputs, while purely hardware ones severely lack the flexibility needed to adapt to the diversity of applications. Thus, the investigation of programmable hardware, such as Field Programmable Gate Arrays (FPGAs), has been done. These architectures are indeed usually considered as a good tradeoff between performance and flexibility, mainly thanks to the Dynamic Partial Reconfiguration (DPR), which allows to reconfigure a part of the design during run-time.However, this technique can have several drawbacks, especially regarding the storing of the configuration files, called bitstreams. To solve this issue, bitstream relocation can be deployed, which allows to decrease the number of configuration files required. However, this technique is long, error-prone, and requires specific knowledge inFPGAs. A fully automated design flow has been developped to ease the use of this technique. In order to provide flexibility regarding the sequence of treatments to be done on our architecture, a flexible and high-throughput communication structure is required. Thus, a Network-on-Chips study and characterization has been done accordingly to network processing and bitstream relocation properties. Finally, a case study has been developed in order to validate our approach.
35

Analyse mathématique et calibration de modèles de croissance tumorale / Mathematical analysis and model calibration for tumor growth models

Michel, Thomas 18 November 2016 (has links)
Cette thèse présente des travaux sur l’étude et la calibration de modèles d’équations aux dérivées partielles pour la croissance tumorale. La première partie porte sur l’analyse d’un modèle de croissance tumorale pour le cas de métastases au foie de tumeurs gastro-intestinales (GIST). Le modèle est un système d’équations aux dérivées partielles couplées et prend en compte plusieurs traitements dont un traitement anti-angiogénique. Le modèle permet de reproduire des données cliniques. La première partie de ce travail concerne la preuve d’existence/unicité de la solution du modèle. La seconde partie du travail porte sur l’étude du comportement asymptotique de la solution du modèle lorsqu’un paramètre du modèle, décrivant la capacité de la tumeur à évacuer la nécrose, converge vers 0. La seconde partie de la thèse concerne le développement d’un modèle de croissance pour des sphéroïdes tumoraux ainsi que sur la calibration de ce modèle à partir de données expérimentales in vitro. L’objectif est de développer un modèle permettant de reproduire quantitativement la distribution des cellules proliférantes à l’intérieur d’un sphéroïde en fonction de la concentration en nutriments. Le travail de modélisation et de calibration du modèle a été effectué à partir de données expérimentales permettant d’obtenir la répartition spatiale de cellules proliférantes dans un sphéroïde tumoral. / In this thesis, we present several works on the study and the calibration of partial differential equations models for tumor growth. The first part is devoted to the mathematical study of a model for tumor drug resistance in the case of gastro-intestinal tumor (GIST) metastases to the liver. The model we study consists in a coupled partial differential equations system and takes several treatments into account, such as a anti-angiogenic treatment. This model is able to reproduce clinical data. In a first part, we present the proof of the existence/uniqueness of the solution to this model. Then, in a second part, we study the asymptotic behavior of the solution when a parameter of this model, describing the capacity of the tumor to evacuate the necrosis, goes to 0. In the second part of this thesis, we present the development of model for tumor spheroids growth. We also present the model calibration thanks to in vitro experimental data. The main objective of this work is to reproduce quantitatively the proliferative cell distribution in a spheroid, as a function of the concentration of nutrients. The modeling and calibration of this model have been done thanks to experimental data consisting of proliferative cells distribution in a spheroid.
36

Remaining useful life estimation of critical components based on Bayesian Approaches. / Prédiction de l'état de santé des composants critiques à l'aide de l'approche Bayesienne

Mosallam, Ahmed 18 December 2014 (has links)
La construction de modèles de pronostic nécessite la compréhension du processus de dégradation des composants critiques surveillés afin d’estimer correctement leurs durées de fonctionnement avant défaillance. Un processus de d´dégradation peut être modélisé en utilisant des modèles de Connaissance issus des lois de la physique. Cependant, cette approche n´nécessite des compétences Pluridisciplinaires et des moyens expérimentaux importants pour la validation des modèles générés, ce qui n’est pas toujours facile à mettre en place en pratique. Une des alternatives consiste à apprendre le modèle de dégradation à partir de données issues de capteurs installés sur le système. On parle alors d’approche guidée par des données. Dans cette thèse, nous proposons une approche de pronostic guidée par des données. Elle vise à estimer à tout instant l’état de santé du composant physique et prédire sa durée de fonctionnement avant défaillance. Cette approche repose sur deux phases, une phase hors ligne et une phase en ligne. Dans la phase hors ligne, on cherche à sélectionner, parmi l’ensemble des signaux fournis par les capteurs, ceux qui contiennent le plus d’information sur la dégradation. Cela est réalisé en utilisant un algorithme de sélection non supervisé développé dans la thèse. Ensuite, les signaux sélectionnés sont utilisés pour construire différents indicateurs de santé représentant les différents historiques de données (un historique par composant). Dans la phase en ligne, l’approche développée permet d’estimer l’état de santé du composant test en faisant appel au filtre Bayésien discret. Elle permet également de calculer la durée de fonctionnement avant défaillance du composant en utilisant le classifieur k-plus proches voisins (k-NN) et le processus de Gauss pour la régression. La durée de fonctionnement avant défaillance est alors obtenue en comparant l’indicateur de santé courant aux indicateurs de santé appris hors ligne. L’approche développée à été vérifiée sur des données expérimentales issues de la plateforme PRO-NOSTIA sur les roulements ainsi que sur des données fournies par le Prognostic Center of Excellence de la NASA sur les batteries et les turboréacteurs. / Constructing prognostics models rely upon understanding the degradation process of the monitoredcritical components to correctly estimate the remaining useful life (RUL). Traditionally, a degradationprocess is represented in the form of physical or experts models. Such models require extensiveexperimentation and verification that are not always feasible in practice. Another approach that buildsup knowledge about the system degradation over time from component sensor data is known as datadriven. Data driven models require that sufficient historical data have been collected.In this work, a two phases data driven method for RUL prediction is presented. In the offline phase, theproposed method builds on finding variables that contain information about the degradation behaviorusing unsupervised variable selection method. Different health indicators (HI) are constructed fromthe selected variables, which represent the degradation as a function of time, and saved in the offlinedatabase as reference models. In the online phase, the method estimates the degradation state usingdiscrete Bayesian filter. The method finally finds the most similar offline health indicator, to the onlineone, using k-nearest neighbors (k-NN) classifier and Gaussian process regression (GPR) to use it asa RUL estimator. The method is verified using PRONOSTIA bearing as well as battery and turbofanengine degradation data acquired from NASA data repository. The results show the effectiveness ofthe method in predicting the RUL.
37

Data Reduction based energy-efficient approaches for secure priority-based managed wireless video sensor networks / Approches écoénergétiques basées sur la réduction des données pour les réseaux de capteurs vidéo sans fil

Salim, Christian 03 December 2018 (has links)
L'énorme quantité de données dans les réseaux de capteurs vidéo sans fil (WVSN) pour les nœuds de capteurs de ressources limitées augmente les défis liés à la consommation d'énergie et à la consommation de bande passante. La gestion du réseau est l’un des défis de WMSN en raison de l’énorme quantité d’images envoyées simultanément par les capteurs au coordinateur. Dans cette thèse, pour surmonter ces problèmes, plusieurs contributions ont été apportées. Chaque contribution se concentre sur un ou deux défis, comme suit: Dans la première contribution, pour réduire la consommation d'énergie, une nouvelle approche pour l'agrégation des données dans WVSN basée sur des fonctions de similarité des plans est proposée. Il est déployé sur deux niveaux: le niveau du nœud du capteur vidéo et le niveau du coordinateur. Au niveau du nœud de capteur, nous proposons une technique d'adaptation du taux de trame et une fonction de similarité pour réduire le nombre de trames détectées par les nœuds de capteur et envoyées au coordinateur. Au niveau du coordinateur, après avoir reçu des plans de différents nœuds de capteurs voisins, la similarité entre ces plans est calculée pour éliminer les redondances. Dans la deuxième contribution, certains traitements et analyses sont ajoutés en fonction de la similarité entre les images au niveau du capteur-nœud pour n'envoyer que les cadres importants au coordinateur. Les fonctions cinématiques sont définies pour prévoir l'étape suivante de l'intrusion et pour planifier le système de surveillance en conséquence. Dans la troisième contribution, sur la phase de transmission, au niveau capteur-nœud, un nouvel algorithme d'extraction des différences entre deux images est proposé. Cette contribution prend également en compte le défi de sécurité en adaptant un algorithme de chiffrement efficace au niveau du nœud de capteur. Dans la dernière contribution, pour éviter une détection plus lente des intrusions conduisant à des réactions plus lentes du coordinateur, un protocole mac-layer basé sur le protocole S-MAC a été proposé pour contrôler le réseau. Cette solution consiste à ajouter un bit de priorité au protocole S-MAC pour donner la priorité aux données critiques. / The huge amount of data in Wireless Video Sensor Networks (WVSNs) for tiny limited resources sensor nodes increases the energy and bandwidth consumption challenges. Controlling the network is one of the challenges in WMSN due to the huge amount of images sent at the same time from the sensors to the coordinator. In this thesis, to overcome these problems, several contributions have been made. Each contribution concentrates on one or two challenges as follows: In the first contribution, to reduce the energy consumption a new approach for data aggregation in WVSN based on shot similarity functions is proposed. It is deployed on two levels: the video-sensor node level and the coordinator level. At the sensor node level, we propose a frame rate adaptation technique and a similarity function to reduce the number of frames sensed by the sensor nodes and sent to the coordinator. At the coordinator level, after receiving shots from different neighboring sensor nodes, the similarity between these shots is computed to eliminate redundancies. In the second contribution, some processing and analysis are added based on the similarity between frames on the sensor-node level to send only the important frames to the coordinator. Kinematic functions are defined to predict the next step of the intrusion and to schedule the monitoring system accordingly. In the third contribution, on the transmission phase, on the sensor-node level, a new algorithm to extract the differences between two images is proposed. This contribution also takes into account the security challenge by adapting an efficient ciphering algorithm on the sensor node level. In the last contribution, to avoid slower detection of intrusions leading to slower reactions from the coordinator, a mac-layer protocol based on S-MAC protocol has been proposed to control the network. This solution consists in adding a priority bit to the S-MAC protocol to give priority to critical data.
38

Automated evaluation of three dimensional ultrasonic datasets / Évaluation automatique de données ultrasonores en 3D

Osman, Ahmad 14 June 2013 (has links)
Le contrôle non destructif est devenu nécessaire pour assurer la qualité des matériaux et des composants soit en service ou à l'étape de la production. Ceci nécessite l'utilisation d'une technique d’inspection rapide, robuste et fiable. En tant que technique de contrôle principale, la technologie des ultrasons a des capacités uniques pour évaluer la position, la taille et la forme des discontinuités. Ces informations ont un rôle essentiel dans les critères d'acceptation qui sont fondés sur la sécurité et les exigences de qualité des composants fabriqués. Par conséquent, un usage intensif de la technique des ultrasons apparaît notamment dans l'inspection des composites fabriqués à grande échelle dans l'industrie aérospatiale. D'importants progrès techniques ont contribué à l'optimisation des techniques d'acquisition par ultrasons telles que la technique de "Sampling Phased Array". Cependant, les systèmes d'acquisition doivent être complétés par une procédure d'analyse automatisée de données afin d'éviter l'interprétation manuelle fastidieuse de toutes les données produites. Un tel complément permet d'accélérer le processus d'inspection et d'améliorer sa fiabilité. L'objectif de cette thèse est de proposer une chaîne d’analyse dédiée au traitement automatique des volumes échographiques 3D obtenus en utilisant la technique Sampling Phased Array. Tout d'abord, une étude détaillée du bruit de speckle affectant les données échographiques a été effectuée, puisque ce type de bruit réduit la qualité des données échographiques. Ensuite, une chaîne d’analyse complète a été développée, constituée d'une procédure de segmentation suivie d'un processus de classification. La méthodologie de segmentation proposée est adaptée aux données ultrasonores 3D et a pour objectif de détecter tous les défauts potentiels à l'intérieur du volume d'entrée 3D. La procédure de segmentation étant en priorité dédiée à la détection des défauts qui est vitale, une difficulté principale est le taux élevé de fausses alarmes qui peuvent être détectées également. La classification correcte des fausses alarmes est nécessaire afin de réduire le taux de rejet des pièces saines. Cela doit être fait sans risquer la perte des vrais défauts. Par conséquent, la segmentation doit être suivie d'un processus de classification efficace qui doit distinguer les défauts réels des fausses alarmes. Ceci a été réalisé en utilisant une approche de classification spécifique basée sur une approche de fusion de données. La chaîne complète d'analyse a été testée sur plusieurs mesures ultrasonores volumiques de composites plastiques à renfort fibre de carbone. Les résultats expérimentaux de la chaîne ont révélé une grande précision ainsi qu'une très bonne fiabilité de détection, de caractérisation et de classification des défauts avec un taux très faible de fausses alarmes. / Non-destructive testing has become necessary to ensure the quality of materials and components either in-service or at the production stage. This requires the use of a rapid, robust and reliable testing technique. As a main testing technique, the ultrasound technology has unique abilities to assess the discontinuity location, size and shape. Such information play a vital role in the acceptance criteria which are based on safety and quality requirements of manufactured components. Consequently, an extensive usage of the ultrasound technique is perceived especially in the inspection of large scale composites manufactured in the aerospace industry. Significant technical advances have contributed into optimizing the ultrasound acquisition techniques such as the sampling phased array technique. However, acquisition systems need to be complemented with an automated data analysis procedure to avoid the time consuming manual interpretation of all produced data. Such a complement would accelerate the inspection process and improve its reliability. The objective of this thesis is to propose an analysis chain dedicated to automatically process the 3D ultrasound volumes obtained using the sampling phased array technique. First, a detailed study of the speckle noise affecting the ultrasound data was conducted, as speckle reduces the quality of ultrasound data. Afterward, an analysis chain was developed, composed of a segmentation procedure followed by a classification procedure. The proposed segmentation methodology is adapted for ultrasound 3D data and has the objective to detect all potential defects inside the input volume. While the detection of defects is vital, one main difficulty is the high amount of false alarms which are detected by the segmentation procedure. The correct distinction of false alarms is necessary to reduce the rejection ratio of safe parts. This has to be done without risking missing true defects. Therefore, there is a need for a powerful classifier which can efficiently distinguish true defects from false alarms. This is achieved using a specific classification approach based on data fusion theory. The chain was tested on several ultrasound volumetric measures of Carbon Fiber Reinforced Polymers components. Experimental results of the chain revealed high accuracy, reliability in detecting, characterizing and classifying defects.

Page generated in 0.1103 seconds