41 |
Application du calcul d'incidence à la fusion de donnéesDumas, Marc-André 11 April 2018 (has links)
Le calcul d'incidence généralisé est une technique hybride symbolique-numérique qui présente un potentiel intéressant pour la fusion de données, notamment par sa correspondance possible avec la théorie de l'évidence. Ce mémoire présente une série de modifications au calcul d'incidence généralisé afin qu'il puisse être utilisé pour éliminer le problème de bouclage d'information, un problème important de la fusion de données qui fait que les données corrélées prennent une importance plus grande. Ces modifications permettent aussi de représenter divers types de combinaisons à l'aide de l'approche des univers possibles. Il est notamment possible d'effectuer des combinaisons de Yager associatives et des parallèles peuvent être faits avec la théorie de Dezert et Smarandache. / Generalized Incidence Calculus is a hybrid symbolic-numeric approach to data fusion that presents many interesting characteristics, in particular a correspondence with the Theory of Evidence. This master's thesis presents modifications to Generalized Incidence Calculus for its application to eliminate the Data Looping problem which makes combination of correlated data take more importance. Those modifications also allow the representation of alternative combinations of the Theory of Evidence by using a possible worlds approach. In particular, it is possible to associatively combine data using the Yager combination and parallels can be made with the Dezert-Smarandache Theory.
|
42 |
Représentation et évaluation de structures argumentativesMegzari, Idriss El 24 April 2018 (has links)
Dans des domaines comme l'aéronautique, l'énergie, le médical ou encore les technologies de l'information en général, les besoins de formuler des arguments de sûreté, sécurité, confidentialité, etc. sont de plus en plus présents. Or, la représentation et l'évaluation de ces arguments n'est pas une chose aisée et fait l'objet de nombreux débats depuis les dix dernières années particulièrement. Une structure argumentative est une modélisation d'un argument ayant comme but d'expliciter les liens (l'argument) reliant une affirmation modélisant une propriété d'un système aux preuves qui la supportent. Les deux principaux défis reliés aux structures argumentatives sont les langages de représentation et les méthodes permettant d'évaluer le niveau de confiance que l'on peut attribuer à l'argument modélisé. S'intéressant à ces deux problématiques, ce mémoire investigue d'une part des langages permettant de représenter des structures argumentatives, et d'une autre part la théorie de l'évidence de Dempster-Shafer. En particulier, ce mémoire présente les langages GSN et TCL, la correspondance entre ces deux langages ainsi que de possibles extensions permettant d'en augmenter l'expressivité. La théorie de l'évidence de Dempster-Shafer y est aussi présentée et y fait l'objet d'une extension qui évite de traiter les cas limites comme des cas particuliers. La théorie de l'évidence de Dempster-Shafer permet de construire un modèle de confiance global à partir d'évaluations locales. Ces dernières sont obtenues en évaluant chaque composante d'une structure argumentative de façon indépendante. Des approches de construction des structures argumentatives ainsi que d'évaluation de leurs éléments sont développées et appliquées dans le cas de deux exemples provenant de deux contextes différents : la conformité avec l'exemple de l'ISO-27001 et la sûreté avec l'exemple d'une pompe à perfusion.
|
43 |
Combinaison d'informations hétérogènes dans le cadre unificateur des ensembles aléatoires : approximations et robustesseFlorea, Mihai Cristian 13 April 2018 (has links)
Dans ce travail nous nous intéressons aux problèmes liés à la combinaison d'informations en provenance de sources multiples. Nous proposons de représenter les informations en provenance de la théorie des ensembles flous (FST) et de la théorie de l'évidence (DST) dans le cadre unificateur des ensembles aléatoires (RST). Le processus de combinaison fait face à deux problématiques majeures : (1) une explosion du temps de calcul dû au grand nombre d'éléments focaux, et (2) la combinaison d'informations en conflit total. Nous proposons dans un premier temps de réduire le temps de calcul du processus de combinaison, en appliquant une approximation directe aux informations de la FST qui s'avère très efficace lorsque la cardinalité du cadre de discernement est élevée. Dans un deuxième temps nous proposons une formulation générale pour les règles de combinaison de la RST, ainsi qu'une nouvelle classe de règles adaptatives qui a l'avantage de (a) prendre en compte de manière automatique la fiabilité des sources, (b) combiner des informations définies sur des cadres de discernement différents et homogènes. Elle possède un comportement similaire à la règle conjonctive lorsque les sources sont en accord et un comportement similaire à la règle disjonctive lorsque les sources sont en désaccord.
|
44 |
Multi-focus image fusion using local variability / Fusion d'image en utilisant la variabilité localeWahyuni, Ias Sri 28 February 2018 (has links)
Dans cette thèse, nous nous intéressons aux méthodes de la fusion d'images multi focales. Cette technique consiste à fusionner plusieurs images capturées avec différentes distances focales de la même scène. Cela permet d'obtenir une image de meilleure qualité à partir des deux images sources. Nous proposons une méthode de fusion d'images s'appuyant sur les techniques des pyramides Laplaciennes en utilisant comme règle de sélection les transformées d'ondelettes discretes(DWT: Discrete Wavelet Transform). Nous développons, par la suite, deux méthodes de fusion d'images multi focales basée sur la variabilité locale de chaque pixel. Elle tient en compte les informations dans la région environnante des pixels. La première consiste à utiliser la variabilité locale comme information dans la méthode de Dempster-Shafer. La seconde utilise une métrique basée sur la variabilité locale. En effet, la fusion proposée effectue une pondération de chaque pixel par une exponentielle de sa variabilité locale. Une étude comparative entre les méthodes proposées et celles existantes a été réalisée. Les résultats expérimentaux démontrent que nos méthodes proposées donnent des meilleurs fusions, tant dans la perception visuelle que dans l'analyse quantitative. / In this thesis, we are interested in the multi-focus image fusion method. This technique consists of fusing several captured images with different focal lengths of the same scene to obtain an image with better quality than the two source images. We propose an image fusion method based on Laplacian pyramid technique using Discrete Wavelet Transform (DWT) as a selection rule. We then develop two multi-focus image fusion methods based on the local variability of each pixel. It takes into account the information in the surrounding pixel area. The first method is to use local variability as an information in the Dempster-Shafer theory. The second method uses a metric based on local variability. Indeed, the proposed fusion method weighs each pixel by an exponential of its local variability. A comparative study between the proposed methods and the existing methods was carried out. The experimental results show that our proposed methods give better fusions, both in visual perception and in quantitative analysis.
|
45 |
Application of hybrid uncertainty-clustering approach in pre-processing well-logs / Application de l'approche hybride incertitude-partitionnement pour le prétraitement des données de diagraphieMasoudi, Pedram 16 May 2017 (has links)
La thèse est principalement centrée sur l'étude de la résolution verticale des diagraphies. On outre, l'arithmétique floue est appliquée aux modèles expérimentaux pétrophysiques en vue de transmettre l'incertitude des données d'entrée aux données de sortie, ici la saturation irréductible en eau et la perméabilité. Les diagraphies sont des signaux digitaux dont les données sont des mesures volumétriques. Le mécanisme d'enregistrement de ces données est modélisé par des fonctions d'appartenance floues. On a montré que la Résolution Verticale de la Fonction d'Appartenance (VRmf) est supérieur d'espacement. Dans l'étape suivante, la fréquence de Nyquist est revue en fonction du mécanisme volumétrique de diagraphie ; de ce fait, la fréquence volumétrique de Nyquist est proposée afin d'analyser la précision des diagraphies. Basé sur le modèle de résolution verticale développée, un simulateur géométrique est conçu pour générer les registres synthétiques d'une seule couche mince. Le simulateur nous permet d'analyser la sensibilité des diagraphies en présence d'une couche mince. Les relations de régression entre les registres idéaux (données d'entrée de ce simulateur) et les registres synthétiques (données de sortie de ce simulateur) sont utilisées comme relations de déconvolution en vue d'enlever l'effet des épaules de couche d'une couche mince sur les diagraphies GR, RHOB et NPHI. Les relations de déconvolution ont bien été appliquées aux diagraphies pour caractériser les couches minces. Par exemple, pour caractériser une couche mince poreuse, on a eu recours aux données de carottage qui étaient disponibles pour la vérification : NPHI mesuré (3.8%) a été remplacé (corrigé) par 11.7%. NPHI corrigé semble être plus précis que NPHI mesuré, car la diagraphie a une valeur plus grande que la porosité de carottage (8.4%). Il convient de rappeler que la porosité totale (NPHI) ne doit pas être inférieure à la porosité effective (carottage). En plus, l'épaisseur de la couche mince a été estimée à 13±7.5 cm, compatible avec l'épaisseur de la couche mince dans la boite de carottage (<25 cm). Normalement, l'épaisseur in situ est inférieure à l'épaisseur de la boite de carottage, parce que les carottes obtenues ne sont plus soumises à la pression lithostatique, et s'érodent à la surface du sol. La DST est appliquée aux diagraphies, et l'intervalle d'incertitude de DST est construit. Tandis que la VRmf des diagraphies GR, RHOB, NPHI et DT est ~60 cm, la VRmf de l'intervalle d'incertitude est ~15 cm. Or, on a perdu l'incertitude de la valeur de diagraphie, alors que la VRmf est devenue plus précise. Les diagraphies ont été ensuite corrigées entre l'intervalle d'incertitude de DST avec quatre simulateurs. Les hautes fréquences sont amplifiées dans les diagraphies corrigées, et l'effet des épaules de couche est réduit. La méthode proposée est vérifiée dans les cas synthétiques, la boite de carottage et la porosité de carotte. L'analyse de partitionnement est appliquée aux diagraphies NPHI, RHOB et DT en vue de trouver l'intervalle d'incertitude, basé sur les grappes. Puis, le NPHI est calibré par la porosité de carottes dans chaque grappe. Le √MSE de NPHI calibré est plus bas par rapport aux cinq modèles conventionnels d'estimation de la porosité (au minimum 33% d'amélioration du √MSE). Le √MSE de généralisation de la méthode proposée entre les puits voisins est augmenté de 42%. L'intervalle d'incertitude de la porosité est exprimé par les nombres flous. L'arithmétique floue est ensuite appliquée dans le but de calculer les nombres flous de la saturation irréductible en eau et de la perméabilité. Le nombre flou de la saturation irréductible en eau apporte de meilleurs résultats en termes de moindre sous-estimation par rapport à l'estimation nette. Il est constaté que lorsque les intervalles de grappes de porosité ne sont pas compatibles avec la porosité de carotte, les nombres flous de la perméabilité ne sont pas valables. / In the subsurface geology, characterization of geological beds by well-logs is an uncertain task. The thesis mainly concerns studying vertical resolution of well-logs (question 1). In the second stage, fuzzy arithmetic is applied to experimental petrophysical relations to project the uncertainty range of the inputs to the outputs, here irreducible water saturation and permeability (question 2). Regarding the first question, the logging mechanism is modelled by fuzzy membership functions. Vertical resolution of membership function (VRmf) is larger than spacing and sampling rate. Due to volumetric mechanism of logging, volumetric Nyquist frequency is proposed. Developing a geometric simulator for generating synthetic-logs of a single thin-bed enabled us analysing sensitivity of the well-logs to the presence of a thin-bed. Regression-based relations between ideal-logs (simulator inputs) and synthetic-logs (simulator outputs) are used as deconvolution relations for removing shoulder-bed effect of thin-beds from GR, RHOB and NPHI well-logs. NPHI deconvolution relation is applied to a real case where the core porosity of a thin-bed is 8.4%. The NPHI well-log is 3.8%, and the deconvolved NPHI is 11.7%. Since it is not reasonable that the core porosity (effective porosity) be higher than the NPHI (total porosity), the deconvolved NPHI is more accurate than the NPHI well-log. It reveals that the shoulder-bed effect is reduced in this case. The thickness of the same thin-bed was also estimated to be 13±7.5 cm, which is compatible with the thickness of the thin-bed in the core box (<25 cm). Usually, in situ thickness is less than the thickness of the core boxes, since at the earth surface, there is no overburden pressure, also the cores are weathered. Dempster-Shafer Theory (DST) was used to create well-log uncertainty range. While the VRmf of the well-logs is more than 60 cm, the VRmf of the belief and plausibility functions (boundaries of the uncertainty range) would be about 15 cm. So, the VRmf is improved, while the certainty of the well-log value is lost. In comparison with geometric method, DST-based algorithm resulted in a smaller uncertainty range of GR, RHOB and NPHI logs by 100%, 71% and 66%, respectively. In the next step, cluster analysis is applied to NPHI, RHOB and DT for the purpose of providing cluster-based uncertainty range. Then, NPHI is calibrated by core porosity value in each cluster, showing low √MSE compared to the five conventional porosity estimation models (at least 33% of improvement in √MSE). Then, fuzzy arithmetic is applied to calculate fuzzy numbers of irreducible water saturation and permeability. Fuzzy number of irreducible water saturation provides better (less overestimation) results than the crisp estimation. It is found that when the cluster interval of porosity is not compatible with the core porosity, the permeability fuzzy numbers are not valid, e.g. in well#4. Finally, in the possibilistic approach (the fuzzy theory), by calibrating α-cut, the right uncertainty interval could be achieved, concerning the scale of the study.
|
46 |
Modèles statistiques avancés pour la reconnaissance de l’activité physique dans un environnement non contrôlé en utilisant un réseau d’objets connectés / Advanced Statistical Models for Recognizing Physical Activity in an Uncontrolled Environment Using a Network of Connected ObjectsAmroun, Hamdi 26 October 2018 (has links)
Avec l’arrivée des objets connectés, la reconnaissance de l’activité physique connait une nouvelle ère. De nouvelles considérations sont à prendre en compte afin d’aboutir à un meilleur processus de traitement. Dans cette thèse, nous avons exploré le processus de traitement pour la reconnaissance de l’activité physique dans un environnement non contrôlé. Les activités physiques reconnues, avec seulement une centrale inertielle (accéléromètre, gyroscope et magnétomètre), sont dites élémentaires. Les autres types d’activités dépendantes d’un contexte sont dites « basés sur le contexte ». Nous avons extrait la transformée en cosinus discrète (DCT) comme principal descripteur pour la reconnaissance des activités élémentaires. Afin de reconnaitre les activités physiques basées sur le contexte, nous avons défini trois niveaux de granularité : un premier niveau dépendant des objets connectés embarqués (smartphone, smartwatch et samrt TV). Un deuxième niveau concerne l’étude des comportements des participants en interaction avec l’écran de la smart TV. Le troisième niveau concerne l’étude de l’attention des participants envers la TV. Nous avons pris en considération l’aspect imperfection des données en fusionnant les données multi capteurs avec le modèle de Dempster-Shafer. A ce titre, nous avons proposé différentes approches pour calculer et approximer les fonctions de masse. Afin d’éviter de calculer et sélectionner les différents descripteurs, nous avons proposé une approche basée sur l’utilisation d’algorithmes d’apprentissage en profondeur (DNN). Nous avons proposé deux modèles : un premier modèle consiste à reconnaitre les activités élémentaires en sélectionnant la DCT comme principal descripteur (DNN-DCT). Le deuxième modèle consiste à apprendre les données brutes des activités basées sur le contexte (CNN-brutes). L’inconvénient du modèle DNN-DCT est qu’il est rapide mais moins précis, alors que le modèle CNN-brutes est plus précis mais très lent. Nous avons proposé une étude empirique permettant de comparer les différentes méthodes pouvant accélérer l’apprentissage tout en gardant un niveau élevé de précision. Nous avons ainsi exploré la méthode d’optimisation par essaim particulaires (PSO). Les résultats sont très satisfaisants (97%) par rapport à l’apprentissage d’un réseau de neurones profond avec les méthodes d’optimisation classiques telles que la descente de Gradient Stochastique et l’optimisation par Gradient accéléré de Nesterov. Les résultats de nos travaux suggèrent le recours à de bons descripteurs dans le cas où le contexte n’importe peu, la prise en compte de l’imperfection des données capteurs quand le domaine sous-jacent l’exige, l’utilisation de l’apprentissage profond avec un optimiseur permettant d’avoir des modèles très précis et plus rapides. / With the arrival of connected objects, the recognition of physical activity is experiencing a new era. New considerations need to be taken into account in order to achieve a better treatment process. In this thesis, we explored the treatment process for recognizing physical activity in an uncontrolled environment. The recognized physical activities, with only one inertial unit (accelerometer, gyroscope and magnetometer), are called elementary. Other types of context-dependent activities are called "context-based". We extracted the DCT as the main descriptor for the recognition of elementary activities. In order to recognize the physical activities based on the context, we defined three levels of granularity: a first level depending on embedded connected objects (smartphone, smartwatch and samrt TV . A second level concerns the study of participants' behaviors interacting with the smart TV screen. The third level concerns the study of participants' attention to TV. We took into consideration the imperfection aspect of the data by merging the multi sensor data with the Dempster-Shafer model. As such, we have proposed different approaches for calculating and approximating mass functions. In order to avoid calculating and selecting the different descriptors, we proposed an approach based on the use of deep learning algorithms (DNN). We proposed two models: a first model consisting of recognizing the elementary activities by selecting the DCT as the main descriptor (DNN-DCT). The second model is to learn raw data from context-based activities (CNN-raw). The disadvantage of the DNN-DCT model is that it is fast but less accurate, while the CNN-raw model is more accurate but very slow. We have proposed an empirical study to compare different methods that can accelerate learning while maintaining a high level of accuracy. We thus explored the method of optimization by particle swarm (PSO). The results are very satisfactory (97%) compared to deep neural network with stochastic gradients descent and Nesterov accelerated Gradient optimization. The results of our work suggest the use of good descriptors in the case where the context matters little, the taking into account of the imperfection of the sensor data requires that it be used and faster models.
|
47 |
Using metrics from multiple layers to detect attacks in wireless networksAparicio-Navarro, Francisco J. January 2014 (has links)
The IEEE 802.11 networks are vulnerable to numerous wireless-specific attacks. Attackers can implement MAC address spoofing techniques to launch these attacks, while masquerading themselves behind a false MAC address. The implementation of Intrusion Detection Systems has become fundamental in the development of security infrastructures for wireless networks. This thesis proposes the designing a novel security system that makes use of metrics from multiple layers of observation to produce a collective decision on whether an attack is taking place. The Dempster-Shafer Theory of Evidence is the data fusion technique used to combine the evidences from the different layers. A novel, unsupervised and self- adaptive Basic Probability Assignment (BPA) approach able to automatically adapt its beliefs assignment to the current characteristics of the wireless network is proposed. This BPA approach is composed of three different and independent statistical techniques, which are capable to identify the presence of attacks in real time. Despite the lightweight processing requirements, the proposed security system produces outstanding detection results, generating high intrusion detection accuracy and very low number of false alarms. A thorough description of the generated results, for all the considered datasets is presented in this thesis. The effectiveness of the proposed system is evaluated using different types of injection attacks. Regarding one of these attacks, to the best of the author knowledge, the security system presented in this thesis is the first one able to efficiently identify the Airpwn attack.
|
48 |
Handling uncertainty in intrusion analysisZomlot, Loai M. M. January 1900 (has links)
Doctor of Philosophy / Department of Computing and Information Sciences / Xinming Ou / Intrusion analysis, i.e., the process of combing through Intrusion Detection System (IDS) alerts and audit logs to identify true successful and attempted attacks, remains a difficult problem in practical network security defense. The primary cause of this problem is the high false positive rate in IDS system sensors used to detect malicious activity. This high false positive rate is attributed to an inability to differentiate nearly certain attacks from those that are merely possible. This inefficacy has created high uncertainty in intrusion analysis and consequently causing an overwhelming amount of work for security analysts. As a solution, practitioners typically resort to a specific IDS-rules set that precisely captures specific attacks. However, this results in failure to discern other forms of the targeted attack because an attack’s polymorphism reflects human intelligence. Alternatively, the addition of generic rules so that an activity with remote indication of an attack will trigger an alert, requires the security analyst to discern true alerts from a multitude of false alerts, thus perpetuating the original problem. The perpetuity of this trade-off issue is a dilemma that has puzzled the cyber-security community for years.
A solution to this dilemma includes reducing uncertainty in intrusion analysis by making IDS-nearly-certain alerts prominently discernible. Therefore, I propose alerts prioritization, which can be attained by integrating multiple methods. I use IDS alerts correlation by building attack scenarios in a ground-up manner. In addition, I use Dempster-Shafer Theory (DST), a non-traditional theory to quantify uncertainty, and I propose a new method for fusing non-independent alerts in an attack scenario. Finally, I propose usage of semi-supervised learning to capture an organization’s contextual knowledge, consequently improving prioritization. Evaluation of these approaches was conducted using multiple datasets. Evaluation results strongly indicate that the ranking provided by the approaches gives good prioritization of IDS alerts based on their likelihood of indicating true attacks.
|
49 |
Data Fusion for Materials Location Estimation in ConstructionNavabzadeh Razavi, Saiedeh 29 April 2010 (has links)
Effective automated tracking and locating of the thousands of materials on construction sites improves material distribution and project performance and thus has a significant positive impact on construction productivity. Many locating technologies and data sources have therefore been developed, and the deployment of a cost-effective, scalable, and easy-to-implement materials location sensing system at actual construction sites has very recently become both technically and economically feasible. However, considerable opportunity still exists to improve the accuracy, precision, and robustness of such systems. The quest for fundamental methods that can take advantage of the relative strengths of each individual technology and data source motivated this research, which has led to the development of new data fusion methods for improving materials location estimation.
In this study a data fusion model is used to generate an integrated solution for the automated identification, location estimation, and relocation detection of construction materials. The developed model is a modified functional data fusion model. Particular attention is paid to noisy environments where low-cost RFID tags are attached to all materials, which are sometimes moved repeatedly around the site. A portion of the work focuses partly on relocation detection because it is closely coupled with location estimation and because it can be used to detect the multi-handling of materials, which is a key indicator of inefficiency.
This research has successfully addressed the challenges of fusing data from multiple sources of information in a very noisy and dynamic environment. The results indicate potential for the proposed model to improve location estimation and movement detection as well as to automate the calculation of the incidence of multi-handling.
|
50 |
Radar and Thermopile Sensor Fusion for Pedestrian DetectionRouhani, Shahin January 2005 (has links)
During the last decades, great steps have been taken to decrease passenger fatality in cars. Systems such as ABS and airbags have been developed for this purpose alone. But not much effort has been put into pedestrian safety. In traffic today, pedestrians are one of the most endangered participants and in recent years, there has been an increased demand for pedestrian safety from the European Enhanced Vehicle safety Committee and the European New Car Assessment Programme has thereby developed tests where pedestrian safety is rated. With this, detection of pedestrians has arised as a part in the automotive safety research. This thesis provides some of this research available in the area and a brief introduction to some of the sensors readily available. The objective of this work is to detect pedestrians in front of a vehicle by using thermoelectric infrared sensors fused with short range radar sensors and also to minimize any missed detections or false alarms. There has already been extensive work performed with the thermoelectric infrared sensors for this sole purpose and this thesis is based on that work. Information is provided about the sensors used and an explanation of how they are set up during this work. Methods used for classifying objects are given and the assumptions made about pedestrians in this system. A basic tracking algorithm is used to track radar detected objects in order to provide the fusion system with better data. The approach chosen for the sensor fusion is a central-level fusion where the probabilities for a pedestrian from the radars and the thermoelectric infrared sensors are combined using Dempster-Shafer Theory and accumulated over time in the Occupancy Grid framework. Theories that are extensively used in this thesis are explained in detail and discussed accordingly in different chapters. Finally the experiments undertaken and the results attained from the presented system are shown. A comparison is made with the previous detection system, which only uses thermoelectric infrared sensors and of which this work continues on. Conclusions regarding what this system is capable of are drawn with its inherent strengths and weaknesses.
|
Page generated in 0.0841 seconds