• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 114
  • 37
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 489
  • 215
  • 173
  • 132
  • 102
  • 49
  • 48
  • 43
  • 39
  • 38
  • 36
  • 34
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Coupled methods of nonlinear estimation and control applicable to terrain-aided navigation / Méthodes couplées de contrôle et d'estimation non linéaires adaptées à la navigation par corrélation de terrain

Flayac, Emilien 25 November 2019 (has links)
Au cours de cette thèse, le problème général de la conception de méthodes couplées de contrôle et d'estimation pour des systèmes dynamiques non linéaires a été étudié. La cible principale était la navigation par corrélation de terrain (TAN en anglais), où le problème était de guider et d’estimer la position 3D d’un drone survolant une zone connue. Dans cette application, on suppose que les seules données disponibles sont la vitesse du système, une mesure de la différence entre l'altitude absolue du drone et l'altitude du sol survolé et une carte du sol. La TAN est un bon exemple d'application non linéaire dans laquelle le principe de séparation ne peut pas être appliqué. En réalité, la qualité des observations dépend du contrôle et plus précisément de la zone survolée par le drone. Par conséquent, il existe un besoin de méthodes couplées d'estimation et de contrôle. Il est à noter que le problème d'estimation créé par TAN est en soi difficile à analyser et à résoudre. En particulier, les sujets suivants ont été traités:• Conception d'observateur non linéaire et commande en retour de sortie pour la TAN avec des cartes au terrain analytiquesdans un cadre déterministe à temps continu.• La modélisation conjointe du filtrage optimal non linéaire et du contrôle optimal stochastique en temps discretavec des informations imparfaites.• la conception de schémas de contrôle prédictif stochastique duaux associés à un filtre particulaire et leur implémentation numérique pour la TAN. / During this PhD, the general problem of designing coupled control and estimation methods for nonlinear dynamical systems has been investigated. The main target application was terrain-aided navigation (TAN), where the problem is to guide and estimate the 3D position of a drone flying over a known area. In this application, it is assumed that the only available data are the speed of the system, a measurement of the difference between the absolute altitude of the drone and the altitude of the ground flied over and a map of the ground. TAN is a good example of a nonlinear application where the separation principle cannot be applied. Actually, the quality of the observations depends on the control and more precisely on the area that is flied over by the drone. Therefore, there is a need for coupled estimation and control methods. It is to be noted that the estimation problem created by TAN is in itself difficult to analyse and solve. In particular, the following topics have been treated:• Nonlinear observer design and outputfeedback control for TAN with analytical ground mapsin a deterministic continuous-time framework.• The joint modelling of nonlinear optimal filtering and discrete-time stochastic optimal controlwith imperfect information.• The design of output-feedback Explicit dual stochastic MPC schemes coupled with a particlefilter and their numerical implementation to TAN.
322

State estimation and trajectory planning using box particle kernels / Estimation d'état et planification de trajectoire par mixtures de noyaux bornés

Merlinge, Nicolas 29 October 2018 (has links)
L'autonomie d'un engin aérospatial requière de disposer d'une boucle de navigation-guidage-pilotage efficace et sûre. Cette boucle intègre des filtres estimateurs et des lois de commande qui doivent dans certains cas s'accommoder de non-linéarités sévères et être capables d'exploiter des mesures ambiguës. De nombreuses approches ont été développées à cet effet et parmi celles-ci, les approches particulaires présentent l'avantage de pouvoir traiter de façon unifiée des problèmes dans lesquels les incertitudes d’évolution du système et d’observation peuvent être soumises à des lois statistiques quelconques. Cependant, ces approches ne sont pas exemptes de défauts dont le plus important est celui du coût de calcul élevé. D'autre part, dans certains cas, ces méthodes ne permettent pas non plus de converger vers une solution acceptable. Des adaptations récentes de ces approches, combinant les avantages du particulaire tel que la possibilité d'extraire la recherche d'une solution d'un domaine local de description et la robustesse des approches ensemblistes, ont été à l'origine du travail présenté dans cette thèse.Cette thèse présente le développement d’un algorithme d’estimation d’état, nommé le Box Regularised Particle Filter (BRPF), ainsi qu’un algorithme de commande, le Box Particle Control (BPC). Ces algorithmes se basent tous deux sur l’utilisation de mixtures de noyaux bornés par des boites (i.e., des vecteurs d’intervalles) pour décrire l’état du système sous la forme d’une densité de probabilité multimodale. Cette modélisation permet un meilleur recouvrement de l'espace d'état et apporte une meilleure cohérence entre la prédite et la vraisemblance. L’hypothèse est faite que les incertitudes incriminées sont bornées. L'exemple d'application choisi est la navigation par corrélation de terrain qui constitue une application exigeante en termes d'estimation d'état.Pour traiter des problèmes d’estimation ambiguë, c’est-à-dire lorsqu’une valeur de mesure peut correspondre à plusieurs valeurs possibles de l’état, le Box Regularised Particle Filter (BRPF) est introduit. Le BRPF est une évolution de l’algorithme de Box Particle Filter (BPF) et est doté d’une étape de ré-échantillonnage garantie et d’une stratégie de lissage par noyau (Kernel Regularisation). Le BRPF assure théoriquement une meilleure estimation que le BPF en termes de Mean Integrated Square Error (MISE). L’algorithme permet une réduction significative du coût de calcul par rapport aux approches précédentes (BPF, PF). Le BRPF est également étudié dans le cadre d’une intégration dans des architectures fédérées et distribuées, ce qui démontre son efficacité dans des cas multi-capteurs et multi-agents.Un autre aspect de la boucle de navigation–guidage-pilotage est le guidage qui nécessite de planifier la future trajectoire du système. Pour tenir compte de l'incertitude sur l'état et des contraintes potentielles de façon versatile, une approche nommé Box Particle Control (BPC) est introduite. Comme pour le BRPF, le BPC se base sur des mixtures de noyaux bornés par des boites et consiste en la propagation de la densité d’état sur une trajectoire jusqu’à un certain horizon de prédiction. Ceci permet d’estimer la probabilité de satisfaire les contraintes d’état au cours de la trajectoire et de déterminer la séquence de futures commandes qui maintient cette probabilité au-delà d’un certain seuil, tout en minimisant un coût. Le BPC permet de réduire significativement la charge de calcul. / State estimation and trajectory planning are two crucial functions for autonomous systems, and in particular for aerospace vehicles.Particle filters and sample-based trajectory planning have been widely considered to tackle non-linearities and non-Gaussian uncertainties.However, these approaches may produce erratic results due to the sampled approximation of the state density.In addition, they have a high computational cost which limits their practical interest.This thesis investigates the use of box kernel mixtures to describe multimodal probability density functions.A box kernel mixture is a weighted sum of basic functions (e.g., uniform kernels) that integrate to unity and whose supports are bounded by boxes, i.e., vectors of intervals.This modelling yields a more extensive description of the state density while requiring a lower computational load.New algorithms are developed, based on a derivation of the Box Particle Filter (BPF) for state estimation, and of a particle based chance constrained optimisation (Particle Control) for trajectory planning under uncertainty.In order to tackle ambiguous state estimation problems, a Box Regularised Particle Filter (BRPF) is introduced.The BRPF consists of an improved BPF with a guaranteed resampling step and a smoothing strategy based on kernel regularisation.The proposed strategy is theoretically proved to outperform the original BPF in terms of Mean Integrated Square Error (MISE), and empirically shown to reduce the Root Mean Square Error (RMSE) of estimation.BRPF reduces the computation load in a significant way and is robust to measurement ambiguity.BRPF is also integrated to federated and distributed architectures to demonstrate its efficiency in multi-sensors and multi-agents systems.In order to tackle constrained trajectory planning under non-Gaussian uncertainty, a Box Particle Control (BPC) is introduced.BPC relies on an interval bounded kernel mixture state density description, and consists of propagating the state density along a state trajectory at a given horizon.It yields a more accurate description of the state uncertainty than previous particle based algorithms.A chance constrained optimisation is performed, which consists of finding the sequence of future control inputs that minimises a cost function while ensuring that the probability of constraint violation (failure probability) remains below a given threshold.For similar performance, BPC yields a significant computation load reduction with respect to previous approaches.
323

Radar "Around the corner" : détection et localisation de cibles masquées en milieu urbain / Around the corner radar : detection and localization of an NLOS target in urban environment

Thai, Khac Phuc Hung 14 December 2018 (has links)
Les applications des techniques radar au milieu urbain constituent un domaine émergent. Une des difficultés principales est liée à la complexité du milieu de propagation induit par les bâtiments présents dans la scène. En effet, la présence de ces bâtiments génère d’une part des zones d’ombre à l’intérieur desquelles une cible n’est pas en visibilité directe, et d’autre part de nombreux multi-trajets produits par les possibles réflexions et diffractions sur les surfaces environnantes. Ces multi-trajets sont souvent vus comme une gêne, limitant les capacités de détection en radar. Or ils peuvent aussi être exploités à l’avantage du radar afin de détecter et localiser des cibles situées dans les zones d’ombre (cible en NLOS). L’objectif de ce travail de thèse est donc la mise en place de méthodes de traitement du signal permettant la détection et la localisation d’une cible en NLOS en milieu urbain et l’application de ces techniques pour détecter et localiser une cible en NLOS à partir de signaux réels. Pour cela, nous avons proposé dans un premier temps deux solutions pour la détection et la localisation de la cible en exploitant les multi-trajets. Dans un deuxième temps, nous avons développé deux filtres particulaires pour pister une cible en milieu urbain en présence de multi-trajets. Ces algorithmes ont été appliqués aux données réelles issues d’une expérimentation et ont montré des résultats prometteurs : même avec une connaissance approximative de la géométrie de la scène, il a été possible de détecter, localiser et suivre une cible en exploitant uniquement l’information fournie par les retards des multi-trajets. / The applications of radar techniques to the urban environment constitute an emerging subject. One of the main difficulties is related to the complexity of the propagation environment induced by the buildings present in the scene. Indeed, the presence of these buildings generates on the one hand shadow areas within which a target is not in line of sight, and on the other hand, many multipaths produced by reflections and diffractions on the surrounding surfaces. Classically, these multipaths are often seen as an inconvenience, limiting radar detection capabilities. However, these multipaths can also be exploited to the advantage of the radar to detect and locate targets located in the shadow areas (target in NLOS). The objective of this thesis work is therefore to develop signal processing methods allowing the detection and localization of a target located in shadow areas in urban environment and to apply these techniques for detecting and locating a target in NLOS from realistic or even real signals. For this, we first proposed two solutions for detection and localization of a target by exploiting multipath information. In a second step, we developed two particle filters to track a target in urban environment in the presence of multipaths. These algorithms have been applied to real data and showed promising results: even with an approximate knowledge of the geometry of the scene, it has been possible to detect, locate and track a target by exploiting only the information on multipath delays.
324

Simulation du métabolisme de la Seine par assimilation de données en continu / Simulation of metabolism of Seine River by continuous data assimilation

Wang, Shuaitao 06 September 2019 (has links)
Cette thèse a pour objectif d'implémenter un schéma d'assimilation de données dans le modèle hydro-biogéochimique ProSe, afin d’assimiler les mesures en continu d’oxygène dissous de la colonne d’eau et de déterminer l’évolution temporelle des propriétés physiologiques des communautés vivantes. Dans un premier temps, une nouvelle version parallélisée de ProSe, ProSe-P, est développée en couplant les librairies hydraulique, de transport et biogéochimique (C-RIVE). Dans un deuxième temps, une analyse de sensibilité du module C-RIVE permet d'identifier un nombre restreint de paramètres influençant fortement les concentrations en oxygène dissous. Basé sur cette sélection, un algorithme de filtrage particulaire est implémenté afin d'assimiler séquentiellement les données haute fréquence d'oxygène dissous. Le couple ProSe-P-filtre particulaire, ProSe-PA, est ensuite appliqué sur un cas synthétique afin d'identifier les paramètres numériques pertinents et de valider l'efficacité du filtre particulaire pour les modèles de qualité de l'eau en rivière. Enfin, les mesures en continu d'O2 dissous de l'année 2011 en Seine sont assimilées par ProSe-PA. Les résultats montrent que ProSe-PA améliore significativement la simulation des concentrations en oxygène dissous, notamment les dynamiques alguales et les chutes d'oxygène pendant les périodes de crise. L'application aux données réelles révèle cependant les limites de l'approche développée, notamment la sensibilité aux conditions aux limites. Plusieurs pistes sont proposées afin d'améliorer les performances de ProSe-PA. / The aim of the thesis is to implement a data assimilation scheme in the hydro-biogeochemical model ProSe, in order to assimilate continuous measurements of dissolved oxygen in the water column and to determine the temporal evolution of the physiological properties of the communities of living species. First, a new parallel version of ProSe, ProSe-P, is developed coupling the three packages: hydrodynamic, transport and biogeochemical (C-RIVE). Second, a sensitivity analysis of the C-RIVE model allows the identification of a limited number of influentiel parameters controlling the dissolved oxygen concentrations. Based on the selection, a particle filtering algorithm is implemented in order to assimilate sequentially the high frequency oxygen data. The coupling ProSe-P-particle filtre, ProSe-PA is then applied on a synthetic case to tune the numerical settings for the data assimilation and to test the efficiency of the particle filter in river water quality models. Finally, the continuous measurements of dissolved oxygen of the year 2011 in the Seine River are assimilated by ProSe-PA. The results show that ProSe-PA improves significantly the simulation of the dissolved oxygen concentrations, especially the dynamics of algal blooms periods and the fast chute of O2 for the critical periods. This application to the real oxygen data reveals however some limits of the developed approach, especially the sensitivity to the boundary conditions. Some ideas are proposed to improve the performances of ProSe-PA.
325

Abstraction de comportement de haut niveau à l’aide de la visualisation interactive

Vandamme, Dorian 11 1900 (has links)
Comprendre le comportement de haut niveau des programmes est nécessaire pour effectuer différentes tâches dans le développement et la maintenance des logiciels. Pour cela, on utilise régulièrement des traces d’exécution du système, enregistrées pendant des scénarios d’utilisation typiques. Cependant, une trace standard peut contenir un volume très important d’évènements, ce qui rend son interprétation difficile. Nous proposons d’utiliser une métaphore visuelle et un ensemble de filtres et d’outils pour assister le développeur dans la compréhension du comportement de haut niveau d’un logiciel. Notre environnement de visualisation interactive est basé sur une métaphore de traces lumineuses animées pour rejouer la trace d’exécution. Cette animation est accompagnée avec un ensemble de filtres et d’outils pour manipuler et réduire à l’essentiel les informations affichées. Nous démontrons l’utilité de notre approche au moyen de deux études de cas qui présentent des traces enregistrées sur un jeu d’échecs et un logiciel d’édition de diagrammes UML. / Understanding high-level behavior of programs is necessary to perform various tasks in software development and maintenance. This is usually done by analyzing execution traces extracted from typical scenarios. However, average execution traces consist of huge volumes of events and information that make it difficult to develop good insights from these traces. We propose to exploit a visualization metaphor and a set of filters and tools to assist developers grasping high-level behaviors of programs. Our interactive visualization is based on a metaphor of traces of light as part of an animation to explore execution scenarios. The animation is augmented with a set of structural and temporal filters to reduce the volume of information displayed. We showcase our visualization environment on two case studies featuring programs of a chess game and a UML diagram editor.
326

Récepteur radio-logicielle hautement numérisé / Highly digitized RF receiver for software defined radio

Haghighitalab, Delaram 09 September 2015 (has links)
Aujourd'hui, il y a une augmentation du nombre de normes étant intégré dans des appareils mobiles. Les problèmes principaux sont la durée de vie de la batterie et la taille de l'appareil. L'idée d'un Radio-Logiciel est de pousser le processus de numérisation aussi près que possible de l'antenne. Dans cette thèse, nous présentons la première mise en œuvre d'un récepteur radio-logiciel complet basé sur Sigma-Delta RF passe-bande, y compris un LNA à gain variable (VGLNA), un ADC Sigma-Delta RF sous-échantillonné, un mélangeur bas-conversion RF numérique et un filtre de décimation polyphasé multi-étage multi-taux. Le VGLNA élargit la gamme dynamique du récepteur multi-standard pour atteindre les exigences des trois normes sans fil ciblées. Aussi une architecture mixte, en utilisant à la fois Source-Coupled Logic (SCL) et des circuits CMOS, il est proposé d'optimiser la consommation des circuits RF numériques. Par ailleurs, nous proposons une architecture de filtre en peigne à plusieurs étages avec décomposition polyphase à réduire la consommation d'énergie. Le récepteur est mesuré pour trois normes différentes dans la bande de 2.4 GHz, la bande ISM. Les résultats des mesures montrent que le récepteur atteint 79 dB, 73 dB et 63 dB de plage dynamique pour les normes Bluetooth, ZigBee et WiFi respectivement. Le récepteur complet, mis en œuvre dans le procédé CMOS 130 nm, a une fréquence centrale accordable de 300 MHz et consomme 63 mW sous 1.2 V. Comparé à d'autres récepteurs, le circuit proposé consomme 30% moins d'énergie, la plage dynamique est de 21 dB supérieur, IIP3 est de 6 dB supérieur et le facteur de mérite est de 24 dB supérieur. / Nowadays there is an increase in the number of standards being integrated in mobile devices. The main issues are battery life and the size of the device. The idea of a Software Defined Radio is to push the digitization process as close as possible to the antenna. Having most of the circuit in the digital domain allows it to be reconfigurable thus requiring less area and power consumption. In this thesis, we present the first implementation of a complete SDR receiver based on RF bandpass Sigma-Delta including a Variable-Gain LNA (VGLNA), an RF subsampled Sigma-Delta ADC, an RF digital down-conversion mixer and a polyphase multi-stage multi-rate decimation filter. VGLNA enlarges the dynamic range of the multi-standard receiver to achieve the requirements of the three targeted wireless standards. Also a mixed architecture, using both Source-Coupled Logic (SCL) and CMOS circuits, is proposed to optimize the power consumption of the RF digital circuits. Moreover, we propose a multi-stage comb filter architecture with polyphase decomposition to reduce the power consumption. The receiver is measured for three different standards in the 2.4 GHz ISM-band. Measurement results show that the receiver achieves 79 dB, 73 dB and 63 dB of dynamic range for the Bluetooth, ZigBee and WiFi standards respectively. The complete receiver, implemented in 130 nm CMOS process, has a 300 MHz tunable central frequency and consumes 63 mW under 1.2 V supply. Compared to other SDR receivers, the proposed circuit consumes 30% less power, the DR is 21 dB higher, IIP3 is 6 dB higher and the overall Figure of Merit is 24 dB higher.
327

Towards Accurate and Scalable Recommender Systems / Contributions à l'efficacité et au passage à l'échelle des Systèmes de Recommandations

Pozo, Manuel 12 October 2016 (has links)
Les systèmes de recommandation visent à présélectionner et présenter en premier les informations susceptibles d'intéresser les utilisateurs. Ceci a suscité l'attention du commerce électronique, où l'historique des achats des utilisateurs sont analysés pour prédire leurs intérêts futurs et pouvoir personnaliser les offres ou produits (appelés aussi items) qui leur sont proposés. Dans ce cadre, les systèmes de recommandation exploitent les préférences des utilisateurs et les caractéristiques des produits et des utilisateurs pour prédire leurs préférences pour des futurs items. Bien qu'ils aient démontré leur précision, ces systèmes font toujours face à de grands défis tant pour le monde académique que pour l'industrie : ces techniques traitent un grand volume de données qui exige une parallélisation des traitements, les données peuvent être également très hétérogènes, et les systèmes de recommandation souffrent du démarrage à froid, situation dans laquelle le système n'a pas (ou pas assez) d'informations sur (les nouveaux) utilisateurs/items pour proposer des recommandations précises. La technique de factorisation matricielle a démontré une précision dans les prédictions et une simplicité de passage à l'échelle. Cependant, cette approche a deux inconvénients : la complexité d'intégrer des données hétérogènes externes (telles que les caractéristiques des items) et le démarrage à froid pour un nouvel utilisateur. Cette thèse a pour objectif de proposer un système offrant une précision dans les recommandations, un passage à l'échelle pour traiter des données volumineuses, et permettant d'intégrer des données variées sans remettre en question l'indépendance du système par rapport au domaine d'application. De plus, le système doit faire face au démarrage à froid utilisateurs car il est important de fidéliser et satisfaire les nouveaux utilisateurs. Cette thèse présente quatre contributions au domaine des systèmes de recommandation: (1) nous proposons une implémentation d'un algorithme de recommandation de factorisation matricielle parallélisable pour assurer un meilleur passage à l'échelle, (2) nous améliorons la précision des recommandations en prenant en compte l'intérêt implicite des utilisateurs dans les attributs des items, (3) nous proposons une représentation compacte des caractéristiques des utilisateurs/items basée sur les filtres de bloom permettant de réduire la quantité de mémoire utile, (4) nous faisons face au démarrage à froid d'un nouvel utilisateur en utilisant des techniques d'apprentissage actif. La phase d'expérimentation utilise le jeu de données MovieLens et la base de données IMDb publiquement disponibles, ce qui permet d'effectuer des comparaisons avec des techniques existantes dans l'état de l'art. Ces expérimentations ont démontré la précision et l'efficacité de nos approches. / Recommender Systems aim at pre-selecting and presenting first the information in which users may be interested. This has raised the attention of the e-commerce, where the interests of users are analysed in order to predict future interests and to personalize the offers (a.k.a. items). Recommender systems exploit the current preferences of users and the features of items/users in order to predict their future preference in items.Although they demonstrate accuracy in many domains, these systems still face great challenges for both academia and industry: they require distributed techniques to deal with a huge volume of data, they aim to exploit very heterogeneous data, and they suffer from cold-start, situation in which the system has not (enough) information about (new) users/items to provide accurate recommendations. Among popular techniques, Matrix Factorization has demonstrated high accurate predictions and scalability to parallelize the analysis among multiple machines. However, it has two main drawbacks: (1) difficulty of integrating external heterogeneous data such as items' features, and (2) the cold-start issue. The objective of this thesis is to answer to many challenges in the field of recommender systems: (1) recommendation techniques deal with complex analysis and a huge volume of data; in order to alleviate the time consumption of analysis, these techniques need to parallelize the process among multiple machines, (2) collaborative filtering techniques do not naturally take into account the items' descriptions in the recommendation, although this information may help to perform more accurate recommendations, (3) users' and items' descriptions in very large dataset contexts can become large and memory-consuming; this makes data analysis more complex, and (4) the new user cold-start is particularly important to perform new users' recommendations and to assure new users fidelity. Our contributions to this area are given by four aspects: (1) we improve the distribution of a matrix factorization recommendation algorithm in order to achieve better scalability, (2) we enhance recommendations performed by matrix factorization by studying the implicit interest of the users in the attributes of the items, (3) we propose an accurate and low-space binary vector based on Bloom Filters for representing users/items through a high quantity of features in low memory-consumption, and (4) we cope with the new user cold-start in collaborative filtering by using active learning techniques. The experimentation phase uses the publicly available MovieLens dataset and IMDb database, what allows to perform fair comparisons to the state of the art. Our contributions demonstrate their performance in terms of accuracy and efficiency.
328

Topics in Delay Tolerant Networks (DTNs) : reliable transports, estimation and tracking / Transport fiable, estimation et poursuite dans les réseaux Delay Tolerant Networks (DTNs)

Ali, Arshad 12 November 2012 (has links)
Les réseaux mobiles Ad hoc (MANETs) visent à permettent à des noeuds mobiles de communiquer sans aucun support d'infrastructure. Les MANETs dispersés entrent dans la catégorie des réseaux tolérants aux délais (DTN), qui sont des réseaux connectés par intermittence et où il n'y a aucun chemin de bout-en-bout persistant à n'importe quel temps donné. Nous proposons, d'abord, un nouveau protocole de transport fiable pour les DTNs basé sur l'utilisation d'accusés de réception ainsi que le codage linéaire aléatoire. Nous modélisons l'évolution du réseau conformément à notre plan en utilisant l'approche fluide. Nous obtenons le temps de transfert d'un fichier en fonction de certains paramètres optimaux obtenus par l'approche d'évolution différentielle. Deuxièmement, Nous proposons ainsi et étudions un nouveau mécanisme d'ACK augmenté, pour améliorer le transport fiable pour les DTNs, pour les cas unicast et multicast. Nous nous servons du codage linéaire aléatoire aux relais pour que les paquets puissent atteindre la destination plus rapidement. Nous obtenons la fiabilité basée sur l'utilisation Global Sélective ACKnowledgement. Enfin, nous abordons le problème de l'estimation de propagation des fichiers dans les DTNs avec livraison directe et le routage épidémique. Nous estimons et suivons le degré de propagation d'un message dans le réseau. Nous fournissons la base analytique à notre cadre d'évaluation avec des aperçus validés en se basant sur des simulations. En plus, nous utilisons le filtre de Kalman et Minimum- Mean-Squared Error (MMSE) pour suivre le processus de propagation et trouvons que le filtre de Kalman fournit des résultats plus précis par rapport à MMSE / Mobile Ad hoc NETworks (MANETs) aim at making communication between mobile nodes feasible without any infrastructure support. Sparse MANETs fall into the class of Delay Tolerant Networks which are intermittently connected networks and where there is no contemporaneous end-to-end path at any given time. We first, propose a new reliable transport scheme for DTNs based on the use of ACKnowledgments and random linear coding. We model the evolution of the network under our scheme using a fluid-limit approach. We optimize our scheme to obtain mean file transfer times on certain optimal parameters obtained through differential evolution approach. Secondly, we propose and study a novel and enhanced ACK to improve reliable transport for DTNs covering both unicast and multicast flows. We make use of random linear coding at relays so that packets can reach the destination faster. We obtain reliability based on the use of so-called Global Selective ACKnowledgment. We obtain significant improvement through G-SACKs and coding at relays. Finally, we tackle the problem of estimating file-spread in DTNs with direct delivery and epidemic routing. We estimate and track the degree of spread of a message in the network. We provide analytical basis to our estimation framework alongwith insights validated with simulations. We observe that the deterministic fluid model can indeed be a good predictor with a large of nodes. Moreover, we use Kalman filter and Minimum- Mean-Squared-Error (MMSE) to track the spreading process and find that Kalman filter provides more accurate results as compared to MMSE
329

Systèmes coopératifs décentralisés de détection et de contre-mesures des incidents et attaques sur les réseaux IP / Collaborative and decentralized detection and mitigation of network attacks

Guerid, Hachem 06 December 2014 (has links)
La problématique des botnets, réseaux de machines infectées par des logiciels malveillants permettant de les contrôler à distance, constitue une préoccupation majeure du fait du nombre de machines infectées et des menaces associées: attaque par déni de service distribué (DDoS), spam, vol de données bancaires. Les solutions de lutte contre les botnets proposées présentent des limitations majeures dans le contexte d'un opérateur réseau (contraintes de volumétrie et de passage à l'échelle, respect de la confidentialité et de la vie privée des utilisateurs). Cette thèse propose quatre contributions orientées réseau de lutte contre les botnets. Chaque contribution traite d'une étape complémentaire dans la problématique des botnets: la première contribution permet de remonter à la source d'attaques par déni de service, et ainsi d'identifier un groupe de machines infectées à l'origine de ces attaques. La deuxième contribution concerne la détection des communications entre les machines infectées et leurs serveurs de contrôle et commande dans un réseau à large échelle, et offre ainsi l'opportunité de bloquer ces serveurs pour limiter le risque de nouvelles attaques. La troisième contribution permet une détection collaborative de botnets dans un contexte inter-domaine et inter-opérateur, permettant ainsi de lutter contre l'aspect hautement distribué de ces botnets. Enfin, la dernière contribution proposée permet de remédier aux botnets en ralentissant les communications entre les machines infectées et leur serveur de contrôle, offrant par ce biais une contre-mesure aux stratégies d'évasions développées par les cybercriminels afin de rendre leurs botnets plus résilients. / The problem of botnets, networks of infected hosts controlled remotely by attackers, is a major concern because of the number of infected hosts and associated threats, like distributed denial of service (DDoS), spams, and data theft. State of the art solutions to fight against botnets have major limitations in a context of a network operator (scalability of the solution, confidentiality and privacy of users). In this thesis, we propose four network-based contributions to fight against botnets. Each solution address a different and complementary issue in this area: the first contribution tracebacks the source of denial of service attacks which threaten the network availability, allowing by that way to identify infected devices used to perpetrate these attacks. The second contribution detects the communications between infected computers and their command and control server (C&C) in a large scale network and offers the opportunity to block these servers to minimize the risk of future attacks. The third contribution enables collaborative detection of botnets in an inter-domain and inter-operator context in order to fight against the highly distributed aspect of these botnets. Finally, the last contribution mitigates botnets by slowing down the communication between infected hosts and their C&C server, providing a countermeasure against evasion techniques developed by cybercriminals to make their botnets more resilient
330

Méthodes et structures non locales pour la restaurationd'images et de surfaces 3D / Non local methods and structures for images and 3D surfaces restoration

Guillemot, Thierry 03 February 2014 (has links)
Durant ces dernières années, les technologies d’acquisition numériques n’ont cessé de se perfectionner, permettant d’obtenir des données d’une qualité toujours plus fine. Néanmoins, le signal acquis reste corrompu par des défauts qui ne peuvent être corrigés matériellement et nécessitent l’utilisation de méthodes de restauration adaptées. J'usqu’au milieu des années 2000, ces approches s’appuyaient uniquement sur un traitement local du signal détérioré. Avec l’amélioration des performances de calcul, le support du filtre a pu être étendu à l’ensemble des données acquises en exploitant leur caractère autosimilaire. Ces approches non locales ont principalement été utilisées pour restaurer des données régulières et structurées telles que des images. Mais dans le cas extrême de données irrégulières et non structurées comme les nuages de points 3D, leur adaptation est peu étudiée à l’heure actuelle. Avec l’augmentation de la quantité de données échangées sur les réseaux de communication, de nouvelles méthodes non locales ont récemment été proposées. Elles utilisent un modèle a priori extrait à partir de grands ensembles d’échantillons pour améliorer la qualité de la restauration. Néanmoins, ce type de méthode reste actuellement trop coûteux en temps et en mémoire. Dans cette thèse, nous proposons, tout d’abord, d’étendre les méthodes non locales aux nuages de points 3D, en définissant une surface de points capable d’exploiter leur caractère autosimilaire. Nous introduisons ensuite une nouvelle structure de données, le CovTree, flexible et générique, capable d’apprendre les distributions d’un grand ensemble d’échantillons avec une capacité de mémoire limitée. Finalement, nous généralisons les méthodes de restauration collaboratives appliquées aux données 2D et 3D, en utilisant notre CovTree pour apprendre un modèle statistique a priori à partir d’un grand ensemble de données. / In recent years, digital technologies allowing to acquire real world objects or scenes have been significantly improved in order to obtain high quality datasets. However, the acquired signal is corrupted by defects which can not be rectified materially and require the use of adapted restoration methods. Until the middle 2000s, these approaches were only based on a local process applyed on the damaged signal. With the improvement of computing performance, the neighborhood used by the filter has been extended to the entire acquired dataset by exploiting their self-similar nature. These non-local approaches have mainly been used to restore regular and structured data such as images. But in the extreme case of irregular and unstructured data as 3D point sets, their adaptation is few investigated at this time. With the increase amount of exchanged data over the communication networks, new non-local methods have recently been proposed. These can improve the quality of the restoration by using an a priori model extracted from large data sets. However, this kind of method is time and memory consuming. In this thesis, we first propose to extend the non-local methods for 3D point sets by defining a surface of points which exploits their self-similar of the point cloud. We then introduce a new flexible and generic data structure, called the CovTree, allowing to learn the distribution of a large set of samples with a limited memory capacity. Finally, we generalize collaborative restoration methods applied to 2D and 3D data by using our CovTree to learn a statistical a priori model from a large dataset.

Page generated in 0.0375 seconds