71 |
Détection d'intrusions paramétrée par la politique de sécurité grâce au contrôle collaboratif des flux d'informations au sein du système d'exploitation et des applications : mise en œuvre sous Linux pour les programmes JavaHiet, Guillaume 19 December 2008 (has links) (PDF)
La sécurité informatique est un enjeu crucial. Elle consiste en premier lieu à définir une politique de sécurité puis à mettre en œuvre cette politique. Les approches préventives comme le contrôle d'accès sont essentielles mais insuffisantes. Il est donc nécessaire de recourir à la détection d'intrusions. En particulier, l'approche de détection d'intrusions paramétrée par la politique de sécurité nous paraît prometteuse. Une telle approche s'appuie uniquement sur un modèle de l'évolution de l'état du système et sur un modèle de la politique de sécurité. Nous nous intéressons dans cette thèse aux politiques de flux d'informations permettant d'assurer la confidentialité et l'intégrité des données. Nous souhaitons utiliser une approche de détection d'intrusions paramétrée par la politique de sécurité pour surveiller un système comprenant un OS et des logiciels COTS comprenant des applications web. Nous proposons un modèle de détection permettant de suivre les flux d'informations entre les conteneurs d'informations. Nous définissons une architecture générique de système de détection d'intrusions (IDS) permettant d'implémenter le modèle proposé. Cette architecture repose sur la collaboration entre plusieurs IDS effectuant le suivi des flux d'informations à différents niveaux de granularité. Nous présentons une implémentation de cette architecture reposant sur Blare, un IDS existant permettant de gérer les conteneurs d'informations de l'OS, et JBlare, une implémentation que nous avons réalisée pour suivre les flux d'informations au niveau des applications Java. Nous présentons également les résultats des expérimentations que nous avons menées en instrumentant des applications Java « réalistes ».
|
72 |
Détection des intrusions dans les systèmes d'information : la nécessaire prise en compte des caractéristiques du système surveilléMé, Ludovic 16 June 2003 (has links) (PDF)
Ce mémoire résume 10 ans de travail autour de l'étude des concepts à la base des systèmes de détection d'intrusions. Nous présentons en premier lieu les grandes caractéristiques des systèmes de détection d'intrusions : la source des données à analyser, l'approche de détection retenue, l'architecture de l'outil de détection d'intrusions, la granularité de l'analyse et le comportement en cas de détection. Nous positionnons alors nos travaux relativement à ces caractéristiques. Nous mettons ensuite en en avant parmi nos travaux en cours, ceux qui nous paraissent les plus à même d'apporter des réponses aux problèmes actuels de la détection d'intrusions. Ces travaux présentent une caractéristique commune : ils prennent en compte les caractéristiques du système surveillé : topologie, types de machine, logiciels installés, failles connues, politique de sécurité en vigueur. Nous présentons le travail fait dans le cadre de la thèse de Benjamin Morin autour de la corrélation des alertes issues des outils de détection d'intrusions, puis les travaux réalisés dans le cadre de la thèse de Jacob Zimmermann autour du contrôle d'accès tolérant aux intrusions. Comme il se doit, ce mémoire se conclu par la présentation de quelques perspectives de recherche.
|
73 |
Restauration de sources radioastronomiques en milieu radioélectrique hostile : Implantation de détecteurs temps réel sur des spectres dynamiques.Dumez-Viou, Cedric 28 September 2007 (has links) (PDF)
L'étude de l'Univers est effectuée de façon quasi-exclusive grâce aux ondes électromagnétiques. La radioastronomie qui étudie la bande radio du spectre est couramment obligée d'observer hors de ses bandes protégées. Il faut donc pouvoir observer des sources dans des bandes où les émissions des systèmes de télécommunication sont souvent proches et donc très puissantes.<br /><br />Les travaux de cette thèse ont eu pour but de développer et d'implanter des méthodes temps réel de traitements numériques visant à atténuer les interférences ambiantes afin de restaurer les radiosources naturelles lors d'observation avec une antenne unique sans informations a priori.<br />Le cœur de ces traitements est basé sur l'estimation de la moyenne d'un échantillon suivant une loi du Khi-2 en présence de points aberrants.<br />Un récepteur numérique multi-instruments à grande dynamique élaboré à la station de radioastronomie de Nançay a servi de banc de test à ces divers algorithmes.<br /><br />La bande corrompue par Iridium est maintenant observable et les sources HI situées dans la bande allouée aux radars sont de nouveau<br />accessibles. Les observations du Soleil et de Jupiter effectuées en<br />bande décamétrique sont maintenant de bien meilleure qualité.<br />Un algorithme a été développé pour configurer le récepteur en tant que détecteur et enregistreur rapide d'évènements très brefs (<100 ms) en milieu parasité. Il est aujourd'hui utilisé pour l'enregistrement de structures fines Joviennes.
|
74 |
AdaBoost/GA et filtrage particulaire: La vision par ordinateur au service de la sécurité routièreAbramson, Yotam 07 December 2005 (has links) (PDF)
Cette Thèse combine des résultats récents et des algorithmes originaux pour créer deux applications temps-réel robustes d'aide à la conduite (projet aussi appelé "le véhicule intelligent"). Les applications - commande de croisière adaptative ("ACC") et prédiction d'impact piétons - sont conçues pour être installées sur un véhicule et détectent d'autres utilisateurs de la route, en utilisant une seule caméra frontale. La thèse commence par un état de l'art sur la vision artificielle. Elle s'ouvre en passant en revue certaines avancées récentes dans le domaine. En particulier, nous traitons l'utilisation récente d'un nouvel algorithme nommé AdaBoost pour la détection des objets visuels dans une image, rapidement et sûrement. Nous développons la théorie, ajoutons des algorithmes et des méthodes (y compris une variante à base d'algorithmes aux besoins de vraies applications d'aide à la conduite. En particulier, nous prouvons plusieurs nouveaux résultats sur le fonctionnement de l'algorithme AdaBoost. Toujours sur le plan théorique, nous traitons des algoritmes d'évaluation de mouvement et des filtres particulaires et leur utilisation dans la vision. De ces développements algoritmiques, nous arrivons à la description de deux applications d'aide à la conduite, toutes les deux entièrement mises en application, validées et démontrées sur le véhicule d'essai du Centre de Robotique de l'Ecole des Mines de Paris. La première application, la commande de croisière adaptative ("ACC"), exploite les formes caractéristiques des véhicules pour les détecter. Ainsi, l'application détecte des véhicules en utilisant un ensemble d'algorithmes classiques de traitement d'image (détection d'ombres, des feux arrières, de symétrie et de bords), ainsi que l'algorithme AdaBoost mentionné ci-dessus. Cet ensemble d'algorithmes est fusionné en se plaçant dans le cadre du filtrage particulaire, afin de détecter les véhicules devant notre voiture. Puis, le système de contrôle prend pour cible la voiture située devant et garde une distance constante par rapport à celle-ci, tout en commandant l'accélération et le freinage de notre voiture. La deuxième application, le prédiction d'impact piétons, estime au temps t la probabilité d'un impact de notre voiture avec un piéton au temps t+s. Dans l'application, la trajectoire de chaque piéton est calculée, et la probabilité d'impact est calculée selon la direction du piéton, du bruit et d'autres facteurs. Cette application utilise un accélérateur matériel spécifique crée dans le cadre du projet européen CAMELLIA (Core for Ambient and Intelligent Imaging Applications).
|
75 |
Combinaison d'estimations: application à la détection d'obstacles à bord des véhicules routiers intelligentsBlanc, Christophe 12 July 2005 (has links) (PDF)
Ces activités de recherche s'intégrent à l'un des deux groupes de recherche du laboratoire LASMEA : GRAVIR (GRoupe Automatique VIsion et Robotique), dont l'objectif principal est de développer des concepts théoriques et méthodologiques pour la perception de l'enironnement de machines, et de valider ceux-ci expérimentalement sur des démonstrateurs par des systèmes dédiés. Cet objectif a été pariculièrement suivi dans les véhicules routiers intelligents puisque, depuis plus de quinze ans, les résultats de recherches sur les capteurs, la reconnaissance des formes et la fusion de données obtenues par une dizaine de chercheurs sont appliqués en ce domaine. Ces recherches concernent la fusion de données pour la perception à bord des véhicules routiers intelligents. Elles s'inscrivent parmi deux projets : ARCOS (Action de Recherche pour une COnduite Sécurisée) s'inscrit dans le cadre des actions fédératives du PREDIT (Programme national de recherche et d'innovation dans les transports terrestres, à l'initiative des ministères chargés de la recherche, des transports, de l'environnement et de l'industrie, de l'Ademe et de l'Anvar) et PAROTO (Projet Anticollision Radar et Optronique pour l'auTOmobile) initié par le ministère de la recherche en partenariat avec SAGEM, Division Défense et Sécurité, et l'INRETS (Institut National de REcherche sur les Transports et leur Sécurité). Dans ce cadre, je m'intéresse à un système de perception conduisant, et ceci dans une grande variété de situations, à la définition d'une carte de l'environnement à l'avant du véhicule intelligent : chaque obstacle y est décrit par sa position absolue, son état cinématique et un certain nombre de caractéristiques qui peuvent être déterminantes pour définir l'aide à apporter au conducteur. Cette perception s'appuie sur le développement d'un système de fusion de données appliqué à la détection et au suivi des obstacles. Plusieurs capteurs, dont les complémentarités et redondances ont été soulignées, ont ainsi été installés à l'avant de notre véhicule démonstrateur : VELAC (VEhicule du Lasmea pour l'Aide à la Conduite) ; un capteur RADAR (développé au sein de notre laboratoire) dont l'objectif prioritaire est de fournir une information de vitesse relative des obstacles, un capteur LIDAR (Riegl) permettant une représentation en 3D de la scène routière, un capteur thermique (SAGEM) dont l'objectif était de détecter et de suivre les différents obstacles quelques soient les conditions atmosphériques. Les données de ces différents capteurs sont traitées indépendamment afin de détecter, et de suivre les obstacles à l'avant du véhicule. La problématique de fusion est ainsi vue comme une combinaison de pistages (estimations à l'aide du filtre de Kalman ou à particules). Il devient donc possible, après cette fusion, de représenter une carte précise de l'environnement à l'avant du véhicule intelligent : chaque obstacle y est décrit par sa position absolue, et son état cinématique qui sont déterminants pour définir l'aide à apporter au conducteur. Des résultats ont été validés à bord de notre véhicule démonstrateur VELAC
|
76 |
Détection visuelle de fermeture de boucle et applications à la localisation et cartographie simultanéesAngeli, Adrien 11 December 2008 (has links) (PDF)
La détection de fermeture de boucle est cruciale pour améliorer la robustesse des algorithmes de SLAM. Par exemple, après un long parcours dans des zones inconnues de l'environnement, détecter que le robot est revenu sur une position passée offre la possibilité d'accroître la précision et la cohérence de l'estimation. Reconnaître des lieux déjà cartographiés peut également être pertinent pour apporter une solution au problème de la localisation globale, ou encore pour rétablir une estimation correcte suite à un
|
77 |
Simulation Dynamique en Temps-Réel et Interaction 3D de Tissu Biologique: Application aux Simulateurs MédicauxSundaraj, Kenneth 23 January 2004 (has links) (PDF)
L'avènement de l'imagerie médicale et de nouvelles techniques opératoires a bouleversé les méthodes de travail des médecins. Mais ce changement nécessitera une formation renforcée des praticiens et chirurgiens. C'est pourquoi le dévelopment d'outils appropriés comme les simulateurs médico-chirurgicaux se fait de plus en plus ressentir. Dans ce cadre, nous nous sommes intéressés au problème de la modélisation des phénomènes de déformation de tissu biologique et à la détection des collisions dans un environment virtuel. Dans un premier temps, nous présentons les différents modèles physiques existants et les différentes méthodes de résolution numérique associées aux objets déformable. Nous proposons ensuite un modèle développé pour la simulation de tissu biologique, en présentant successivement les aspects liés à la formulation du modèle, à la résolution du modèle, et au traitement des interactions physiques. Ce modèle, basé sur l'utilisation du principe de Pascal, permet de modéliser de manière relativement satisfaisante des corps biologiques, tout en permettant une simulation interactive. Dans un deuxième temps, nous présentons les différents algorithmes existants pour la détection de collision, ainsi que la difficulté d'adapter ces algorithmes aux simulateurs médicaux où les objets déformables complexes forment la base du modèle. Nous proposons ensuite les algorithmes développés pour traiter ce problème dans le cadre des simulateurs médicaux. Ces algorithmes présentent des caractéristiques de robustesse numérique et d'efficacité supérieures á l'existant, et permettent de traiter des corps déformables. Nous appliquons ces résultats dans le cadre d'un simulateur échographique de la cuisse humaine et d'une simulateur de chirurgie arthroscopique du LCA (ligament croisé antérieur du genou).
|
78 |
Étude du métamorphisme viral : modélisation, conception et détectionBorello, Jean-Marie 01 April 2011 (has links) (PDF)
La protection contre les codes malveillants représente un enjeu majeur. Il suffit de considérer les exemples récents des vers Conficker et Stuxnet pour constater que tout système d'information peut aujourd'hui être la cible de ce type d'attaques. C'est pourquoi, nous abordons dans cette thèse la menace représentée par les codes malveillants et plus particulièrement le cas du métamorphisme. Ce dernier constitue en effet l'aboutissement des techniques d'évolution de codes (" obfuscation ") permettant à un programme d'éviter sa détection. Pour aborder le métamorphisme nous adoptons une double problématique : dans une première partie, nous nous attachons à l'élaboration d'un moteur de métamorphisme afin d'en estimer le potentiel offensif. Pour cela, nous proposons une technique d'obscurcissement de code dont la transformation inverse est démontrée NP-complète dans le cadre de l'analyse statique. Ensuite, nous appliquons ce moteur sur une souche malveillante préalablement détectée afin d'évaluer les capacités des outils de détection actuels. Après cette première partie, nous cherchons ensuite à détecter, outre les variantes engendrées par notre moteur de métamorphisme, celles issues de codes malveillants connus. Pour cela, nous proposons une approche de détection dynamique s'appuyant sur la similarité comportementale entre programmes. Nous employons alors la complexité de Kolmogorov afin de définir une nouvelle mesure de similarité obtenue par compression sans perte. Finalement, un prototype de détection de code malveillant est proposé et évalué.
|
79 |
Restauration automatique de films anciensDecencière, Étienne 09 December 1997 (has links) (PDF)
La plus grande partie des films tournés avant les années cinquante ont été tirés sur des pellicules dont la durée de vie est assez courte. Ils ont déjà subi d'importants dommages et ils continuent à se dégrader. Il est nécessaire et même urgent de les restaurer. Par ailleurs, grâce au développement considérable des marchés audiovisuels si ces films sont remis en état, ils peuvent connaître une deuxième jeunesse. Les méthodes physico-chimiques existantes permettent de corriger un certain nombre de types de dégradations mais pas toutes. Les outils informatiques occupent aujourd'hui une place de plus en plus importante dans l'industrie de la restauration cinématographique et vidéo. Cependant la plupart des techniques employées traitent les images, une par une, à la main ce qui certes permet d'obtenir une qualité excellente mais qui est très coûteux en temps et par conséquent en argent. Pour pouvoir restaurer un plus grand nombre de films anciens, il faut développer des méthodes plus rapides. Cette thèse est parmi les premières à proposer des techniques de restauration automatique de films anciens. Il suffit qu'un opérateur choisisse les paramètres de la restauration tels que les types de défauts à considérer pour que nos algorithmes traitent sans intervention extérieure des séquences entières d'images. Cette approche permet d'accélérer considérablement la vitesse de traitement. Nous donnons dans ce qui suit une liste des défauts que nous traitons ainsi qu'un très court résumé de la méthode de restauration employée. Pompage: Ce défaut se caractérise par une variation indésirable de l'éclairage de la scène au cours du temps. Nous le traitons en limitant les variations de l'histogramme entre deux images consécutives tout en autorisant une certaine dérive pour ne pas interdire les variations naturelles de l'éclairage. Vibrations: Nous proposons une méthode pour mesurer la translation du fond de la scène entre images consécutives. Ensuite nous filtrons la suite des translations pour estimer les vibrations parasites et les corriger. Rayures verticales: Les rayures verticales blanches ou noires sont très courantes dans les films anciens. Nous les détectons en utilisant des opérateurs morphologiques tels que le chapeau haut de forme puis nous récupérons l'information perdue grâce à des interpolations. Tâches et autres défauts aléatoires: Dans cette catégorie nous classons tous les défauts qui apparaissent rarement à la même position sur deux images consécutives du film. Nous les détectons en appliquant des critères de connexité spatio- temporels mis en oeuvre grâce à des ouvertures et des fermetures par reconstruction. Lorsque le mouvement dans la scène est important, les critères de connexité peuvent être pris à défaut. Pour palier cet inconvénient, nous avons mis au point un algorithme de compensation de mouvement. Il est basé sur une segmentation de l'image de référence et utilise le krigeage pour interpoler et filtrer le champ de vecteurs de déplacement. Nous proposons plusieurs méthodes certaines spatiales d'autres temporelles pour interpoler les textures dans les zones endommagées Nous avons bâti un système de restauration réunissant ces différents algorithmes et nous l'avons appliqué à de nombreux cas pratiques obtenant de bons résultats
|
80 |
Développement, validation et application de méthodes d'analyse d'ultra-trace du Béryllium dans les matrices biologiquesPaquette, Vincent January 2008 (has links) (PDF)
Certaines études suggèrent que la forme chimique et la taille des particules de béryllium aient un rôle important à jouer sur sa toxicité. Le but principal du projet est de développer et valider des méthodes fiables, ayant des limites de détection au niveau d'ultra-trace, pour permettre d'analyser de faibles teneurs en béryllium dans différentes matrices biologiques. Cette étude s'inscrit dans un projet plus large où des souris ont été exposées par inhalation au Be (métal), BeO et BeAI (250 µg/m³, 6 h par jour, 14 jours). Les tissus et liquides biologiques suivants ont été prélevés sur les souris: sang, foie, poumon, rate et rein. Ils ont été digérés par une méthode, dans le cas des particules de Be (métal) et de BeAI, ou par une autre méthode, dans le cas de BeO. La méthode pour Be (métal) et BeAI consiste en une digestion humide avec un mélange (3:1) d'acide nitrique et perchlorique, tandis que la méthode pour BeO requiert l'ajout supplémentaire d'acide sulfurique. Les échantillons ont été analysés par ICP-MS avec le 6Li comme étalon interne. Les limites de détection méthodologiques ont été évaluées individuellement pour chaque matrice et chaque méthode. La limite de détection analytique moyenne est de 2 pg/mL en solution, ce qui correspond à l'équivalent de 0,02 ng/g de tissus biologiques. Dans le sang, elle est équivalente à 0,03 ng/mL. L'exactitude des méthodes a été confirmée à l'aide de matériel de référence certifié. Des méthodes fiables ont donc été développées, validées et ont des limites de détection parmi les meilleures de la littérature. Ces méthodes ont été utilisées pour évaluer la distribution du béryllium dans les différentes matrices biologiques en fonction de l'espèce chimique et de la taille des particules. Tel qu'attendu, les résultats toxicologiques ont démontré que la taille et la nature des particules de béryllium a une influence sur sa distribution dans l'organisme. Les méthodes développées ont démontré une sensibilité adéquate pour la grande majorité des échantillons analysés, démontrant ainsi leur efficacité face aux objectifs désirés du projet. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Béryllium, Digestion acide, Matrice biologique, ICP-MS, Ultra-trace.
|
Page generated in 0.0223 seconds