• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • Tagged with
  • 6
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Génération et évaluation de mécanismes de détection des intrusions au niveau applicatif

Demay, Jonathan-Christofer 01 July 2011 (has links) (PDF)
Le chapitre 2 présente la première partie importante de nos travaux : l'approche pour la détection que nous proposons. Nous avons tout d'abord expliqué les caractéristiques des attaques contre les données de calcul et en quoi ces dernières se distinguent des autres types d'attaque. Ceci nous a notamment permis de montrer que pour perpétuer une intrusion, un utilisateur malveillant va chercher à cibler un ensemble bien précis de données de calcul. À l'aide de la logique de Hoare, nous avons ensuite expliqué que le code source des applications peut contenir des informations qui peuvent être utilisées pour détecter ce type bien précis d'attaque. Nous avons détaillé cela sur un exemple d'exploitation de vulnérabilité. Puis, nous avons présenté notre modèle de détection. Nous l'avons tout d'abord présenté empiriquement sur un cas réel d'attaques contre les données de calcul. Pour cela, nous avons détaillé la vulnérabilité utilisée dans notre exemple ainsi que les différents scénarios d'attaque et comment des invariants portant sur certaines variables permettent de détecter ces attaques. Enfin, nous avons présenté formellement notre modèle de détection. Celui-ci correspond à l'ensemble des domaines de variation des variables qui influencent l'exécution des appels de fonction. Ces domaines de variation sont calculés juste avant les appels de fonction et uniquement pour les variables qui sont atteignables à ces endroits du code source. Nous avons ensuite présenté une méthode pour construire un tel modèle. Premièrement, nous proposons d'utiliser le graphe de dépendance du programme pour déterminer pour chaque appel de fonction l'ensemble des variables qui influencent son exécution. Deuxièmement, nous proposons d'utiliser l'interprétation abstraite pour calculer pour chacun de ces ensembles de variables leur domaine de variation. Pour finir, nous présentons une implémentation de notre approche que nous avons réalisée pour les programmes écrits en langage C. Nous détaillons d'abord la phase de construction du modèle qui repose sur un outil d'analyse statique existant, Frama-C. Nous détaillons ensuite la phase d'instrumentation, celle-ci ayant pour contrainte de ne pas modifier le processus original de compilation. Le chapitre 3 présente la seconde partie importante de nos travaux : l'approche pour l'évaluation que nous proposons. Nous commençons par aborder la problématique de la simulation des erreurs engendrées par les attaques contre les données de calcul. Pour cela, nous présentons d'abord le modèle de faute que nous proposons pour simuler ce type bien particulier d'attaques. Nous étudions les caractéristiques qui doivent être simulées, quel sera leur impact sur le programme et dans quel cas ces dernières peuvent être détectées. Nous expliquons ensuite comment nous proposons de construire notre modèle de simulation. La principale problématique ici est de savoir comment déterminer l'ensemble des cibles potentielles. Il s'agit du même ensemble de variables que pour la détection. Nous proposons donc à nouveau de nous reposer sur le graphe de dépendance du programme et d'embarquer les mécanismes d'injection au sein des applications. Nous expliquons ensuite comment notre modèle de faute peut être utilisé pour l'évaluation d'un système de détection d'intrusion. Nous posons comme objectif que le résultat obtenu doit être une sur-approximation du taux de faux négatifs réel. Cela implique que nous voulons placer le système de détection d'intrusion à évaluer dans la situation la moins favorable possible. Pour respecter cette contrainte, nous montrons que notre modèle de faute doit être utilisé pour simuler une intrusion qui ne nécessite qu'une seule exploitation de la vulnérabilité, que la vulnérabilité donne accès à l'ensemble de l'espace mémoire du processus et que l'exploitation ne vise qu'une seule variable. Nous présentons enfin les modifications que nous avons apportées à notre outil afin qu'il instrumente aussi les programmes pour l'injection et comment les mécanismes d'injection ainsi ajoutés doivent être utilisés. Le chapitre 4 présente la dernière partie de nos travaux : l'évaluation de notre système de détection d'intrusion, notamment à l'aide de notre modèle de simulation d'attaque. Nous commençons par présenter la plateforme de tests que nous avons développée autour de nos mécanismes d'injection. Il s'agit d'une plateforme qui automatise la réalisation de tests ainsi que l'analyse des résultats obtenus. Nous abordons tout d'abord les problématiques d'écriture des scénarios d'exécution et de collecte des informations. Les scénarios doivent permettre de couvrir suffisamment le code des programmes utilisés pour les tests. Nous avons choisi de mesurer ce taux de couverture en fonction des appels de fonction. Les informations collectées sont utilisées pour produire deux résultats : une sur-approximation du taux réel de faux négatifs et une évaluation du taux de détection pour les injections ayant provoqué une déviation comportementale. Pour finir, nous présentons les résultats de l'évaluation de notre système de détection d'intrusion. Nous commençons par donner les performances de l'analyse. On note que la durée d'analyse peut être très grande, notamment en fonction de la taille du code à analyser, mais qu'en fonction de la sémantique du code, deux programmes de taille similaire peuvent présenter des durées d'analyse complètement différentes. Puis, nous donnons le niveau de surcharge à l'exécution. On note que la surcharge induite par nos mécanismes de détection est très faible, toujours inférieure à 1%. Nous continuons avec les performances de la détection. Nous pouvons voir que les résultats de la détection varient grandement d'un programme à l'autre, malgré un taux d'instrumentation similaire. Ce qui change, c'est le nombre d'invariants vérifiés. On voit ici la limite de notre approche : si la sémantique du code original ne permet pas de calculer suffisamment d'invariants, l'efficacité de notre approche sera alors limitée. De plus, la propagation de l'erreur n'apporte que peu d'aide à notre modèle de détection. Dans tous les cas, nous avons pu vérifier que notre approche ne génère bien pas de faux positif.
2

Analyse des mécanismes d'échec des endoprothèses couvertes et stimulation de la formation néointimale in vitro : vers un meilleur traitement des anévrismes de l'aorte abdominale

Major, Annie January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Désendothélialisation des anévrismes lors du traitement endovasculaire : une nouvelle approche pour prévenir les endofuites

Bonneviot, Marie-Christine January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
4

Prospectives de recherche du quark de quatri��me g��n��ration u4 avec le d��tecteur ATLAS aupr��s du LHC

Defay, Pierre-Olivier 04 July 2008 (has links) (PDF)
Le Mod��le Standard, qui r��git la physique des particules, a ��t�� jusqu'�� pr��sent confirm�� par l'exp��rience. Cependant, les questions qu'il laisse en suspens ont conduit �� proposer plusieurs mod��les permettant son extension. L'un de ces mod��les postulant l'existence d'une quatri��me famille de fermions permet de r��soudre certaines des lacunes du Mod��le Standard. Ce travail, effectu�� dans le cadre de l'exp��rience ATLAS au LHC, pr��sente des m��thodes permetttant de d��couvrir le quark up de quatri��me g��n��ratition u4 produit par paire qui se d��sint��gre de mani��re semileptonique. Une m��thode de calibration de l'��nergie des jets ainsi qu'une m��thode d'��valuation de la r��solution de cette ��nergie sont d'abord pr��sent��es car essentielles pour des mesures pr��cises. Nous d��crivons ensuite une m��thode pour d��couvrir le quark u4 tout en ��valuant le potentiel de d��couverte. Enfin une mesure de la masse de ce quark est alors r��alis��e dans l'hypoth��se o�� une d��couverte a ��t�� effectu��e.
5

Désendothélialisation des anévrismes lors du traitement endovasculaire : une nouvelle approche pour prévenir les endofuites

Bonneviot, Marie-Christine January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
6

La baisse des coûts des tunnels. Mesures, causes et conséquences

Zhang, Chi 10 June 1994 (has links) (PDF)
L'objectif de cette thèse est de tenter de chercher la loi, de trouver les facteurs déterminants des coûts des tunnels de métros, de les expliquer, de construire des modèles de prévision d'ordres de grandeur des coûts. Cette étude est basée essentiellement sur la base de données établie en 1990 par le groupe de travail N°15 de l'Association Française des Travaux en Souterrain (AFTES) concernant les coûts des infrastructures des métros français. La base des données utilisées dans cette étude comporte les principales opérations françaises réalisées de 1975 à 1990 (90 observations qui représentent environ 61 000 mètres au total). La recherche porte uniquement sur les coûts des tunnels entre les stations, rapporté au mètre linéaire d'ouvrage à 2 voies. Les méthodes statistiques utilisées sont notamment les régressions linaires ou multiples. L'étude a permis de connaître le coût global, le coût hors équipements et le coût des équipements des tunnels de métros urbains et régionaux exécutés en souterrain, en tranchée couverte ainsi que sa composition, sa ventilation en pourcentage. L'analyse des facteurs quantitatifs et qualitatifs par des méthodes économétriques a permis de comprendre la complexité du problème des coûts, les facteurs déterminants des coûts et de construire des modèles pour la prévision du coût de grandeur. Cette étude a mis en évidence une tendance d'évolution des coûts en Francs constants des tunnels de métros français qui est de l'ordre de -3,5% par an en moyenne pendant la période 1975-1990, soit environ -50% au total. La recherche a montré que les évolutions constatées résultent des efforts conjugués des ingénieurs d'étude, des expériences et des progrès techniques (l'emploi de tunnelier, la réduction du volume de structure en béton etc.). Les conséquences de l'évolution des coûts pour les autorités publiques et les entreprises ainsi que les tendances du marché des travaux souterrains ont été également analysées.

Page generated in 0.713 seconds