Spelling suggestions: "subject:"découverte"" "subject:"écouverte""
51 |
Production de paires de Top et effet de Nouvelle Physique. Calibration des jets légers avec le processus W en jet-jet. Mesure de la masse du TopCogneras, E. 29 June 2007 (has links) (PDF)
Depuis sa découverte en 1995 à Fermilab, le quark Top fait l'objet d'une grande attention. Il complète la troisième famille de quarks du Modèle Standard de la physique des particules, et la mesure de ses propriétés contraint fortement ce modèle. Il constitue également une voie d'accès privilégiée à la nouvelle physique attendue à une énergie de l'ordre du TeV. Ce travail de thèse, réalisé auprès du détecteur ATLAS du LHC, présente les méthodes mises en œuvre afin de mesurer précisément la masse du quark Top dans le canal lepton+jets. Différentes stratégies d'analyse sont présentées en fonction des performances du détecteur, notamment sa capacité d'identification des jets beaux. La mesure précise de la masse du Top passe par une connaissance approfondie de l'échelle d'énergie des jets. Ce document propose une stratégie d'étalonnage des jets légers qui s'appuie sur la contrainte de la masse du boson W, et montre qu'une précision de l'ordre du GeV/c² sur la mesure de la masse du Top est tout à fait possible. Une évaluation du potentiel de découverte de résonances ttbar, prévues dans le cadre de modèles au-delà du Modèle Standard, est également menée.
|
52 |
La Découverte de Workflow<br />Transactionnel pour la Fiabilisation des<br />ExécutionsGaaloul, Walid 03 January 2007 (has links) (PDF)
Une évolution continue des paramètres, des contraintes et des besoins du procédé métier, non complètement prévisible initialement, exige des systèmes de gestion de procédés une conception continue et un modèle de procédé fiable. Dans cette thèse, nous nous intéressons à assurer une conception réactive par l'analyse des traces d'exécutions assurant une re-ingénierie du procédé métier et une fiabilisation des exécutions.<br /><br />Pour ce faire, nous introduisons d'abord un modèle de workflow transactionnel qui étend les systèmes de workflows en les fusionnant avec les modèles transactionnels avancés. Nous proposons, par la suite, des techniques d'analyse de traces d'exécutions pour la découverte de workflow et l'amélioration de leurs comportements transactionnels. Notre approche commence par la collecte des traces d'exécution. Nous construisons, ensuite, par des techniques d'analyse statistique, une représentation intermédiaire spécifiant des dépendances élémentaires entre les activités. Ces dépendances sont raffinées pour découvrir le modèle de workflow transactionnel. L'analyse des disparités entre le modèle découvert et le modèle initialement conçu nous permet de détecter des lacunes (anomalies) de conception, concernant particulièrement les mécanismes de recouvrement. En fonction de ces observations, nous appliquons finalement un ensemble de règles d'amélioration et/ou de correction du schéma initial.<br /><br />La contribution majeure de notre proposition est qu'elle permet de tenir compte des besoins d'évolution du procédé observés dans la phase d'exécution. Ceci nous permet d'assurer une conception continue garantissant, parmi d'autres, des exécutions correctes et fiables.
|
53 |
Étude des performances de photons avec les désintégrations radiatives du Z, et recherche du boson de Higgs dans les modes H → γγ et H → Zγ auprès du détecteur ATLAS au LHCCamila, Rangel-Smith 27 September 2013 (has links) (PDF)
Dans cette thèse, mes contributions personnelles à l'expérience ATLAS sont présentées. Elles consistent en des études de performance et des analyses physiques concernant les photons, dans le cadre de la recherche du boson de Higgs. La première partie de cette thèse contient des analyses de performance sur le détecteur. Une étude de performance du système de haute tension du calorimètre électromagnétique (EMCAL) est présentée. Plus précisément, l'effet du aux résistances d'électrodes du EMCAL sur la mesure de l'énergie est investigué, et mesuré négligeable dans la plupart des cas. Par la suite, des études de performance de la reconstruction des photons sont présentées, l'étalonnage standard du EMCAL est validé à l'aide de photons provenant de désintégrations radiatives du boson Z. La deuxième partie de ce document concerne deux analyses de physique, portant sur la recherche du boson de Higgs dans les canaux de désintégration γγ et Zγ. Ma contribution principale à ces analyses fut le développement d'un modèle analytique de résolution du signal, construit pour répondre à la nécessité d'une interpolation de la fonction de densité de probabilité de la masse invariante du signal. Les résultats présentés sur la recherche du boson de Higgs dans le canal en di-photon proviennent de 4,8 fb−1 de données enregistrées à une énergie du centre de masse de √s = 7 TeV et de 5,9 fb−1 'a √s = 8 TeV. Un excès d'événements est observé dans la distribution de masse invariante des paires de photons, aux alentours de 126,5 GeV, avec une significance locale de 4,5 déviations standard. La combinaison de ce résultat avec ceux obtenus dans les recherches du boson de Higgs dans les canaux H → ZZ et H → WW démontre l'existence d'une nouvelle particule a une masse de 126, 0±0, 4(stat.)±0, 4(syst.) GeV. Ce résultat est compatible avec le boson scalaire du modèle standard de la physique de particules. La recherche du boson de Higgs dans le canal Zγ, est effectuée à l'aide de 4, 8 fb−1 de données enregistrées à √s = 7 TeV et de 20, 7 fb−1 à √s = 8 TeV. Aucune déviation significative du bruit de fonds prédict par le modèle standard est observée. Les limites supérieures à 95% de niveau de confiance sur le produit de la section efficace avec le rapport d'embranchement sont à 18,2 (observé) et à 13,6 (attendu) fois le modèle standard pour une masse de 125 GeV.
|
54 |
Découverte et exploitation d'objets visuels fréquents dans des collections multimédiasLetessier, Pierre 28 March 2013 (has links) (PDF)
L'objectif principal de cette thèse est la découverte d'objets visuels fréquents dans de grandes collections multimédia (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, ...), il s'agit d'extraire une connaissance de manière automatique ou semi-‐automatique en utilisant la fréquence d'apparition d'un objet au sein d'un corpus comme critère de pertinence. Dans le cas visuel, le problème est différent de la fouille de données classique (ADN, textuel, etc.) puisque les instances d'apparition d'un même objet ne constituent pas des entités identiques mais doivent être appariées. Cette difficulté explique également pourquoi nous nous focalisons sur la découverte des objets rigides (logos, objets manufacturés, décors, bâtiments, etc.), et non des catégories d'objets de plus haut niveau sémantique (maison, voiture, chien, ...). Bien que les techniques de recherche d'objets rigides aient atteint une certaine maturité, le problème de la découverte non supervisée d'instances d'objets dans des grandes collections d'images est à l'heure actuelle encore difficile. D'une part parce que les méthodes actuelles ne sont pas assez efficaces et passent difficilement à l'échelle. D'autre part parce que le rappel et la précision sont encore insuffisants pour de nombreux objets. Particulièrement ceux ayant une taille très restreinte par rapport à l'information visuelle contextuelle qui peut être très riche (par exemple le logo d'un parti politique apparaissant ponctuellement dans un sujet de journal télévisé). Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d'instances d'objets visuels fréquents. Ces deux problèmes sont en effet définis de manière très confuse dans les quelques travaux récents de la littérature les abordant. Cette modélisation nous a permis entre autres choses de mettre en évidence le lien étroit qui existe entre la taille des objets à découvrir et la complexité du problème à traiter. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d'une part sur un processus itératif d'échantillonnage d'objets candidats et d'autre part sur une méthode efficace d'appariement d'objets rigides à large échelle. L'idée est de considérer l'étape de recherche d'instances proprement dite comme une simple boite noire à laquelle il s'agit de soumettre des régions d'images ayant une probabilité élevée d'appartenir à un objet fréquent de la base. Une première approche étudiée dans la thèse consiste à simplement considérer que toutes les régions d'images de la base sont équiprobables, avec comme idée conductrice que les objets les plus instanciés sont ceux qui auront la couverture spatiale la plus grande et donc la probabilité la plus élevée d'être échantillonnés. En généralisant cette notion de couverture à celle plus générique de couverture probabiliste, il est alors possible de modéliser la complexité de notre méthode pour toute fonction de vraisemblance donnée en entrée, et de montrer ainsi l'importance de cette étape. La troisième contribution de la thèse s'attache précisément à construire une fonction de vraisemblance s'approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Cette dernière repose sur une approche originale de hachage à deux niveaux, permettant de générer efficacement un ensemble d'appariements visuels dans un premier temps, et d'évaluer ensuite leur pertinence en fonction de contraintes géométriques faibles. Les expérimentations montrent que contrairement aux méthodes de l'état de l'art notre approche permet de découvrir efficacement des objets de très petite taille dans des millions d'images. Pour finir, plusieurs scénarios d'exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d'évènements médiatiques transmedia et la suggestion de requêtes visuelles.
|
55 |
Jean Giono : chemins mythiques vers la découverte de soiAtiah, Sonia 18 June 2013 (has links) (PDF)
Le but de cette étude est de suivre le chemin de la reprise du mythe dans l'oeuvre de Giono. Le monde antique reste pour Giono une donnée permanente et imprescriptible de la condition humaine. Reprendre un mythe c'est souvent pour refaire de son héros un autre Moi, identique ou opposé. L'univers mythique de Giono, tel qu'il est représenté dans ses oeuvres, relève bien sûr de son imagination psychologique et de l'envie de se trouver un chemin qui conduit à la découverte de Soi. Etre Soi ou être un Autre, voilà la question fondamentale de la littérature contemporaine qui prend toute son ampleur chez les écrivains d'après-guerre. Giono, dans le cours de son existence réelle, a inventé son mythe de l'écrivain à travers le " portrait de l'artiste par lui-même ". C'est en devenant Ulysse ou Noé qu'il est enfin le plus authentiquement lui-même, en commençant par les autoportraits notamment Pour saluer Melville, ensuite l'autobiographie de Jeunesse dans Jean le Bleu.
|
56 |
Gestion de l’incertitude et de l’imprécision dans un processus d’extraction de connaissances à partir des textes / Uncertainty and imprecision management in a knowledge extraction process from unstructured textsJean, Pierre-Antoine 23 November 2017 (has links)
Les concepts de découverte et d’extraction de connaissances ainsi que d’inférencesont abordés sous différents angles au sein de la littérature scientifique. En effet, de nombreux domaines s’y intéressent allant de la recherche d’information, à l’implication textuelle en passant par les modèles d’enrichissement automatique des bases de connaissances. Ces concepts suscitent de plus en plus d’intérêt à la fois dans le monde académique et industriel favorisant le développement de nouvelles méthodes.Cette thèse propose une approche automatisée pour l’inférence et l’évaluation de connaissances basée sur l’analyse de relations extraites automatiquement à partir de textes. L’originalité de cette approche repose sur la définition d’un cadre tenant compte (i) de l’incertitude linguistique et de sa détection dans le langage naturel réalisée au travers d’une méthode d’apprentissage tenant compte d’une représentation vectorielle spécifique des phrases, (ii) d’une structuration des objets étudiés (e.g. syntagmes nominaux) sous la forme d’un ordre partiel tenant compte à la fois des implications syntaxiques et d’une connaissance a priori formalisée dans un modèle de connaissances de type taxonomique (iii) d’une évaluation des relations extraites et inférées grâce à des modèles de sélection exploitant une organisation hiérarchique des relations considérées. Cette organisation hiérarchique permet de distinguer différents critères en mettant en œuvre des règles de propagation de l’information permettant ainsi d’évaluer la croyance qu’on peut accorder à une relation en tenant compte de l’incertitude linguistique véhiculée. Bien qu’a portée plus large, notre approche est ici illustrée et évaluée au travers de la définition d’un système de réponse à un questionnaire, généré de manière automatique, exploitant des textes issus du Web. Nous montrons notamment le gain informationnel apporté par la connaissance a priori, l’impact des modèles de sélection établis et le rôle joué par l’incertitude linguistique au sein d’une telle chaîne de traitement. Les travaux sur la détection de l’incertitude linguistique et la mise en place de la chaîne de traitement ont été validés par plusieurs publications et communications nationales et internationales. Les travaux développés sur la détection de l’incertitude et la mise en place de la chaîne de traitement sont disponibles au téléchargement à l’adresse suivante : https ://github.com/PAJEAN/. / Knowledge discovery and inference are concepts tackled in different ways in the scientific literature. Indeed, a large number of domains are interested such as : information retrieval, textual inference or knowledge base population. Theses concepts are arousing increasing interest in both academic and industrial fields, promoting development of new methods.This manuscript proposes an automated approach to infer and evaluate knowledge from extracted relations in non-structured texts. Its originality is based on a novel framework making possible to exploit (i) the linguistic uncertainty thanks to an uncertainty detection method described in this manuscript (ii) a generated partial ordering of studied objects (e.g. noun phrases) taking into account of syntactic implications and a prior knowledge defined into taxonomies, and (iii) an evaluation step of extracted and inferred relations by selection models exploiting a specific partial ordering of relations. This partial ordering allows to compute some criteria in using information propagation rules in order to evaluate the belief associated to a relation in taking into account of the linguistic uncertainty. The proposed approach is illustrated and evaluated through the definition of a system performing question answering by analysing texts available on the Web. This case study shows the benefits of structuring processed information (e.g. using prior knowledge), the impact of selection models and the role of the linguistic uncertainty for inferring and discovering new knowledge. These contributions have been validated by several international and national publications and our pipeline can be downloaded at https ://github.com/PAJEAN/.
|
57 |
Détection automatique de déviations chirurgicales et identification de comportements chirurgicaux par modélisation et analyse des processus chirurgicaux / Automatic detection of sugical deviations and identification of surgical behavior thanks to modelisation and analysis of surgical processHuaulme, Arnaud 25 January 2017 (has links)
Les événements indésirables (EIs) sont devenus une vraie préoccupation du monde médical, leur réduction étant recherchée pour assurer la meilleure sécurité possible pour les patients. Les EIs sont, selon la HAS, ‘‘ des situations qui s'écartent de procédures ou de résultats escomptés dans une situation habituelle et qui sont ou qui seraient potentiellement sources de dommages’’. Alors que les EIs postopératoires sont étudiés depuis de nombreuses années, ceux ayant lieu au cours des opérations ne le sont que depuis récemment, comme le montre la récente classification des EIs intraopératoires par Kaafarani et al. publié en 2014. Cependant, la classification d'EIs intraopératoires n'est que la première étape pour comprendre les comportements chirurgicaux qui les entraînent.Dans cette thèse, nous présenterons des méthodes pour détecter l'apparition de déviations dues à l'apparition d'EIs intraopératoires et pour identifier des comportements chirurgicaux à partir de modèle de processus chirurgicaux.Ce travail a nécessité de concevoir et développer une modélisation formelle de la rectopexie et des événements indésirables qui sont associés à cette procédure chirurgicale grâceà la mise en place d'ontologies. Cette modélisation formelle nous a permis de bien appréhender le principe de cette opération et de fournir un vocabulaire permettant une annotation détaillé de vidéos endoscopiques de rectopexies, afin de créer des modèles de processus chirurgicaux en jeu.Grâce à l'annotation des vidéos chirurgicales basée sur cette modélisation, nous avons développé une une méthode de détection automatique des déviations dues à l'apparition d'événements indésirables Cette méthode est basée sur un alignement temporel non-linéaire multi-dimensionnel, que nous avons développé, suivi d'un modèle semi-Markovien caché que nous avons entraîné pour déterminer s'il existe des déviations par rapport à une chirurgie de référence et si celles-ci sont dues à des événements indésirables.Cette détection de déviations dues aux événements indésirables est la première étape afin de comprendre les raisons de leurs apparitions. Nous émettons l'hypothèse que leurs apparitions peuvent être expliquées par une succession d’activités, c'est-à-dire un pattern. Pour répondre à cette hypothèse, nous avons mis en place une méthode de découverte de patterns permettant d'identifier les comportements chirurgicaux spécifiques à différents critères. Cette identification de comportements chirurgicaux est réalisée par une classification ascendante hiérarchique avec la mise en place d'une nouvelle métrique basée sur les patterns partagés entre les chirurgies. Afin de valider notre méthode, nous l'avons comparé à deux études mettant en évidence des différences de comportements chirurgicaux, comme par exemple entre différents sites chirurgicaux ou entre deux types de procédure de la même opération. Une fois la méthode validée, nous avons utilisé notre méthode afin de montrer s'il existait des comportements chirurgicaux spécifiques à des données préopératoires et à l'apparition d'événements indésirables.Pour finir, nous revenons sur les contributions les plus importantes de ces travaux à travers une discussion générale et nous proposons différentes pistes pour améliorer nos résultats / L'auteur n'a pas fourni de résumé en anglais
|
58 |
Analyse anthropologique de l'activité et du rôle des acteurs de l'option : découverte professionnelle 3 heures, au premier cycle de l'enseignement secondaire français / Anthropological analysis of the activity and the role of the actors of the option : 3 hours professional discovery, in the first cycle of french secondary educationBoughagha, Akim 11 December 2015 (has links)
De la rentrée 2006 jusqu’à la fin de l’année scolaire 2014-2015 marquée par la réforme du collège impulsée par Najat Vallaud Belkacem Ministre de l’Education Nationale, tous les élèves de 3ème générale pouvaient en principe choisir de suivre l’option de Découverte Professionnelle (DP3), celle-ci n’étant ni réservée à une catégorie d’élèves en particulier ni aux élèves jugés en « difficulté scolaire ». Ce droit qui a été accordé à tous les élèves de 3ème générale de suivre l’option DP3 a été défini par les textes officiels comme étant un enseignement.Comment différents acteurs ont-ils envisagé la DP3 et quel sens lui ont-ils attribué ? Quels ont été leur(s) rôle(s) dans l’introduction de cette innovation au sein du système scolaire français ? Comment l’autonomie conférée par une décision institutionnelle a-t-elle été vécue par les acteurs dans des collèges différents ? Comment des professeurs de DP3 ont fait pour enseigner à leurs élèves cette nouvelle option dont les contours n’ont pas été définis clairement par l’institution scolaire ? Comment étaient-ils recrutés et comment ont-ils fait pour organiser leur activité d’enseignement en duo ? Quels moyens, quels outils et ressources pédagogiques ont-ils choisi de mobiliser pour faire fonctionner l’option dans leurs établissements ? Cette thèse se donne pour objectif une analyse anthropologique de l’activité de travail générée par la création et l’introduction d’un nouvel enseignement dans le système scolaire français. En combinant théories de l’activité et théories des organisations, nous proposons à la fois une analyse des rôles joués par différentes catégories d’acteurs ainsi que l’analyse de l’activité collective et collaborative produite par eux-mêmes grâce à une analyse d’entretiens « centrés sur l’activité », une analyse de documents professionnels ainsi que des descriptions ethnographiques d’observations menées en classe et à l’extérieur lors des visites organisées pour des élèves en entreprises. / From 2006 back to the end of the 2014-2015 school year marked by the reform of college Najat Vallaud Belkacem promoted by Minister of Education, all students “de troisième générale” were overall in principle choose to follow the option Discovery Professional (DP3), it is neither restricted to a particular category of students or students judged "learning difficulties". This right was granted to all third general students to follow the DP3 option was defined by official texts as a teaching.How different actors have considered the DP3 and what sense have they assigned? What was their (s) role (s) in the introduction of this innovation within the French school system? How the autonomy conferred by an institutional decision she was lived by the actors in different colleges? How DP3 teachers have to teach their students this new option whose contours were not clearly defined by the educational institution? How were they recruited and how have they done to organize their duet teaching activity? Which means, what tools and educational resources did they choose to mobilize to run the option in their establishments?This thesis has the objective anthropological analysis of the work activity generated by the creation and introduction of a new education in the French school system. Combining theories of business and organizational theories, we offer both an analysis of the roles played by different categories of stakeholders and the analysis of collective and collaborative activity produced by themselves through an analysis of interviews "centered on activity", a professional document analysis and ethnographic descriptions of observations conducted in the classroom and outside in organized tours for students in companies.
|
59 |
Interopérabilité des données médicales dans le domaine des maladies rares dans un objectif de santé publique / Interoperability of medical data for the rare diseases field in a public health objectiveMaaroufi, Meriem 07 November 2016 (has links)
La santé se digitalise et de multiples projets d’e-santé se développent. Dans le contexte des maladies rares (MR), un champ qui est devenu parmi les priorités de la stratégie de santé publique en France, l’e-santé pourrait constituer une solution pour améliorer les connaissances sur l’épidémiologie des MR. La Banque Nationale de Données Maladies Rares (BNDMR) propose de centraliser la conduite de ces études épidémiologiques pour toutes les MR et tous les patients, atteints de ces maladies, suivis dans le système de soin français. La BNDMR doit se développer au sein d’un paysage numérique dense et hétérogène. Développer l’interopérabilité de la BNDMR constitue l’objectif des travaux de cette thèse. Comment identifier les patients, incluant les fœtus ? Comment fédérer les identités des patients? Comment chainer des données pour permettre la conduite des études ? En réponse à ces questions, nous proposons une méthode universelle d’identification des patients qui respecte les contraintes de protection des données de santé. Quelles données recueillir dans la BNDMR ? Comment améliorer l’interopérabilité entre ces données et celles issues du large éventail des systèmes existants ? En réponse à ces questions, nous proposons de standardiser le recueil d’un set minimal de données pour toutes les MR. L’implémentation de standards internationaux assure un premier pas vers l’interopérabilité. Nous proposons aussi d’aller à la découverte de correspondances. Minimiser l’intervention humaine en adoptant des techniques d’alignement automatisé et rendre fiables et exploitables les résultats de ces alignements ont constitué les principales motivations de notre proposition. / The digitalization of healthcare is on and multiple e-health projects are unceasingly coming up. In the rare diseases context, a field that has become a public health policy priority in France, e-health could be a solution to improve rare diseases epidemiology and to propose a better care for patients. The national data bank for rare diseases (BNDMR) offers the centralization of these epidemiological studies conduction for all rare diseases and all affected patients followed in the French healthcare system. The BNDMR must grow in a dense and heterogeneous digital landscape. Developing the BNDMR interoperability is the objective of this thesis’ work. How to identify patients, including fetuses? How to federate patients’ identities to avoid duplicates creation? How to link patients’ data to allow studies’ conduction? In response to these questions, we propose a universal method for patients’ identification that meets the requirements of health data protection. Which data should be collected in the national data bank? How to improve and facilitate the development of interoperability between these data and those from the wide range of the existing systems? In response to these questions, we first propose the collection of a standardized minimum data set for all rare diseases. The implementation of international standards provides a first step toward interoperability. We then propose to move towards the discovery of mappings between heterogeneous data sources. Minimizing human intervention by adopting automated alignment techniques and making these alignments’ results reliable and exploitable were the main motivations of our proposal.
|
60 |
Amélioration des adresses CGA et du protocole SEND pour un meilleur support de la mobilité et de nouveaux services de sécurité / Improving CGA addresses and the SEND protocol for a better mobility support and new security servicesCheneau, Tony 07 January 2011 (has links)
A l'origine conçus pour protéger le protocole de Découverte de Voisins (Neighbor Discovery Protocol, NDP) en IPv6, les adresses générées de manière cryptographique (Cryptographically Generated Addresses, CGA) et le protocole SEND (Secure Neighbor Discovery) doivent maintenant s'adapter au contexte de mobilité et à ses nouvelles fonctionnalités. Cette mobilité revêt de nombreuses formes : mobilité du noeud (Mobile IPv6, MIPv6), mobilité des routeurs (Network Mobility, NEMO) ou encore mobilité gérée par le réseau (Proxy Mobile IPv6). De nombreux changements doivent être opérés dans le protocole SEND : les opérations cryptographiques doivent être allégées pour les terminaux à faible capacité de calcul, les incompatibilités entre le partage d'adresse dans les protocoles de mobilité et le mécanisme de protection d'adresses de SEND doivent être corrigés, etc. Dans une première partie de cette thèse, nous présentons le protocole de Découverte de Voisins, les adresses CGA et le protocole de sécurité SEND. Nous étudions leurs limitations et, afin d'améliorer les performances, nous proposons l'utilisation de la cryptographie basée sur les courbes elliptiques (ECC). À travers une série de tests, nous mesurons l'impact de notre proposition. Par la suite, nous modifions les spécifications du protocole SEND afin de supporter de nouveaux algorithmes crytpographiques. Dans une deuxième partie, nous résolvons les incompatibilités entre le protocole SEND et les protocoles de mobilité (par ex. MIPv6) et entre le protocole SEND et les adresses anycast. Dans une dernière partie, nous présentons plusieurs contributions basées sur une utilisation dérivée des adresses CGA et du protocole SEND. / Originally designed to protect the Neighbor Discovery Protocol (NDP) (part of the IPv6 protocol suite), the Cryptographically Generated Addresses (CGA) and the Secure Neighbor Discovery (SEND) now need to be adapted to the context of Mobility and extended to new functionalities. The term "Mobility" encompasses many aspects, among them : node mobility (Mobile IPv6, MIPv6), router mobility (Network Mobility, NEMO) and network-based mobility management (Proxy Mobile IPv6, PMIPv6). Numerous changes need to be operated on the SEND protocol in order to comply with the Mobility : the cryptographic operations need to be adapted to operate on low power mobile nodes, the incompatibilities between the address sharing model of the mobile protocol and the address protections offered by SEND need to be fixed, etc. Firstly, we present the Neighbor Discovery protocol, the CGA addresses and the SEND protocol. We study their limitations, and, in order to improve their performances, we propose to replace the signature algorithm used in SEND (RSA) by the elliptic curves cryptography (ECC). We then evaluate the performances of our proposal. Subsequently, we modify the SEND protocol to include a signature algorithm selection mechanism. Secondly, we solve incompatilities between the SEND protocol and the mobility protocols (e.g. MIPv6) and between the SEND protocol and the anycast addresses. Finally, we present our contributions containing a derivate use of the CGA addresses and the SEND protocol.
|
Page generated in 0.0552 seconds