11 |
Services d'autorisation et Intégration au protocole d'attribution dynamique des adressesDEMERJIAN, JACQUES 09 December 2004 (has links) (PDF)
La sécurité est un enjeu majeur des technologies numériques modernes. Avec le développement de l'Internet, les besoins de sécurité sont de plus en plus importants. Le développement d'applications Internet telles que le commerce électronique, les applications médicales ou la vidéoconférence, implique de nouveaux besoins comme, l'identification des entités communicantes, l'intégrité des messages échangés, la confidentialité de la transaction, l'authentification des entités, l'anonymat du propriétaire du certificat, l'habilitation des droits, la procuration, etc..<br /><br />Qu'il s'agisse de données médicales, fiscales ou bancaires, le besoin en sécurité est essentiel afin de crédibiliser le système, tout en respectant à la fois les besoins des utilisateurs et des applications. Cette sécurité a néanmoins un prix : celui de l'établissement de la confiance entre les partenaires en communication. La confiance des utilisateurs passe par la sécurisation des transactions, par exemple au moyen d'une procédure de certification, et la reconnaissance des signatures électroniques.<br /><br />Malgré la diversité des certificats numériques existants (certificat d'identité X.509, SPKI, certificat d'attributs, etc.), ils sont encore limités, génériques et répondent ainsi insuffisamment aux besoins spécifiques des applications électroniques et des utilisateurs. D'où la nécessité de spécifier une nouvelle approche pour la génération de certificats numériques répondant à ces exigences, légers, simplifiés et plus ouverts que ceux existants.<br /><br />Les travaux de recherche présentés dans cette thèse consistent à proposer une nouvelle approche pour la génération de certificats numériques pour contribuer aux services d'autorisation, puis à intégrer cette contribution au protocole d'attribution dynamique des adresses DHCP (Dynamic Host Configuration Protocol)afin de le renforcer.<br /><br />Cette thèse est constituée de deux parties.<br /><br />Dans la première partie, nous traitons les différents types de certificats existants ainsi que leurs limites. Nous proposons et spécifions une approche qui permet de garantir à l'application et à l'utilisateur la bonne mise en forme des informations dans le certificat et l'adéquation du contenu de leur certificat vis-à-vis de leurs besoins.<br />Ces certificats sont des certificats d'attributs spécifiés en XML, flexibles et respectant les besoins de l'application et la personnalisation de l'utilisateur durant la génération du certificat.<br />Pour chaque application, nous avons défini une grammaire DTD (Document Type Definition) pour préciser tous les champs dont l'application a besoin. L'idée principale est de stocker, sur le serveur, des DTDs c'est-à-dire, des fichiers contenant un certain nombre de paramètres correspondant aux données qui seront insérées dans le certificat d'attributs final. La génération de ces certificats d'attributs respecte la grammaire associée à<br />l'application. En effet, c'est grâce à celles-ci que l'administrateur personnalisera les certificats d'attributs que<br />l'utilisateur pourra demander. Ainsi, si le besoin d'un nouveau type de certificat d'attributs émane, il suffit de créer la DTD correspondant à la nouvelle application ajoutée.<br /><br />Pour satisfaire les besoins de l'utilisateur, l'E-IGP (Extension de l'Infrastructure de Gestion des Privilèges)permet à ce dernier de personnaliser sa demande de certificats d'attributs. C'est l'utilisateur qui précise les valeurs des paramètres de l'application, la date de validité de son certificat d'attributs, les rôles qu'il souhaite avoir ou les délégations qu'il souhaite fournir à quelqu'un suivant ces besoins. La mise en oeuvre de l'E-IGP a nécessité l'existence d'une Infrastructure de Gestion des Clefs, à laquelle l'E-IGP est rattaché.<br /><br />Pour prouver la faisabilité et l'efficacité de l'approche proposée, nous l'intégrons dans le fonctionnement du protocole DHCP. Destiné à faciliter le travail des administrateurs systèmes en automatisant l'attribution des adresses IP et les paramètres de configurations aux clients du réseau, le protocole DHCP souffre de nombreux problèmes de sécurité. Il ne supporte pas le mécanisme avec lequel les clients et les serveurs DHCP<br />s'authentifient. De plus, le protocole DHCP n'assure pas l'intégrité des données échangées, ni leur confidentialité et il ne possède aucun mécanisme de contrôle d'accès.<br /><br />La deuxième contribution majeure de cette thèse est la spécification et l'implémentation d'une extension du protocole DHCP, appelée E-DHCP (Extended Dynamic Host Configuration Protocol). E-DHCP présente une méthode d'authentification d'entités (client et serveur) DHCP et des contenus des messages DHCP. E-DHCP propose une nouvelle option DHCP. La technique utilisée par cette option est basée sur l'utilisation<br />d'algorithmes de clefs de chiffrement asymétrique, de certificats d'identité X.509 et de certificats d'attributs simplifiés spécifiés en XML, proposés dans la première contribution de cette thèse. L'idée principale de E-DHCP est d'adosser au serveur DHCP un serveur AA (Attribute Authority) d'un E-IGP pour former un nouveau serveur appelé serveur E-DHCP. Ce nouveau serveur crée un certificat d'attributs pour le client contenant l'adresse Internet attribuée dynamiquement. L'utilisation du certificat d'attributs confirme la possession du client de son adresse IP.
|
12 |
Etude comparative de couples ARNt/aminoacyl-ARNt synthétases chez la levure et la mitochondrie humaine.Fender, Aurélie 18 November 2005 (has links) (PDF)
Le travail de cette thèse s'inscrit dans le cadre de l'étude des règles qui régissent la spécificité d'aminoacylation des ARN de transfert (ARNt) par les aminoacyl-ARNt synthétases (aaRS). La précision de cette réaction est cruciale puisqu'elle détermine la fidélité de la traduction de l'information génétique et la synthèse de protéines fonctionnelles. J'ai tiré profit des stratégies de biologie moléculaire, basées sur la transcription in vitro des ARNt, la production d'enzymes clonées, et la mutagénèse, afin d'explorer les relations structure/fonction des systèmes d'aminoacylation de levure et de la mitochondrie humaine.<br />Les aspects fonctionnels et structuraux ont été davantage explorés par des essais de cristallisation et des approches in vivo.<br />Jusqu'à présent, il était admis que les règles de reconnaissance et d'aminoacylation d'ARNt isoaccepteurs pour un système donné devaient être identiques. L'analyse d'une famille d'ARNt isoaccepteurs de l'arginine de levure et de sa relation particulière avec l'ARNtAsp nous ont permis d'établir que : (i) les isoaccepteurs sont arginylés avec des efficacités différentes (un facteur 20 les sépare) et sont protégés de la misaminoacylation par des antidéterminants idiosyncrasiques, (ii) l'isoaccepteur ARNt4<br />Arg possède des propriétés d'aspartylation, vestiges de son histoire évolutive, puisque seulement deux mutations sont<br />suffisantes pour convertir sa spécificité – c'est un exemple de génération de la diversité moléculaire par duplication de gènes. Les systèmes d'aminoacylation mt de mammifères restent peu étudiés, et ce malgré la « bizarrerie » structurale et l'implication dans des<br />pathologies sévères de leurs ARNt, codés par le génome mt. Nos efforts ont permis l'assignement des 10 gènes nucléaires manquants codant pour les aaRS mt humaines. Ceux-ci<br />sont portés par un jeu de gènes différents de celui codant pour les sysnthétases cytoplasmiques. L'analyse détaillée du système d'aspartylation, choisi comme système modèle a révélé (i) une identité de l'ARNt mt moins stringente que celle des ARNt classiques, (ii) une adaptation subtile et ciblée de l'aaRS mt, codée par le génome nucléaire et de type bactérien. Ceci illustre un processus de co-évolution entre les génomes mt et nucléaire<br />humain. De plus, j'ai déterminé les signaux qui protègent l'ARNtAsp mt d'être un substrat des aaRS non mt. De manière surprenante, ce n'est pas la dégénérescence structurale globale de<br />l'ARNt qui empêche le plus cette aminoacylation croisée mais une simple paire de bases du bras D.
|
13 |
Implémentation d'algorithmes de reconnaissance biométrique par l'iris sur des architectures dédiéesHentati, Raïda 02 November 2013 (has links) (PDF)
Dans cette thèse, nous avons adapté trois versions d'une chaine d'algorithmes de reconnaissance biométrique par l'iris appelés OSIRIS V2, V3, V4 qui correspondent à différentes implémentations de l'approche de J. Daugman pour les besoins d'une implémentation logicielle / matérielle. Les résultats expérimentaux sur la base de données ICE2005 montrent que OSIRIS_V4 est le système le plus fiable alors qu'OSIRIS_V2 est le plus rapide. Nous avons proposé une mesure de qualité de l'image segmentée pour optimiser en terme de compromis coût / performance un système de référence basé sur OSIRIS V2 et V4. Nous nous sommes ensuite intéressés à l'implémentation de ces algorithmes sur des plateformes reconfigurables. Les résultats expérimentaux montrent que l'implémentation matériel / logiciel est plus rapide que l'implémentation purement logicielle. Nous proposons aussi une nouvelle méthode pour le partitionnement matériel / logiciel de l'application. Nous avons utilisé la programmation linéaire pour trouver la partition optimale pour les différentes tâches prenant en compte les trois contraintes : la surface occupée, le temps d'exécution et la consommation d'énergie
|
14 |
L’étude de l’influence des facteurs légaux et extralégaux dans le cheminement des affaires de fraude au QuébecVoltaire, Natasha 12 1900 (has links)
L’objectif de cette étude consiste à mieux comprendre le phénomène de l’attrition pénale au Canada. D’une part, elle vise à déterminer quels sont les facteurs d’influence des décisions pénales motivant la poursuite ou l’arrêt des procédures. D’autre part, il est question de vérifier si ces facteurs sont comparables à chaque étape décisionnelle ou non. Pour y parvenir, une analyse de différentes décisions prises par des policiers, des procureurs et des juges fut réalisée. Un total de 525 affaires criminelles a été considéré. Les analyses descriptives montrent que l’échantillon est principalement constitué d’hommes (77%) sans antécédents criminels en matière de fraude (76%). Les analyses multivariées suggèrent que les facteurs légaux sont les meilleurs prédicteurs des décisions pénales. Comme observé dans la littérature, les antécédents criminels et la gravité de l’infraction semblent influencer les décisions. Ainsi, le fait d’avoir fait une tentative de vol d’un certain montant d’argent, le nombre d’infractions commis et la présence d’antécédents criminels de fraude semblent influencer ces décisions. Lorsque le suspect fait une tentative de vol et qu’une infraction a été commise (comparativement à plusieurs), des accusations sont moins susceptibles d’être recommandées contre lui par la police. Cette probabilité est également moindre lorsque le suspect possède des antécédents criminels de fraude (une relation marginale a été observée). De plus, il semble que l’influence des facteurs diffère d’une étape à une autre. Un retour plus explicite sur ces résultats est effectué dans la discussion. / This study aim to better understand the attrition phenomenon in Canada. On one hand, it seeks to identify the factors that influence criminal decisions in the pursuit or stay of proceedings. On the other hand, it seeks to verify whether or not these factors are comparable at each decision-making stage. To achieve this, an analysis of various decisions that have been taken by police officers, prosecutors and judges was carried out. A total of 525 criminal cases was considered. Descriptive analyzes show that the sample consists mainly of men (77%) with no criminal history of fraud (76%). Multivariate analyzes show that legal factors are the best predictors of criminal decisions. As observed in the literature, the presence of criminal history and the seriousness of the offense appear to influence the decisions. Thereby, the attempt to steal a certain amount of money, the number of offenses committed and the presence of a criminal history of fraud appear to influence these decisions. When the suspect makes an attempt theft and an offense has been committed (compared to several), charges are less likely to be recommended against him by the police. This probability is also lower when the suspect has a criminal history of fraud (a marginal effect was observed). Moreover, it seems that the influence of factors differs from one stage to another. A more explicit return on these results is carried out in the discussion.
|
15 |
Le penser pacifié et l’agir moral de l’après Auschwitz selon T. W. AdornoConstantin, Kathia 01 1900 (has links)
Dans Dialectique de la Raison, Adorno et Horkheimer tentent d’esquisser le pourquoi et le comment de ce retour à la barbarie qu’a connu la civilisation européenne, lors du troisième Reich. Quelles sont ces conditions qui ont rendu possibles les massacres administrés sous le régime nazi? La résolution de cette énigme qui se solde sur l’échec de l’Auflkärung nous dévoile une nécessité, celle d’une transformation radicale à la fois de l’éthique et de la métaphysique dans sa conception de la vérité. Celle-ci se présente à nous sous la forme d’une norme morale : « Dans leur état de non-liberté, Hitler a imposé aux hommes un nouvel impératif catégorique; penser et agir en sorte qu’Auschwitz ne se répète pas ». Quelles modalités de penser et d’agir nous exhortent ce nouvel impératif catégorique? La philosophie d’Adorno, critiqué pour n’avoir été que négative dans son entreprise, est-elle en mesure de nous fournir des prescriptions normatives capables de réorienter le penser théorétique et l’éthique? / In Dialectic of Enlightenment, Adorno and Horkheimer try to explain the reasons for why and how, European civilization committed barbaric crimes during the third Reich. What conditions that made possible the massacres administered under the Nazi regime? The failure of the Enlightenment is the answer to this question and requires a radical transformationof ethics and metaphysics. This necessity takes the form of a new categorical imperative: “A new categorical imperative has been imposed by Hitler upon human beings in the state of their unfreedom: to arrange theirs thoughts and actions so that Auschwitz will not repeat itself, so that nothing similar will happen”. Is Adorno’s philosophy, often accused of being too negative, is it able to provide normative prescriptions able to give a new direction to the theoretical thinking and ethics?
|
16 |
Implémentation d'algorithmes de reconnaissance biométrique par l'iris sur des architectures dédiées / Implementing biometric iris recognition algorithms on dedicated architecturesHentati, Raïda 02 November 2013 (has links)
Dans cette thèse, nous avons adapté trois versions d'une chaine d'algorithmes de reconnaissance biométrique par l’iris appelés OSIRIS V2, V3, V4 qui correspondent à différentes implémentations de l’approche de J. Daugman pour les besoins d’une implémentation logicielle / matérielle. Les résultats expérimentaux sur la base de données ICE2005 montrent que OSIRIS_V4 est le système le plus fiable alors qu’OSIRIS_V2 est le plus rapide. Nous avons proposé une mesure de qualité de l’image segmentée pour optimiser en terme de compromis coût / performance un système de référence basé sur OSIRIS V2 et V4. Nous nous sommes ensuite intéressés à l’implémentation de ces algorithmes sur des plateformes reconfigurables. Les résultats expérimentaux montrent que l’implémentation matériel / logiciel est plus rapide que l’implémentation purement logicielle. Nous proposons aussi une nouvelle méthode pour le partitionnement matériel / logiciel de l’application. Nous avons utilisé la programmation linéaire pour trouver la partition optimale pour les différentes tâches prenant en compte les trois contraintes : la surface occupée, le temps d’exécution et la consommation d’énergie / In this thesis, we adapted three versions of a chain of algorithms for biometric iris recognition called OSIRIS V2, V3, V4, which correspond to different implementations of J. Daugman approach. The experimental results on the database ICE2005 show that OSIRIS_V4 is the most reliable when OSIRIS_V2 is the fastest. We proposed a measure of quality of the segmented image in order to optimize in terms of cost / performance compromise a reference system based on OSIRIS V2 and V4. We focused on the implementation of these algorithms on reconfigurable platforms. The experimental results show that the hardware / software implementation is faster than the software implementation. We propose a new method for partitioning hardware / software application. We used linear programming to find the optimal partition for different tasks taking into account the three constraints : the occupied area, execution time and energy consumption
|
17 |
Contribution à la vérification multi-modale de l'identité en utilisant la fusion de décisionsVerlinde, Patrick 17 September 1999 (has links) (PDF)
La vérification automatique de l'identité d'une personne est utilisée dans beaucoup d'applications telles que l'accès à des services automatisés et à des endroits protégés (banques,....). Un facteur important, qui limite le développement de ces services, est la nécessité de diminuer la probabilité d'intrusion par des imposteurs (ce qu'on appelle le taux de fausses acceptations: FA), tout en minimisant la probabilité d'être rejeté pour les clients (ce qu'on appelle le taux de faux réjets: FR). Une possibilité pour relever ce défi est d'utiliser plusieurs "procédés d'identification" (souvent appelés modalités) différents, et de les combiner ou de les fusionner. L'utilisation d'un "mot de passe" ou d'une carte avec numéro d'identification personnel (PIN) est une modalité de vérification bien connue et très populaire. Malheureusement, on peut oublier ce PIN ou le "perdre" et, en plus, la seule chose que l'on vérifie vraiment est la connaissance du bon numéro. Une autre approche consiste à utiliser des modalités dites biométriques, qui se basent sur la mesure de certaines caractéristiques biologiques de personnes (empreintes digitales, visage, parole,....). L'être humain utilise d'ailleurs la vision et le signal vocal, lorsqu'il est confronté à ce même problème de reconnaissance. L'avantage intrinsèque de ces modalités biométriques est qu'elles sont "liées" à l'individu (on ne peut pas les perdre). Parmi les modalités biométriques les plus utilisées, on trouve tout d'abord le signal vocal (vérification du locuteur). Cette méthode de vérification est déjà bien connue, mais souffre de quelques désavantages majeurs. Un de ces désavantages est la variabilité dans le temps des caractéristiques d'un même locuteur (variabilité intra-locuteur). Pour intégrer cette variabilité fondamentale et pour assurer la robustesse des méthodes traditionnelles de vérification de locuteur, il faut obligatoirement effectuer des séances d'entraînement relativement longues et répetées dans le temps, ce qui ne rend pas cette méthode très conviviale. Si on diminue la durée ou la fréquence des séances d'entraînement, on dégrade ipso facto les performances de ce genre de méthodes. Un autre désavantage est le risque d'un enregistrement du signal de parole à des fins d'imposture. Une des possibilités attractives pour amméliorer les performances des méthodes de vérification d'identité à faible niveau d'entraînement, tout en préservant la convivialité, est de ne pas se baser uniquement sur la parole, mais d'y inclure également d'autres informations (modalités), de préférence indépendantes (afin de maximaliser l'apport d'information). Une des autres modalités possibles est sans aucun doute la vision. L'identification basée sur le visage peut évidemment utiliser des caractéristiques biométriques aussi bien de face (distance entre les yeux et la bouche,etc....) que de profil. La vue de face permet en outre de localiser les lèvres et de suivre leurs mouvements, et donc d'utiliser la synchronisation entre les lèvres et la parole. Pour améliorer les résultats obtenus par une seule modalité, on peut combiner plusieurs d'entre elles, ce qui implique l'application de techniques de fusion de données. Ces techniques sont souvent classées dans trois catégories différentes, basées respectivement sur l'utilisation de modèles physiques, de procédés d'inférence et de méthodes cognitives. Les modèles physiques utilisent la simulation et l'estimation. Les techniques d'inférence comprennent entre autres les méthodes statistiques (Bayes, Dempster-Shafer), les méthodes de clustering, les réseaux de neurones, les méthodes par vote et les méthodes de reconnaissance de formes. Enfin les stratégies cognitives se regroupent surtout autour de la logique floue et des systèmes experts. L'objet de cette thèse est d'explorer différentes techniques de fusion de données en mettant l'accent sur les techniques d'inférence.
|
18 |
Génétique des populations subdivisées : théorie et applicationsVitalis, Renaud 04 December 2001 (has links) (PDF)
Cette thèse a pour objet l'étude théorique de la distribution de la variation génétique dans les populations subdivisées. L'exemple de l'étude d'une fougère aquatique rare <EM>Marsilea strigosa</EM> Willd. (Marsileaceae, Pteridophyta) illustre l'importance des notions <EM>identité génétique</EM> et de <EM>taille efficace</EM> pour comprendre quelles sont les forces évolutives qui façonnent la variation génétique observée. Plus particulièrement, je me suis intéressé, au travers de modèles théoriques, à l'effet de la structure spatiale ou temporelle des populations sur la distribution de la variation génétique. A partir de ces modèles, trois méthodes d'analyse de la variation génétique dans les populations naturelles ont été développées. La première permet d'estimer la <EM>taille efficace</EM>, une quantité qui mesure l'intensité de la <EM>dérive</EM> génétique. La seconde méthode concerne l'estimation des taux de dispersion spécifiques aux individus de sexes différents. Enfin, une méthode de détection de marqueurs moléculaires potentiellement soumis à l'action de la sélection a été développée.
|
19 |
Etude de cas sociolinguistique et ethnographique de quatre familles indiennes immigrantes en Europe : pratiques lagagières et politiques linguistiques nationales et familialesHaque, Shahzaman 03 July 2012 (has links) (PDF)
Ce travail de recherche s'inscrit dans une approche pluridisciplinaire - monographique, ethnographique et sociolinguistique avec une dimension longitudinale. Il tente de décrire de manière approfondie les pratiques linguistiques familiales de quatre familles indiennes immigrantes installées dans quatre pays européens : la France, la Suède, la Norvège et la Finlande. Cette étude cherche également à cerner les enjeux des politiques linguistiques familiales, domaine dans lequel peu de recherches ont été entreprises et qui, de ce fait, reste à développer. Par ailleurs, les idéologies et attitudes concernant les langues se traduisent dans les décisions prises par les chefs de la famille, les parents, qui privilégient l'apprentissage de telle ou telle langue, pour eux-mêmes et surtout pour les enfants. Au plan macro, la politique linguistique nationale de chacun des pays concernés par notre étude est évoquée, y compris celle de l'Inde, avec un centrage sur la politique linguistique éducative et les modalités d'enseignement des langues migrantes. Le plurilinguisme des participants est analysé avec la notion de répertoire multilingue au sein duquel les compétences langagières sont segmentées par domaine. Les notions d'espace, de contexte, de mobilité, d'échelle, de polycentralité et d'ordres d'indexicalité ont été convoquées pour pouvoir appréhender ces compétences. La transmission linguistique intergénérationnelle est abordée par le biais d'une analyse critique de la politique linguistique familiale et nationale ainsi que la question de l'incidence du legs des valeurs culturelles et linguistiques du pays d'origine (ou de son absence) sur la construction de l'identité de la deuxième génération.
|
20 |
Représentations des polynômes, algorithmes et bornes inférieuresGrenet, Bruno 29 November 2012 (has links) (PDF)
La complexité algorithmique est l'étude des ressources nécessaires -- le temps, la mémoire, ... -- pour résoudre un problème de manière algorithmique. Dans ce cadre, la théorie de la complexité algébrique est l'étude de la complexité algorithmique de problèmes de nature algébrique, concernant des polynômes.Dans cette thèse, nous étudions différents aspects de la complexité algébrique. D'une part, nous nous intéressons à l'expressivité des déterminants de matrices comme représentations des polynômes dans le modèle de complexité de Valiant. Nous montrons que les matrices symétriques ont la même expressivité que les matrices quelconques dès que la caractéristique du corps est différente de deux, mais que ce n'est plus le cas en caractéristique deux. Nous construisons également la représentation la plus compacte connue du permanent par un déterminant. D'autre part, nous étudions la complexité algorithmique de problèmes algébriques. Nous montrons que la détection de racines dans un système de n polynômes homogènes à n variables est NP-difficile. En lien avec la question " VP = VNP ? ", version algébrique de " P = NP ? ", nous obtenons une borne inférieure pour le calcul du permanent d'une matrice par un circuit arithmétique, et nous exhibons des liens unissant ce problème et celui du test d'identité polynomiale. Enfin nous fournissons des algorithmes efficaces pour la factorisation des polynômes lacunaires à deux variables.
|
Page generated in 0.0567 seconds