• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 17
  • 5
  • 1
  • Tagged with
  • 69
  • 20
  • 18
  • 14
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Cerbère au temps des " bio-maîtres " : la biométrie, servante-maîtresse d'une nouvelle ère biopolitique ? Le cas du programme US-VISIT

Woodtli, Patrick F. 06 1900 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
32

Comparative studies (anatomy, ethology, taphonomy) of two modern hyena species by the analysis of bone accumulation in dens from Kenya : towards understanding human-carnivore conflict / Etudes comparatives (anatomique, éthologie, taphonomie) de deux espèces d'hyènes modernes par l'analyse des accumulations osseuses de repaires au Kenya : réflexion sur les conflits hommes et carnivores

Mwebi, Ogeto 10 December 2013 (has links)
Ce travail présente les résultats obtenus à partir de l’étude de repaires actuels afin de distinguer les comportements d’accumulations osseuse pour deux espèces d’hyènes dans deux zones pastoralistes du Kenya (Magadi et Samburu). Il est principalement basé sur les compositions spécifiques entre hyène tachetée (Crocuta) et hyène rayée (Hyaena). Les comparaisons des collections osseuses entre repaires permettent d’apprécier les différences taxinomiques et la part prise par les espèces sauvages ou domestiques. Les marques dentaires montrent si l’impact entre ces deux stocks est similaire ou différent en relation avec des périodes de déficit dans la faune sauvage, remplacée alors par les espèces domestiques dans les régimes alimentaires des hyènes. Les représentations squelettiques des repaires ont été quantifiées : les proportions squelettiques sont globalement proches à l’exception des dents et de l’axial. Cela suppose des transports et destructions différentielles. Les hyènes de Magadi apportent des carcasses entières dans leurs repaires alors que celles de Samburu sélectionnent plus (crânes). Les distributions selon les classes de taille montrent une plus grande variabilité chez l’hyène tachetée que chez l’hyène rayée. Une analyse biométrique est effectuée afin de connaitre le degré de dimorphisme sexuel et sa variation géographique. Les hyènes d’Afrique de l’Est sont légèrement plus petites que celles d’autres régions. Notre étude est en accord avec des études précédentes, et montre que les accumulations osseuses de repaires reflètent bien la diversité spécifique des environnements. / This thesis presents data from two study areas’ den sites aimed at ascertaining unique bone collecting behaviour of the two hyaena species in pastoralist land in Kenya (Magadi and Samburu). Its focus was quantifying species composition in the dens of spotted hyena (Crocuta) and striped hyena (Hyaena). This was mainly to gauge the importance of wildlife or livestock diet. It further tried to analyse whether tooth mark patterning in wildlife and livestock is similar or different also aimed at ascertaining whether livestock are target prey during times of wild prey deficiency. Skeletal element representations in dens were quantified to find out carcass transport pattern of the two species. Element proportions were generally similar in the two study areas except for teeth and axial. This pattern suggests differential carcass transport and bone ravaging in the two areas. Magadi striped hyaenas most likely transported whole carcasses to the den sites while the Samburu ones took skeletal parts consisting skulls. This could be also as a result of the bone collecting hunting, scavenging) and ravaging differences of the striped and spotted hyaenas. Of the two species bone collecting pattern in terms of size class representation was very variable in spotted hyaena compared to the striped hyaena that consistently collected size class II prey species. Skeletal biometrics of the two species was analysed to detect sexual and geographic size dimorphism. Eastern African hyaenas are slightly smaller than those from other regions. This study’s results are consistent with previous studies that indicate hyaena den collection reflect the faunal diversity of environment around the den sites.
33

Analyse de la qualité des signatures manuscrites en-ligne par la mesure d'entropie / Quality analysis of online signatures based on entropy measure

Houmani, Nesma 13 January 2011 (has links)
Cette thèse s'inscrit dans le contexte de la vérification d'identité par la signature manuscrite en-ligne. Notre travail concerne plus particulièrement la recherche de nouvelles mesures qui permettent de quantifier la qualité des signatures en-ligne et d'établir des critères automatiques de fiabilité des systèmes de vérification. Nous avons proposé trois mesures de qualité faisant intervenir le concept d’entropie. Nous avons proposé une mesure de qualité au niveau de chaque personne, appelée «Entropie personnelle», calculée sur un ensemble de signatures authentiques d’une personne. L’originalité de l’approche réside dans le fait que l’entropie de la signature est calculée en estimant les densités de probabilité localement, sur des portions, par le biais d’un Modèle de Markov Caché. Nous montrons que notre mesure englobe les critères habituels utilisés dans la littérature pour quantifier la qualité d’une signature, à savoir: la complexité, la variabilité et la lisibilité. Aussi, cette mesure permet de générer, par classification non supervisée, des catégories de personnes, à la fois en termes de variabilité de la signature et de complexité du tracé. En confrontant cette mesure aux performances de systèmes de vérification usuels sur chaque catégorie de personnes, nous avons trouvé que les performances se dégradent de manière significative (d’un facteur 2 au minimum) entre les personnes de la catégorie «haute Entropie» (signatures très variables et peu complexes) et celles de la catégorie «basse Entropie» (signatures les plus stables et les plus complexes). Nous avons ensuite proposé une mesure de qualité basée sur l’entropie relative (distance de Kullback-Leibler), dénommée «Entropie Relative Personnelle» permettant de quantifier la vulnérabilité d’une personne aux attaques (bonnes imitations). Il s’agit là d’un concept original, très peu étudié dans la littérature. La vulnérabilité associée à chaque personne est calculée comme étant la distance de Kullback-Leibler entre les distributions de probabilité locales estimées sur les signatures authentiques de la personne et celles estimées sur les imitations qui lui sont associées. Nous utilisons pour cela deux Modèles de Markov Cachés, l'un est appris sur les signatures authentiques de la personne et l'autre sur les imitations associées à cette personne. Plus la distance de Kullback-Leibler est faible, plus la personne est considérée comme vulnérable aux attaques. Cette mesure est plus appropriée à l’analyse des systèmes biométriques car elle englobe en plus des trois critères habituels de la littérature, la vulnérabilité aux imitations. Enfin, nous avons proposé une mesure de qualité pour les signatures imitées, ce qui est totalement nouveau dans la littérature. Cette mesure de qualité est une extension de l’Entropie Personnelle adaptée au contexte des imitations: nous avons exploité l’information statistique de la personne cible pour mesurer combien la signature imitée réalisée par un imposteur va coller à la fonction de densité de probabilité associée à la personne cible. Nous avons ainsi défini la mesure de qualité des imitations comme étant la dissimilarité existant entre l'entropie associée à la personne à imiter et celle associée à l'imitation. Elle permet lors de l’évaluation des systèmes de vérification de quantifier la qualité des imitations, et ainsi d’apporter une information vis-à-vis de la résistance des systèmes aux attaques. Nous avons aussi montré l’intérêt de notre mesure d’Entropie Personnelle pour améliorer les performances des systèmes de vérification dans des applications réelles. Nous avons montré que la mesure d’Entropie peut être utilisée pour : améliorer la procédure d’enregistrement, quantifier la dégradation de la qualité des signatures due au changement de plateforme, sélectionner les meilleures signatures de référence, identifier les signatures aberrantes, et quantifier la pertinence de certains paramètres pour diminuer la variabilité temporelle. / This thesis is focused on the quality assessment of online signatures and its application to online signature verification systems. Our work aims at introducing new quality measures quantifying the quality of online signatures and thus establishing automatic reliability criteria for verification systems. We proposed three quality measures involving the concept of entropy, widely used in Information Theory. We proposed a novel quality measure per person, called "Personal Entropy" calculated on a set of genuine signatures of such a person. The originality of the approach lies in the fact that the entropy of the genuine signature is computed locally, on portions of such a signature, based on local density estimation by a Hidden Markov Model. We show that our new measure includes the usual criteria of the literature, namely: signature complexity, signature variability and signature legibility. Moreover, this measure allows generating, by an unsupervised classification, 3 coherent writer categories in terms of signature variability and complexity. Confronting this measure to the performance of two widely used verification systems (HMM, DTW) on each Entropy-based category, we show that the performance degrade significantly (by a factor 2 at least) between persons of "high Entropy-based category", containing the most variable and the least complex signatures and those of "low Entropy-based category", containing the most stable and the most complex signatures. We then proposed a novel quality measure based on the concept of relative entropy (also called Kullback-Leibler distance), denoted « Personal Relative Entropy » for quantifying person's vulnerability to attacks (good forgeries). This is an original concept and few studies in the literature are dedicated to this issue. This new measure computes, for a given writer, the Kullback-Leibler distance between the local probability distributions of his/her genuine signatures and those of his/her skilled forgeries: the higher the distance, the better the writer is protected from attacks. We show that such a measure simultaneously incorporates in a single quantity the usual criteria proposed in the literature for writer categorization, namely signature complexity, signature variability, as our Personal Entropy, but also the vulnerability criterion to skilled forgeries. This measure is more appropriate to biometric systems, because it makes a good compromise between the resulting improvement of the FAR and the corresponding degradation of FRR. We also proposed a novel quality measure aiming at quantifying the quality of skilled forgeries, which is totally new in the literature. Such a measure is based on the extension of our former Personal Entropy measure to the framework of skilled forgeries: we exploit the statistical information of the target writer for measuring to what extent an impostor’s hand-draw sticks to the target probability density function. In this framework, the quality of a skilled forgery is quantified as the dissimilarity existing between the target writer’s own Personal Entropy and the entropy of the skilled forgery sample. Our experiments show that this measure allows an assessment of the quality of skilled forgeries of the main online signature databases available to the scientific community, and thus provides information about systems’ resistance to attacks. Finally, we also demonstrated the interest of using our Personal Entropy measure for improving performance of online signature verification systems in real applications. We show that Personal Entropy measure can be used to: improve the enrolment process, quantify the quality degradation of signatures due to the change of platforms, select the best reference signatures, identify the outlier signatures, and quantify the relevance of times functions parameters in the context of temporal variability.
34

Réseaux Bayésiens Dynamiques pour la Vérification du Locuteur

Sanchez-Soto, Eduardo 10 May 2005 (has links) (PDF)
Cette thèse est concernée avec la modélisation statistique du signal de parole appliqué à la vérification du locuteur (VL) en utilisant des réseaux bayésiens (RBs). L'idée principale de ce travail est d'employer les RBs comme un outil mathématique afin de combiner plusieurs sources d'information obtenues à partir du signal de parole en gardant ses relations. Elle combine de travail théorique et expérimental. Une différence fondamentale entre les systèmes de VL et les humains est la quantité et la qualité de l'information utilisée ainsi que la relation entre les sources d'information employées pour prendre des décisions. L'identité d'un locuteur est codée dans plusieurs sources d'information qui peuvent être modélisées par des RBs. La première partie de cette thèse passe en revue les modules principaux des systèmes de VL, les sources possibles d'information aussi bien que les concepts de base des modèles graphiques. La deuxième partie de cette thèse aborde le module de modélisation du système de VL proposé. On propose une nouvelle façon d'approcher les problèmes liés aux systèmes de VL. Il est décrit comment apprendre les relations d'indépendance conditionnelle parmi les variables directement à partir des données. Enfin, nous proposons une technique pour adapter les RBs basée sur certaines caractéristiques mathématiques des relations d'indépendance conditionnelles. Cette adaptation est basée sur une mesure entre les distributions de probabilité conditionnelles entre des variables discrètes, et de la même façon, sur la matrice de régression pour des variables continues. A l'issue de nos recherches, l'intérêt d'employer les RBs dans les systèmes de VL est clairement montré.
35

Modèles acoustiques à structure temporelle renforcée pour la vérification du locuteur embarquée

Larcher, Anthony 24 September 2009 (has links) (PDF)
La vérification automatique du locuteur est une tâche de classification qui vise à confirmer ou infirmer l'identité d'un individu d'après une étude des caractéristiques spécifiques de sa voix. L'intégration de systèmes de vérification du locuteur sur des appareils embarqués impose de respecter deux types de contraintes, liées à cet environnement : - les contraintes matérielles, qui limitent fortement les ressources disponibles en termes de mémoire de stockage et de puissance de calcul disponibles ; - les contraintes ergonomiques, qui limitent la durée et le nombre des sessions d'entraînement ainsi que la durée des sessions de test. En reconnaissance du locuteur, la structure temporelle du signal de parole n'est pas exploitée par les approches état-de-l'art. Nous proposons d'utiliser cette information, à travers l'utilisation de mots de passe personnels, afin de compenser le manque de données d'apprentissage et de test. Une première étude nous a permis d'évaluer l'influence de la dépendance au texte sur l'approche état-de-l'art GMM/UBM (Gaussian Mixture Model/ Universal Background Model). Nous avons montré qu'une contrainte lexicale imposée à cette approche, généralement utilisée pour la reconnaissance du locuteur indépendante du texte, permet de réduire de près de 30% (en relatif) le taux d'erreurs obtenu dans le cas où les imposteurs ne connaissent pas le mot de passe des clients. Dans ce document, nous présentons une architecture acoustique spécifique qui permet d'exploiter à moindre coût la structure temporelle des mots de passe choisis par les clients. Cette architecture hiérarchique à trois niveaux permet une spécialisation progressive des modèles acoustiques. Un modèle générique représente l'ensemble de l'espace acoustique. Chaque locuteur est représenté par une mixture de Gaussiennes qui dérive du modèle du monde générique du premier niveau. Le troisième niveau de notre architecture est formé de modèles de Markov semi-continus (SCHMM), qui permettent de modéliser la structure temporelle des mots de passe tout en intégrant l'information spécifique au locuteur, modélisée par le modèle GMM du deuxième niveau. Chaque état du modèle SCHMM d'un mot de passe est estimé, relativement au modèle indépendant du texte de ce locuteur, par adaptation des paramètres de poids des distributions Gaussiennes de ce GMM. Cette prise en compte de la structure temporelle des mots de passe permet de réduire de 60% le taux d'égales erreurs obtenu lorsque les imposteurs prononcent un énoncé différent du mot de passe des clients. Pour renforcer la modélisation de la structure temporelle des mots de passe, nous proposons d'intégrer une information issue d'un processus externe au sein de notre architecture acoustique hiérarchique. Des points de synchronisation forts, extraits du signal de parole, sont utilisés pour contraindre l'apprentissage des modèles de mots de passe durant la phase d'enrôlement. Les points de synchronisation obtenus lors de la phase de test, selon le même procédé, permettent de contraindre le décodage Viterbi utilisé, afin de faire correspondre la structure de la séquence avec celle du modèle testé. Cette approche a été évaluée sur la base de données audio-vidéo MyIdea grâce à une information issue d'un alignement phonétique. Nous avons montré que l'ajout d'une contrainte de synchronisation au sein de notre approche acoustique permet de dégrader les scores imposteurs et ainsi de diminuer le taux d'égales erreurs de 20% (en relatif) dans le cas où les imposteurs ignorent le mot de passe des clients tout en assurant des performances équivalentes à celles des approches état-de-l'art dans le cas où les imposteurs connaissent les mots de passe. L'usage de la modalité vidéo nous apparaît difficilement conciliable avec la limitation des ressources imposée par le contexte embarqué. Nous avons proposé un traitement simple du flux vidéo, respectant ces contraintes, qui n'a cependant pas permis d'extraire une information pertinente. L'usage d'une modalité supplémentaire permettrait néanmoins d'utiliser les différentes informations structurelles pour déjouer d'éventuelles impostures par play-back. Ce travail ouvre ainsi de nombreuses perspectives, relatives à l'utilisation d'information structurelle dans le cadre de la vérification du locuteur et aux approches de reconnaissance du locuteur assistée par la modalité vidéo
36

Cerbère au temps des " bio-maîtres " : la biométrie, servante-maîtresse d'une nouvelle ère biopolitique ? Le cas du programme US-VISIT

Woodtli, Patrick F. 06 1900 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
37

Contributions à la dynamique de frappe au clavier : multibiométrie, biométrie douce et mise à jour de la référence

Giot, Romain 23 October 2012 (has links) (PDF)
La dynamique de frappe au clavier est une modalité biométrique comportementale qui permet d'authentifier des individus selon leur façon de taper au clavier. Un tel système est peu coûteux, car il ne nécessite pas de matériel d'acquisition autre que le clavier de l'ordinateur, et est facilement accepté par l'utilisateur. Nous nous sommes principalement intéressé aux systèmes statiques où le texte saisit par l'utilisateur est connu à l'avance par la machine. Malheureusement, les performances de cette modalité sont plutôt médiocres en raison de la forte variabilité de la donnée biométrique. Cette variabilité est due à l'état émotionnel de la personne, l'apprentissage de la façon de taper, \ldots Nous proposons dans cette thèse différentes contributions permettant d'améliorer les performances de reconnaissance de systèmes de dynamique de frappe au clavier (DDF). Nous effectuons également une analyse des bases publiques permettant d'évaluer la performance de nouveaux systèmes de reconnaissance. Une contribution est la mise au point d'un système de DDF par mot de passe partagé. Nous étudions ensuite la fusion multibiométrique avec la dynamique de frappe au clavier et la reconnaissance faciale afin d'augmenter les performances des deux systèmes. Nous montrons, sur deux jeux de données différents, qu'il est possible de reconnaitre le genre d'un individu suivant sa façon de taper au clavier. Enfin, nous présentons une nouvelle méthode de mise à jour de la référence biométrique qui permet de prendre en compte le vieillissement de la donnée biométrique, afin de ne pas avoir une diminution des performances de reconnaissance au cours du temps.
38

Biomécanique du coude normal et après arthroplastie de tête radiale

Moungondo, Fabian 18 August 2020 (has links) (PDF)
La luxation du coude, seconde luxation en termes de fréquence (luxations à la main exclues), est souvent compliquée d’une fracture de la tête radiale, parfois comminutive et inaccessible à une ostéosynthèse. Dans le contexte de lésions ligamentaires importantes associées, la simple résection de la tête radiale se solde habituellement par une instabilité articulaire grave. Le recours à l’hémi-arthroplastie est dans ces circonstances actuellement systématique.Plusieurs types de prothèses sont disponibles mais aucune d’entre elles ne reproduit exactement l’anatomie. Les prothèses en silicone étant abandonnées, l’engouement actuel est en faveur de prothèses métalliques qui, par leur rigidité, permettent un meilleur transfert des contraintes axiales tout en restaurant la stabilité en valgus. Trois types de prothèses sont disponibles, les prothèses monobloc (un seul composant articulé avec le capitulum), les prothèses modulaires (deux composants, cupule et tige de tailles variables pour s’adapter au mieux à l’anatomie du patient), et les prothèses bi-articulées offrant également une certaine modularité et comportant une articulation entre tige et cupule permettant une meilleure adaptabilité de cette dernière au capitulum et à l’incisure radiale de l’ulna dans les différents mouvements du coude et de l’avant-bras. Appartenant à cette dernière catégorie, la prothèse de Judet présente la particularité de posséder un col angulé de 15° pour s’adapter au mieux à l’anatomie variable des patients. Les résultats à court et moyen terme de ces implants sont généralement bons mais les résultats à long terme sont encore peu documentés.Dans une hémi-arthroplastie, une bonne adaptabilité de la prothèse implique une meilleure congruence articulaire et donc un transfert des forces sur une surface plus grande, avec moins de contraintes. L’arthroplastie la plus congruente est donc celle qui, potentiellement, induit le moins d’usure du capitulum. Les prothèses monopolaires sont décrites comme plus stable mais moins congruentes que les prothèses bipolaires.Les buts de la présente étude sont d’une part d’évaluer les modifications des surfaces de contact radio-capitulaire en fonction de différentes positions de flexion du coude et de rotation de l’avant-bras sur coude intact et de les comparer à celles obtenues avec trois différents types de prothèses de tête radiale (prothèse monopolaire, prothèse bipolaire simple et prothèse bipolaire de Judet). D’autre part, le travail évalue la stabilité du coude au cours de différents mouvements de flexion du coude et de rotation de l’avant-bras avant et après ces trois différents modes d’arthroplastie de la tête radiale.Les hypothèses de départ sont que les surfaces de contact diminuent après toute arthroplastie de tête radiale, la prothèse de Judet offrant de meilleures surfaces de contact pour une stabilité moindre, la prothèse monopolaire offrant une plus grande stabilité latérale pour des surfaces de contact moindres et la prothèse bipolaire droite conférant une stabilité et des surfaces articulaires de contact intermédiaires.Pour tester ces hypothèses, 12 membres supérieurs de cadavres frais ont été utilisés. Les surfaces de contact radio-capitulaire ont été évaluées par la réalisation de moulage de l’articulation avant et après arthroplastie de la tête radiale et la stabilité du coude a été évaluée par le biais d’une analyse du mouvement rendue possible par l’utilisation d’un système optoélectronique. Cinq variables ont ainsi pu être évaluées dans les états intact, après capsulectomie antérieure (nécessaire à la réalisation des moulages), après résection de la tête radiale et après la pose de chacune des trois prothèses de tête radiale.Il a été observé que les surfaces de contact radio-capitulaire chutaient après les arthroplasties de tête radiale sans pour autant qu’il n’y ait de distinction entre ces dernières. La position de supination offrait de meilleures surfaces de contact articulaires notamment par le biais d’un contact radio-conoïdien complémentaire au contact radio-capitulaire. Les prothèses bi-articulées présentaient une subluxation latérale de leur tête radiale en position neutre et cela s’accompagnait d’une diminution des surfaces articulaires de contact. L’analyse cinématique a permis de mettre en évidence que la réalisation d’une capsulectomie antérieure augmentait la laxité du coude en varus tout comme les arthroplasties de tête radiale et que la laxité du coude en valgus était augmentée après résection de la tête radiale.La laxité rotatoire du coude, dépendante de la rotation de l’avant-bras, était également augmentée par la capsulectomie antérieure et cet effet était majoré après les prothèses bi-articulées.Les stabilités latérale et rotatoire du coude en regard de la prothèse monopolaire se rapprochaient de celles observées en regard de la tête radiale native tandis que la stabilité du coude en regard des prothèses bi-articulées était un intermédiaire entre la stabilité observée dans la situation native et celle observée en l’absence de tête radiale.Les résultats de la présente étude plaident en faveur de l’utilisation de prothèses monopolaires qui semblent offrir une meilleure stabilité du coude ainsi qu’un meilleur contact articulaire en position neutre. Les mécanismes qui sous-tendent l’instabilité des prothèses bi-articulées ne sont pas clairs et l’exploitation d’autres paramètres issus de l’analyse cinématique pourrait permettre de mieux définir ces phénomènes d’instabilité. / Doctorat en Sciences médicales (Médecine) / info:eu-repo/semantics/nonPublished
39

OCT en phase pour la reconnaissance biométrique par empreintes digitales et sa sécurisation / Phase-based Optical Coherence Tomography (OCT) for a robust and very secure fingerprint biometric recognition

Lamare, François 21 March 2016 (has links)
Dans un monde de plus en plus ouvert, les flux de personnes sont amenés à exploser dans les prochaines années. Fluidifier et contrôler ces flux, tout en respectant de fortes contraintes sécuritaires, apparaît donc comme un élément clef pour favoriser le dynamisme économique mondial. Cette gestion des flux passe principalement par la connaissance et la vérification de l’identité des personnes. Pour son aspect pratique et a priori sécurisé, la biométrie, et en particulier celle des empreintes digitales, s’est imposée comme une solution efficace, et incontournable. Néanmoins, elle souffre de deux sévères limitations. La première concerne les mauvaises performances obtenues avec des doigts détériorés. Ces détériorations peuvent être involontaires (travailleurs manuels par exemple), ou bien volontaires, à des fins d’anonymisation. La deuxième concerne les failles de sécurité des capteurs. En particulier, ils sont vulnérables à des attaques avec de fausses empreintes, réalisées par des personnes mal intentionnées dans un but d’usurpation d’identité. D’après nous, ces limitations sont dues à la faible quantité d’information exploitée par les capteurs usuels. Elle se résume souvent à une simple image de la surface du doigt. Pourtant, la complexité biologique des tissus humains est telle qu’elle offre une information très riche, unique, et difficilement reproductible. Nous avons donc proposé une approche d’imagerie, basée sur la Tomographique par Cohérence Optique, un capteur 3D sans contact, permettant de mesurer finement cette information. L’idée majeure de la thèse consiste à étudier divers moyens de l’exploiter, afin de rendre la biométrie plus robuste et vraiment sécurisée / In an increasingly open world, the flows of people are brought to explode in the coming years. Facilitating, streamlining, and managing these flows, by maintaining strict security constraints, therefore represent a key element for the global socio-economic dynamism. This flows management is mainly based on knowledge and verification of person identity. For its practicality and a priori secured, biometrics, in particular fingerprints biometrics, has become an effective and unavoidable solution.Nevertheless, it still suffers from two severe limitations. The first one concerns the poor performances obtained with damaged fingers. This damage can be involuntary (e.g. manual workers) or volunteers, for purposes of anonymity. The second limitation consists in the vulnerability of the commonly used sensors. In particular, they are vulnerable to copies of stolen fingerprints, made by malicious persons for identity theft purpose. We believe that these limitations are due to the small amount of information brought by the usual biometric sensors. It often consists in a single print of the finger surface. However, the biological complexity of human tissue provides rich information, unique to each person, and very difficult to reproduce. We therefore proposed an imaging approach based on Optical Coherence Tomography (OCT), a 3D contactless optical sensor, to finely measure this information. The main idea of the thesis is therefore to explore novel ways to exploit this information in order to make biometrics more robust and truly secured. In particular, we have proposed and evaluated different fingerprint imaging methods, based on the phase of the OCT signal
40

Cadre juridique de l'utilisation de la biométrie au Québec : sécurité et vie privée

Gauthier, Julie M. 04 1900 (has links)
La biométrie, appliquée dans un contexte de traitement automatisé des données et de reconnaissance des identités, fait partie de ces technologies nouvelles dont la complexité d’utilisation fait émerger de nouveaux enjeux et où ses effets à long terme sont incalculables. L’envergure des risques suscite des questionnements dont il est essentiel de trouver les réponses. On justifie le recours à cette technologie dans le but d’apporter plus de sécurité, mais, vient-elle vraiment apporter plus de protection dans le contexte actuel? En outre, le régime législatif québécois est-il suffisant pour encadrer tous les risques qu’elle génère? Les technologies biométriques sont flexibles en ce sens qu’elles permettent de saisir une multitude de caractéristiques biométriques et offrent aux utilisateurs plusieurs modalités de fonctionnement. Par exemple, on peut l’utiliser pour l’identification tout comme pour l’authentification. Bien que la différence entre les deux concepts puisse être difficile à saisir, nous verrons qu’ils auront des répercussions différentes sur nos droits et ne comporteront pas les mêmes risques. Par ailleurs, le droit fondamental qui sera le plus touché par l’utilisation de la biométrie sera évidemment le droit à la vie privée. Encore non bien compris, le droit à la vie privée est complexe et son application est difficile dans le contexte des nouvelles technologies. La circulation des données biométriques, la surveillance accrue, le détournement d’usage et l’usurpation d’identité figurent au tableau des risques connus de la biométrie. De plus, nous verrons que son utilisation pourra avoir des conséquences sur d’autres droits fondamentaux, selon la manière dont le système est employé. Les tests de nécessité du projet et de proportionnalité de l’atteinte à nos droits seront les éléments clés pour évaluer la conformité d’un système biométrique. Ensuite, le succès de la technologie dépendra des mesures de sécurité mises en place pour assurer la protection des données biométriques, leur intégrité et leur accès, une fois la légitimité du système établie. / Biometric technology, applied in a context of automated data processing and recognition of identity, is one of those new technologies whose complexity of use increase continuously and where the long-term effects are undefined. The risks are real and questions abound. For example, do biometrics really bring more security in the current context and is the Quebec legislative framework sufficient to regulate all the risks it generates? Biometric technology is flexible in that it enables to capture several types of biometric traits and provides users with various modalities of use. For example, it can be used for identification and authentication. Although the difference between the two modes can be difficult to understand, they have different impacts on our rights and do not involve the same risks. Among the human rights affected by the use of biometrics, the most important is the right to privacy. Still not well understood, the right to privacy is complex and difficult to apply in this new technological context. Circulation of biometric data and increased surveillance, function creep and identity theft are some examples of the known risks of biometric technologies. More, use of biometrics may also affect other fundamental rights, depending on how it is used. Proportionality and necessity tests of the project will be key in the analysis of the legal conformity. Then, the success of the technology will depend on the security measures put in place to secure biometric data once the legitimacy of the system is established.

Page generated in 0.0505 seconds