• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 17
  • 5
  • 1
  • Tagged with
  • 69
  • 20
  • 18
  • 14
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Palaeoenvironmental and palaeoceanographic changes during the Lower to Middle Jurassic ( Toarcian-Aalenian, ~183-171 Ma) : new evidences from calcareous nannofossils of the Lusitanian Basin / Changements paléoenvironnementaux et paléocéanographiques au cours de l'intervalle Toarcien-Aalénien (183-171 Ma, Jurassique inférieur-Moyen) : des nouvelles évidences issues de l'étude des nannofossiles calcaires du bassin Lusitanien

Ferreira, Jorge 04 March 2016 (has links)
Le biome marin du Toarcien inférieur a subi une des crises les plus significatives de l'histoire de la Terre, qui a affecté les mers épicontinentales du globe. Ces bassins épicontinentaux sont également caractérisés par l'accumulation de grandes quantités de matière organique dans les sédiments de l'époque, ce qui a été interprété comme le résultat d'un Evénement Anoxique au Toarcien inférieur (T-OAE, ~183 Ma). Le nannoplancton calcaire, qui fait partie des organismes le plus sensibles aux conditions environnementales des eaux océaniques de surface, a été profondément affecté par cette crise et sa récupération se mit en place seulement à la fin du Toarcien inférieur. Si le T-OAE a été étudié en grand détail ces dernières années, la période de récupération est beaucoup moins bien connue. A ce stade, nous ne savons pas, notamment, si la récupération de la production carbonatée primaire est représentée par un épisode rapide ou par une suite d'événements (qui feraient partie d'un plus long processus) intervenus sur quelques millions d'années après le T-OAE. Pendant les perturbations environnementales qui ont eu lieu au Toarcien inférieur, des fluctuations importantes du niveau marin ont été interprétées ainsi que des variations de la température des eaux océaniques. Après le T-OAE, le niveau marin et les températures montrent des changements plus graduels pendant une grande partie du Toarcien supérieur-Aalénien inférieur et les niches écologiques occupées par le nannoplancton calcaire sont ré-établies. Ces conditions de relative stabilité sur le long terme (~10 Ma) sont idéales pour étudier les dynamiques de la communauté des nannofossiles calcaires et, notamment, comment les différents taxons réorganisent leurs relations synécologiques. Le Toarcien-Aalénien est une période clé dans l'évolution du nannoplancton calcaire, avec des nouveaux genres qui apparaissent. Les nannofossiles de cet intervalle restent relativement peu étudié dans le Bassin Lusitanien, malgré l'importance de cette région d'un point de vue paléocéanographique. En effet ce bassin, qui était à l'origine un rift avorté lié à l'ouverture de l'Atlantique, a permis les connections entre des masses d'eaux de provenance NW européenne et sud-téthysienne. C'est dans cette région que nous retrouvons donc des mélanges de taxons liés à des différentes provinces géographiques / At ~183 Ma when large amounts of organic matter was dumped onto the ocean beds (known as the Toarcian Oceanic Anoxic Event, T-OAE), the Early Toarcian marine biota experienced one of the most important biological crises in Earth history. Calcareous nannoplankton was deeply affected and started only to recover from the end of the Early Toarcian. After the T-OAE, as phytoplankton communities dwelling the oceans photic layer recover from the previous disturbing conditions, the ecological niches once occupied by calcareous nannoplankton are again replenished. Located in the westernmost part of the Tethyan ocean, the Lusitanian Basin acted as a seaway between the NW Tethys and the Mediterranean Tethys provinces, therefore been actively influenced by these two different water masses. Hence such a region stands as the perfect spot to study the calcareous nannoplankton community, as its fossil remains bears species typical of both provinces. In order to appraise the nannoplankton demise and subsequent recovery, absolute and relative abundances of nannofossils were determined from pelagic marl-limestone couplets from three sections of the Lusitanian Basin. Also brachiopods shells were investigated for stable carbon and oxygen isotopes analysis. In order to independently assess the morphologic evolution of Lotharingius coccoliths, a Toarcian section from south France was studied. Different statistic methodologies were used throughout this work, in order to screen for robust and significant information from the numerous datasets that were built / Há cerca de 183 milhões de anos atrás, a biota marinha sofreu uma das mais importantes crises biológicas na história do planeta, quando grandes quantidades de matéria orgânica foram depositadas nos fundos oceânicos. Este episódio que teve lugar durante o Toarciano, resultou de um Evento Anóxico Oceânico (T-OAE), e afectou os mares epicontinentais à escala global. O nanoplâncton calcário, um grupo de organismos extremamente sensível às variações nas condições ambientais que têm lugar na camada superficial das massas de água, foi profundamente afectado. Foi somente no final do Toarciano Inferior que a sua recuperação se iniciou. Apesar de já muito se ter escrito sobre o T-OAE, a previsível recuperação deste grupo nunca foi sistemática nem detalhadamente estudada. Até hoje, não se sabia ainda se esta recuperação teria sido relativamente rápida, ou resultado de um processo lento e gradual que teria durado milhões de anos. Durante o Toarciano Inferior, quando as condições ambientais eram extremamente instáveis, ocorreram importantes e drásticas oscilações na temperatura e no nível médio dos oceanos. Após o T-OAE e durante todo o Toarciano e Aaleniano Inferior, as oscilações do nível médio dos oceanos e de temperatura são bastante mais suaves. À medida que a comunidade fitoplanctónica instalada na zona fótica recupera das condições extremas anteriores, os nichos ecológicos antes ocupados por nanoplâncton calcário, começam novamente a ser preenchidos. Apesar das prolongadas e suaves variações abióticas, é num ambiente então mais estável, que melhor se pode observar a evolução deste grupo, e de que forma as suas relações sinecológicas se alteraram ao longo de aproximadamente 10 milhões de anos. Apesar de ser considerado como um período onde a comunidade nanoplanctónica sofreu importantes alterações, nada se sabe em concreto que alterações foram essas que tiveram lugar após o TOAE num local tão estratégico como a Bacia Lusitânica. Situada na extremidade Oeste do Tétis e fazendo parte de um rift originado pela abertura do Atlântico, a Bacia Lusitânica actuou como um corredor que ligava livremente as massas de água das províncias mediterrânica e NW do Tétis, sendo por estas, activamente influenciada. Por essa razão, tal situação geográfica constitui um local excepcional para se estudar a comunidade de nanoplâncton calcário, uma vez que o seu registo fóssil compreende espécies típicas destas duas províncias do Tétis
42

Segmentation of irises acquired in degraded conditions / Segmentation d’iris acquis en conditions dégradées

Lefevre, Thierry 30 January 2013 (has links)
Les performances des systèmes de reconnaissances basés sur l'iris sont très négativement affectées par les relâchements des contraintes lors de l'acquisition des images (sujet mobile ou faiblement coopératif, image acquise loin du capteur…). L’objectif de cette thèse est de proposer une amélioration des algorithmes de segmentation traditionnels afin de pouvoir travailler dans de telles conditions. Nous avons identifié et traité quarte modules qui permettent de limiter l'impact des dégradations des images sur les performances du système de reconnaissance global : • Une localisation précise et robuste de la pupille dans l'image l'œil. Pour cela, nous avons développé une méthode qui supprime les cils et les sourcils de l'image pour faciliter la détection de la pupille. • Une segmentation précise de la texture de l'iris dans l'image. Nous avons étudié plusieurs méthodes de la littérature des Contours Actifs et comparé l'impact de ces méthodes sur les performances de reconnaissances du système complet. • Une estimation précise et robuste des contours anatomique de l'iris indépendamment des occlusions dans l'image. Pour cela, nous avons dérivé les équations des Contours Actifs explicitement pour des cercles et des ellipses. Nous avons par ailleurs proposé une méthodologie efficace pour rendre la détection moins sensible aux minimas locaux. • Une méthode de détection des erreurs de segmentation. Il est en effet important de pouvoir avertir le système de reconnaissance global qu'une erreur s’est produite. Pour cela nous avons développé plusieurs critères d'évaluation de la qualité de segmentation. Nous avons ensuite fusionnés ces mesures en utilisant un algorithme de type <<Support Vector Regression>> (SVR) pour former une mesure de qualité globale évaluant la qualité de la segmentation / This thesis is focused on the development of robust segmentation algorithms for iris recognition systems working in degraded acquisition conditions. In controlled acquisition scenarios, iris segmentation is well handled by simple segmentation schemes, which modeled the iris borders by circles and assumed that the iris can only be occluded by eyelids. However, such simple models tend to fail when the iris is strongly occluded or off-angle, or when the iris borders are not sharp enough. In this thesis, we propose a complete segmentation system working efficiently despite the above-mentioned degradations of the input data. After a study of the recent state of the art in iris recognition, we identified four key issues that an iris segmentation system should handle when being confronted to images of poor quality, leading this way to four key modules for the complete system: • The system should be able locate the pupil in the image in order to initialize more complex algorithms. To address this problem, we propose an original and effective way to first segment dark elements in the image that can lead to mistakes of the pupil localization process. This rough segmentation detects high frequency areas of the image and then the system uses the pupil homogeneity as a criterion to identify the pupil area among other dark regions of the image. • Accurate segmentation of the iris texture in the eye image is a core task of iris segmentation systems. We propose to segment the iris texture by Active Contours because they meet both the requirement in robustness and accuracy required to perform segmentation on large databases of degraded images. We studied several Active Contours that varies in speed, robustness, accuracy and in the features they use to model the iris region. We make a comparative evaluation of the algorithms’ influence on the system performance. • A complete segmentation system must also accurately estimate the iris shape in occluded regions, in order to format the iris texture for recognition. We propose a robust and accurate scheme based on a variational formulation to fit an elliptic model on the iris borders. We explicitly derive evolution equations for ellipses using the Active Contours formalism. We also propose an effective way to limit the sensitivity of this process to initial conditions. This part of our work is currently under review for final acceptance in the international journal Computer Vision and Image Understanding (CVIU). • Finally, we address the main issue of automatic detection of segmentation failures of the system. Few works in the literature address measuring the quality of a segmentation algorithm, critical task for an operational system. We propose in this thesis a set of novel quality measures for segmentation and show a correlation between each of them with the intrinsic recognition performance of the segmented images. We perform fusion of the individual quality measures via a Support Vector Regression (SVR) algorithm, in order to propose a more robust global segmentation quality score
43

Système de sécurité biométrique multimodal par imagerie, dédié au contrôle d’accès / Multimodal biometric security system based on vision, dedicated to access control

Bonazza, Pierre 21 June 2019 (has links)
Les travaux de recherche de cette thèse consistent à mettre en place des solutions performantes et légères permettant de répondre aux problèmes de sécurisation de produits sensibles. Motivé par une collaboration avec différents acteurs au sein du projet Nuc-Track,le développement d'un système de sécurité biométrique, possiblement multimodal, mènera à une étude sur différentes caractéristiques biométriques telles que le visage, les empreintes digitales et le réseau vasculaire. Cette thèse sera axée sur une adéquation algorithme et architecture, dans le but de minimiser la taille de stockage des modèles d'apprentissages tout en garantissant des performances optimales. Cela permettra leur stockage sur un support personnel, respectant ainsi les normes de vie privée. / Research of this thesis consists in setting up efficient and light solutions to answer the problems of securing sensitive products. Motivated by a collaboration with various stakeholders within the Nuc-Track project, the development of a biometric security system, possibly multimodal, will lead to a study on various biometric features such as the face, fingerprints and the vascular network. This thesis will focus on an algorithm and architecture matching, with the aim of minimizing the storage size of the learning models while guaranteeing optimal performances. This will allow it to be stored on a personal support, thus respecting privacy standards.
44

Le destin des formalismes : à propos de la forme des plantes - Pratiques et épistémologies des modèles face à l'ordinateur

Varenne, Franck 29 November 2004 (has links) (PDF)
Après les « lois mathématiques » (19ème siècle) et les « modèles mathématiques » (années 1930), les sciences dites « non-exactes » recourent aux simulations numériques (années 1950) puis informatiques (années 1970). À cela, plusieurs raisons : la complexité des objets, l'évolution de la référence que représente la physique avec ses nouveaux formalismes, l'évolution conjointe des techniques de calcul (matérielles et formelles), enfin l'émergence de l'ordinateur et des langages évolués. Or, la modélisation puis la simulation imposèrent des réévaluations du rôle épistémique dévolu aux formalismes depuis la mécanique rationnelle. Pour livrer un pan d'histoire des sciences et des techniques de modélisation, une histoire intégrative et compréhensive est nécessaire. Avec cet angle de vue, sensible aux philosophies de l'époque, aux ontologies des acteurs, comme aux contraintes techniques des formalismes, des instruments et des institutions, on peut voir trois grandes époques dans le destin récent des formalisations des plantes : un déracinement par rapport à la classique supposition d'un fondement dans le réel des lois mathématiques (1922-1937) ; une dispersion des formalismes et une expansion des modèles théoriques et pragmatiques (1938-1967) ; enfin une convergence des formalismes et des axiomatiques autour des infrastructures informatiques pluriformalisées (à partir de 1967). Notre thèse historique et épistémologique est celle-ci : l'ordinateur, après avoir amplifié la dispersion des formalismes, tend à la neutraliser en offrant un nouveau terrain d'expérimentation. Le rejet des représentations fidèles (iconoclasme) des actuelles épistémologies est à rectifier en profondeur.
45

Decision Fusion in Identity Verification using Facial Images

Czyz, Jacek 12 December 2003 (has links)
Automatic verification of personal identity using facial images is the central topic of the thesis. This problem can be stated as follows. Given two face images, it must be determined automatically whether they are images of the same person or of different persons. Due to many factors such as variability of facial appearance, sensitivity to noise, template aging, etc., the problem is difficult. We can overcome some of these difficulties by combining different information sources for the classification/recognition task. In this thesis we propose strategies on how to combine the different information sources, i.e. fusion strategies, in order to improve the verification accuracy. We have designed and thoroughly optimised a number of face verification algorithms. Their individual properties such as how their accuracy depends on algorithm parameters, image size, or sensitivity to mis-registrations have been studied. We have also studied how to combine the outputs of the different algorithms in order to reduce the verification error rates. Another decision fusion aspect considered in this thesis is the fusion of confidences obtained sequentially on several video frames of the same person's face. Finally multimodal fusion has been studied. In this case, the speech and face of the same subject are recorded and processed by different algorithms which output separate opinions. These two opinions are then conciliated at the fusion stage. It is shown that in all cases, information fusion allows a considerable performance improvement if the fusion stage is carefully designed.
46

Parole de locuteur : performance et confiance en identification biométrique vocale

Kahn, Juliette 19 December 2011 (has links) (PDF)
Ce travail de thèse explore l'usage biométrique de la parole dont les applications sont très nombreuses (sécurité, environnements intelligents, criminalistique, surveillance du territoire ou authentification de transactions électroniques). La parole est soumise à de nombreuses contraintes fonction des origines du locuteur (géographique, sociale et culturelle) mais également fonction de ses objectifs performatifs. Le locuteur peut être considéré comme un facteur de variation de la parole, parmi d'autres. Dans ce travail, nous présentons des éléments de réponses aux deux questions suivantes :- Tous les extraits de parole d'un même locuteur sont-ils équivalents pour le reconnaître ?- Comment se structurent les différentes sources de variation qui véhiculent directement ou indirectement la spécificité du locuteur ? Nous construisons, dans un premier temps, un protocole pour évaluer la capacité humaine à discriminer un locuteur à partir d'un extrait de parole en utilisant les données de la campagne NIST-HASR 2010. La tâche ainsi posée est difficile pour nos auditeurs, qu'ils soient naïfs ou plus expérimentés.Dans ce cadre, nous montrons que ni la (quasi)unanimité des auditeurs ni l'auto-évaluation de leurs jugements ne sont des gages de confiance dans la véracité de la réponse soumise.Nous quantifions, dans un second temps, l'influence du choix d'un extrait de parole sur la performance des systèmes automatiques. Nous avons utilisé deux bases de données, NIST et BREF ainsi que deux systèmes de RAL, ALIZE/SpkDet (LIA) et Idento (SRI). Les systèmes de RAL, aussi bienfondés sur une approche UBM-GMM que sur une approche i-vector montrent des écarts de performances importants mesurés à l'aide d'un taux de variation autour de l'EER moyen, Vr (pour NIST, VrIdento = 1.41 et VrALIZE/SpkDet = 1.47 et pour BREF, Vr = 3.11) selon le choix du fichier d'apprentissage utilisé pour chaque locuteur. Ces variations de performance, très importantes, montrent la sensibilité des systèmes automatiques au choix des extraits de parole, sensibilité qu'il est important de mesurer et de réduire pour rendre les systèmes de RAL plus fiables.Afin d'expliquer l'importance du choix des extraits de parole, nous cherchons les indices les plus pertinents pour distinguer les locuteurs de nos corpus en mesurant l'effet du facteur Locuteur sur la variance des indices (h2). La F0 est fortement dépendante du facteur Locuteur, et ce indépendamment de la voyelle. Certains phonèmes sont plus discriminants pour le locuteur : les consonnes nasales, les fricatives, les voyelles nasales, voyelles orales mi-fermées à ouvertes.Ce travail constitue un premier pas vers une étude plus précise de ce qu'est le locuteur aussi bien pour la perception humaine que pour les systèmes automatiques. Si nous avons montré qu'il existait bien une différence cepstrale qui conduisait à des modèles plus ou moins performants, il reste encore à comprendre comment lier le locuteur à la production de la parole. Enfin, suite à ces travaux, nous souhaitons explorer plus en détail l'influence de la langue sur la reconnaissance du locuteur. En effet, même si nos résultats indiquent qu'en anglais américain et en français, les mêmes catégories de phonèmes sont les plus porteuses d'information sur le locuteur, il reste à confirmer ce point et à évaluer ce qu'il en est pour d'autres langues
47

Modèles acoustiques à structure temporelle renforcée pour la vérification du locuteur embarquée / Reinforced temporal structure of acoustic models for speaker recognition

Larcher, Anthony 24 September 2009 (has links)
La vérification automatique du locuteur est une tâche de classification qui vise à confirmer ou infirmer l’identité d’un individu d’après une étude des caractéristiques spécifiques de sa voix. L’intégration de systèmes de vérification du locuteur sur des appareils embarqués impose de respecter deux types de contraintes, liées à cet environnement : – les contraintes matérielles, qui limitent fortement les ressources disponibles en termes de mémoire de stockage et de puissance de calcul disponibles ; – les contraintes ergonomiques, qui limitent la durée et le nombre des sessions d’entraînement ainsi que la durée des sessions de test. En reconnaissance du locuteur, la structure temporelle du signal de parole n’est pas exploitée par les approches état-de-l’art. Nous proposons d’utiliser cette information, à travers l’utilisation de mots de passe personnels, afin de compenser le manque de données d’apprentissage et de test. Une première étude nous a permis d’évaluer l’influence de la dépendance au texte sur l’approche état-de-l’art GMM/UBM (Gaussian Mixture Model/ Universal Background Model). Nous avons montré qu’une contrainte lexicale imposée à cette approche, généralement utilisée pour la reconnaissance du locuteur indépendante du texte, permet de réduire de près de 30% (en relatif) le taux d’erreurs obtenu dans le cas où les imposteurs ne connaissent pas le mot de passe des clients. Dans ce document, nous présentons une architecture acoustique spécifique qui permet d’exploiter à moindre coût la structure temporelle des mots de passe choisis par les clients. Cette architecture hiérarchique à trois niveaux permet une spécialisation progressive des modèles acoustiques. Un modèle générique représente l’ensemble de l’espace acoustique. Chaque locuteur est représenté par une mixture de Gaussiennes qui dérive du modèle du monde générique du premier niveau. Le troisième niveau de notre architecture est formé de modèles de Markov semi-continus (SCHMM), qui permettent de modéliser la structure temporelle des mots de passe tout en intégrant l’information spécifique au locuteur, modélisée par le modèle GMM du deuxième niveau. Chaque état du modèle SCHMM d’un mot de passe est estimé, relativement au modèle indépendant du texte de ce locuteur, par adaptation des paramètres de poids des distributions Gaussiennes de ce GMM. Cette prise en compte de la structure temporelle des mots de passe permet de réduire de 60% le taux d’égales erreurs obtenu lorsque les imposteurs prononcent un énoncé différent du mot de passe des clients. Pour renforcer la modélisation de la structure temporelle des mots de passe, nous proposons d’intégrer une information issue d’un processus externe au sein de notre architecture acoustique hiérarchique. Des points de synchronisation forts, extraits du signal de parole, sont utilisés pour contraindre l’apprentissage des modèles de mots de passe durant la phase d’enrôlement. Les points de synchronisation obtenus lors de la phase de test, selon le même procédé, permettent de contraindre le décodage Viterbi utilisé, afin de faire correspondre la structure de la séquence avec celle du modèle testé. Cette approche a été évaluée sur la base de données audio-vidéo MyIdea grâce à une information issue d’un alignement phonétique. Nous avons montré que l’ajout d’une contrainte de synchronisation au sein de notre approche acoustique permet de dégrader les scores imposteurs et ainsi de diminuer le taux d’égales erreurs de 20% (en relatif) dans le cas où les imposteurs ignorent le mot de passe des clients tout en assurant des performances équivalentes à celles des approches état-de-l’art dans le cas où les imposteurs connaissent les mots de passe. L’usage de la modalité vidéo nous apparaît difficilement conciliable avec la limitation des ressources imposée par le contexte embarqué. Nous avons proposé un traitement simple du flux vidéo, respectant ces contraintes, qui n’a cependant pas permis d’extraire une information pertinente. L’usage d’une modalité supplémentaire permettrait néanmoins d’utiliser les différentes informations structurelles pour déjouer d’éventuelles impostures par play-back. Ce travail ouvre ainsi de nombreuses perspectives, relatives à l’utilisation d’information structurelle dans le cadre de la vérification du locuteur et aux approches de reconnaissance du locuteur assistée par la modalité vidéo / SPEAKER verification aims to validate or invalidate identity of a person by using his/her speech characteristics. Integration of an automatic speaker verification engine on embedded devices has to respect two types of constraint, namely : – limited material resources such as memory and computational power ; – limited speech, both training and test sequences. Current state-of-the-art systems do not take advantage of the temporal structure of speech. We propose to use this information through a user-customised framework, in order to compensate for the short duration speech signals that are common in the given scenario. A preliminary study allows us to evaluate the influence of text-dependency on the state-of-the-art GMM/UBM (Gaussian Mixture Model / Universal Background Model) approach. By constraining this approach, usually dedicated to text-independent speaker recognition, we show that a lexical constraint allows a relative reduction of 30% in error rate when impostors do not know the client password. We introduce a specific acoustic architecture which takes advantage of the temporal structure of speech through a low cost user-customised password framework. This three stage hierarchical architecture allows a layered specialization of the acoustic models. The upper layer, which is a classical UBM, aims to model the general acoustic space. The middle layer contains the text-independent specific characteristics of each speaker. These text-independent speaker models are obtained by a classical GMM/UBM adaptation. The previous text-independent speaker model is used to obtain a left-right Semi-Continuous Hidden Markov Model (SCHMM) with the goal of harnessing the Temporal Structure Information (TSI) of the utterance chosen by the given speaker. This TSI is shown to reduce the error rate by 60% when impostors do not know the client password. In order to reinforce the temporal structure of speech, we propose a new approach for speaker verification. The speech modality is reinforced by additional temporal information. Synchronisation points extracted from an additional process are used to constrain the acoustic decoding. Such an additional modality could be used in order to add different structural information and to thwart impostor attacks such as playback. Thanks to the specific aspects of our system, this aided-decoding shows an acceptable level of complexity. In order to reinforce the relaxed synchronisation between states and frames due to the SCHMM structure of the TSI modelling, we propose to embed an external information during the audio decoding by adding further time-constraints. This information is here labelled external to reflect that it is aimed to come from an independent process. Experiments were performed on the BIOMET part of the MyIdea database by using an external information gathered from an automatic phonetical alignment. We show that adding a synchronisation constraint to our acoustic approach allows to reduce impostor scores and to decrease the error rate from 20% when impostor do not know the client password. In others conditions, when impostors know the passwords, the performance remains similar to the original baseline. The extraction of the synchronisation constraint from a video stream seems difficult to accommodate with embedded limited resources. We proposed a first exploration of the use of a video stream in order to constrain the acoustic process. This simple video processing did not allow us to extract any pertinent information
48

Les nouvelles technologies et la lutte contre la délinquance : regards croisés France/Royaume Uni / New technologies and fight against crime : comparative views France/United Kingdom

Jean-Meire, Caroline 11 March 2016 (has links)
Les possibilités aujourd'hui offertes par les progrès techniques dans le cadre de la lutte contre la délinquance sont loin d'être négligeables. les "nouvelles technologies" désignent moins une réalité tangible que l'expression d'un phénomène, celui de l'accélération contemporaine du progrès scientifique et technique et la démocratisation de son utilisation notamment dans le cadre de la procédure pénale. L'étude de l'utilisation des nouvelles technologies dans la procédure pénale démontre que, nonobstant leur présence plus importante au Royaume-Uni, les philosophies guidant cette introduction dans les deux États sont similaires, de même que, parallélisme des formes oblige, similaires en sont les dérives. elles sont devenues l'outil par excellence de la politique sécuritaire mis en œuvre depuis les années 2000. Les droits fondamentaux étant au cœur de la réflexion en matière de procédure pénale, leur confrontation avec les nouvelles technologies est indispensable. Dans cette perspective il nous a semblé opportun de replacer la question de la dignité de la personne humaine au centre des débats concernant l'utilisation des nouvelles technologies dans la lutte contre la délinquance. Ce droit qui irrigue l'ensemble des autres droits fondamentaux peut être utilisé comme ligne directrice pour déterminer quelles dérogations sont acceptables. Néanmoins en tant que principe matriciel et absolu, il convient d'en, définir le contenu et de ne l'utiliser que subsidiairement. Cette thèse s'inscrit dans un combat actuel, celui de la défense de la liberté contre ceux qui voudrait placer la sécurité au premier rang ; au premier rang de nos vies comme au premier rang des droits fondamentaux. / The possibilities now offered by the technological advances in the fight against crime are far from negligible. "New technologies" means less a reality than the expression of a phenomenom, that of a contemporary acceleration of scientific and technical progress and democratization of its use especially in relation to criminal proceedings. The study of the use of new technologies in criminal proceedings shows that, notwithstanding their increased presence in the UK, philosophies guiding this introduction in the two States are similar, and following the principle of congruent forms, similar are the drifts. They have become the optimal tool of the security policy implemented since the 2000s. Fundamental rights are central in the reflection on criminal procedure ; their confrontation with the new technologies is essential. In This context it seemed appropriate to put the issue of the dignity of the human being at the heart of the debates concerning the use of new technologies in the fight against crime. This right that irrigates all the other fundamental right can be used as guideline to determine which derogations are acceptable. Nevertheless as a matrix and absolute principle, it is necessary to define it and use it only as a subsidiary safeguard.
49

Les processus métiers en tant que services - BPaaS : sécurisation des données et des services / Business process as a service - BPaaS : securing data and services

Bentounsi, Mohamed el Mehdi 14 September 2015 (has links)
Malgré les avantages économiques de l’informatique en nuage (ou cloud computing) pour les entreprises et ses multiples applications envisagées, il subsiste encore des obstacles pour son adoption à grande échelle. La sécurité des données sauvegardées et traitées dans le nuage arrive en tête des préoccupations des décideurs des directions des systèmes d'information. De ce fait, l'objectif principal de nos travaux de recherche lors de cette thèse de doctorat est de poser des bases solides pour une utilisation sûre et sécurisée du nuage. Dans un premier lieu, l’externalisation des processus métiers vers le nuage permet aux entreprises de réduire les couts d’investissement et de maitriser les couts d’exploitation de leurs systèmes d’information ; Elle permet aussi de promouvoir la réutilisation des parties (ou fragments) de ses processus métiers en tant que service cloud, éventuellement par des concurrents directs, afin de faciliter le développement de nouvelles applications orientés services ‘SOA’, ainsi la collaboration à l’échelle du nuage. Néanmoins, le fait de révéler la provenance d’un fragment réutilisé est considérée comme une brèche dans la vie privée et risque d’être dommageable pour l’entreprise propriétaire de ce fragment. Les techniques d’anonymisation des données ont fait leurs preuves dans le domaine des bases de données. Notre principale contribution dans cette partie est la proposition d’un protocole basée sur l’anonymisation des fragments de processus métiers afin de garantir à la fois, la vie privée de leurs propriétaires et la disponibilité de ces fragments pouvant être réutilisés dans le nuage. Les systèmes d’authentification biométriques permettent une authentification des individus avec une garantit suffisante. Néanmoins, le besoin en ressources informatiques ‘calcul et stockage’ de ces systèmes et le manque de compétences au sein des organismes freinent considérablement leurs utilisations à grande échelle. Le nuage offre la possibilité d’externaliser à la fois le calcul et le stockage des données biométriques à moindre cout et de proposer une authentification biométrique en tant que service. Aussi, l’élasticité du nuage permet de répondre aux pics des demandes d’authentifications aux heures de pointes. Cependant, des problèmes de sécurité et de confidentialité des données biométriques sensibles se posent, et par conséquent doivent être traité afin de convaincre les institutions et organismes à utiliser des fragments externes d'authentification biométriques dans leurs processus métiers. Notre principale contribution dans cette partie est un protocole léger ‘coté client’ pour une externalisation (sur un server distant) de la comparaison des données biométriques sans révéler des informations qui faciliteraient une usurpation d’identité par des adversaires. Le protocole utilise une cryptographie légère basée sur des algorithmes de hachage et la méthode de 'groupe de tests combinatoires', permettant une comparaison approximative entre deux données biométriques. Dans la dernière partie, nous avons proposé un protocole sécurisé permettant la mutualisation d’un Hyperviseur (Outil permettant la corrélation et la gestion des événements issus du SI) hébergé dans le nuage entre plusieurs utilisateurs. La solution proposée utilise à la fois, le chiffrement homomorphique et la réécriture de règles de corrélation afin de garantir la confidentialité les évènements provenant des SI des différents utilisateurs. Cette thèse a été réalisée à l'Université Paris Descartes (groupe de recherche diNo du LIPADE) avec le soutien de la société SOMONE et l'ANRT dans le cadre d'une convention CIFRE. / Cloud computing has become one of the fastest growing segments of the IT industry. In such open distributed computing environments, security is of paramount concern. This thesis aims at developing protocols and techniques for private and reliable outsourcing of design and compute-intensive tasks on cloud computing infrastructures. The thesis enables clients with limited processing capabilities to use the dynamic, cost-effective and powerful cloud computing resources, while having guarantees that their confidential data and services, and the results of their computations, will not be compromised by untrusted cloud service providers. The thesis contributes to the general area of cloud computing security by working in three directions. First, the design by selection is a new capability that permits the design of business processes by reusing some fragments in the cloud. For this purpose, we propose an anonymization-based protocol to secure the design of business processes by hiding the provenance of reused fragments. Second, we study two di_erent cases of fragments' sharing : biometric authentication and complex event processing. For this purpose, we propose techniques where the client would only do work which is linear in the size of its inputs, and the cloud bears all of the super-linear computational burden. Moreover, the cloud computational burden would have the same time complexity as the best known solution to the problem being outsourced. This prevents achieving secure outsourcing by placing a huge additional overhead on the cloud servers. This thesis has been carried out in Université Paris Descartes (LIPADE - diNo research group) and in collaboration with SOMONE under a Cifre contract. The convergence of the research fields of those teams led to the development of this manuscrit.
50

Efficient speaker diarization and low-latency speaker spotting / Segmentation et regroupement efficaces en locuteurs et détection des locuteurs à faible latence

Patino Villar, José María 24 October 2019 (has links)
La segmentation et le regroupement en locuteurs (SRL) impliquent la détection des locuteurs dans un flux audio et les intervalles pendant lesquels chaque locuteur est actif, c'est-à-dire la détermination de ‘qui parle quand’. La première partie des travaux présentés dans cette thèse exploite une approche de modélisation du locuteur utilisant des clés binaires (BKs) comme solution à la SRL. La modélisation BK est efficace et fonctionne sans données d'entraînement externes, car elle utilise uniquement des données de test. Les contributions présentées incluent l'extraction des BKs basée sur l'analyse spectrale multi-résolution, la détection explicite des changements de locuteurs utilisant les BKs, ainsi que les techniques de fusion SRL qui combinent les avantages des BKs et des solutions basées sur un apprentissage approfondi. La tâche de la SRL est étroitement liée à celle de la reconnaissance ou de la détection du locuteur, qui consiste à comparer deux segments de parole et à déterminer s'ils ont été prononcés par le même locuteur ou non. Même si de nombreuses applications pratiques nécessitent leur combinaison, les deux tâches sont traditionnellement exécutées indépendamment l'une de l'autre. La deuxième partie de cette thèse porte sur une application où les solutions de SRL et de reconnaissance des locuteurs sont réunies. La nouvelle tâche, appelée détection de locuteurs à faible latence, consiste à détecter rapidement les locuteurs connus dans des flux audio à locuteurs multiples. Il s'agit de repenser la SRL en ligne et la manière dont les sous-systèmes de SRL et de détection devraient être combinés au mieux. / Speaker diarization (SD) involves the detection of speakers within an audio stream and the intervals during which each speaker is active, i.e. the determination of ‘who spoken when’. The first part of the work presented in this thesis exploits an approach to speaker modelling involving binary keys (BKs) as a solution to SD. BK modelling is efficient and operates without external training data, as it operates using test data alone. The presented contributions include the extraction of BKs based on multi-resolution spectral analysis, the explicit detection of speaker changes using BKs, as well as SD fusion techniques that combine the benefits of both BK and deep learning based solutions. The SD task is closely linked to that of speaker recognition or detection, which involves the comparison of two speech segments and the determination of whether or not they were uttered by the same speaker. Even if many practical applications require their combination, the two tasks are traditionally tackled independently from each other. The second part of this thesis considers an application where SD and speaker recognition solutions are brought together. The new task, coined low latency speaker spotting (LLSS), involves the rapid detection of known speakers within multi-speaker audio streams. It involves the re-thinking of online diarization and the manner by which diarization and detection sub-systems should best be combined.

Page generated in 0.0662 seconds