• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2447
  • 1618
  • 1255
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5650
  • 3140
  • 3002
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 620
  • 597
  • 486
  • 476
  • 457
  • 453
  • 438
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
761

Attaque de divulgation d'attributs basée sur une attaque d'appartenance par inférence : technique des modèles fantômes

Mbodj, Mamadou 01 December 2023 (has links)
Titre de l'écran-titre (visionné le 28 novembre 2023) / Ce mémoire traite de la problématique liée à la confidentialité des données, particulièrement des risques de divulgations de données utilisées pour entraîner un modèle d'apprentissage statistique. En effet, face aux contraintes liées à la protection des données personnelles, plusieurs techniques sont proposées et utilisées par les chercheurs et organisations afin de parvenir à avoir des résultats de modèles sans violer la vie privée des individus sur lesquelles ces modèles sont entraînés. Nous prenons l'exemple de l'outil DataSHIELD qui offre la possibilité de sortir des résultats, jugés sécuritaires après être passés par un ensemble de contrôles, sans donner accès aux micro-données. Cependant, ces outils de contrôle du risque de divulgation de la vie privée restent encore vulnérables face aux attaques d'individus malintentionnés. Nous proposons dans ce mémoire des algorithmes d'attaque d'attributs qui, à partir des résultats d'un modèle, permettent de découvrir des informations précises et souvent sensibles sur les individus qui ont été utilisés pour entraîner le modèle. Certains de ces algorithmes d'attaque d'attributs sont basés sur des modèles d'attaques d'appartenance par inférence avec la méthode des modèles fantômes proposées par Shokri et al. (2017). Ce type d'algorithme a déjà été proposé dans la littérature par Zhao et al. (2021). Mais les auteurs ne sont pas arrivés à en démontrer l'efficacité car ils ont obtenu une faible différence en comparant le taux de succès de l'attaque observé sur les données membres et celui observé sur les données non membres. D'autres de nos algorithmes sont basés sur les modèles d'attaque d'appartenance précités et sur des méthodes d'imputations multivariées par équations chaînées (méthode MICE). Nous considérons cette méthode comme une façon dont un adversaire peut procéder pour faire une attaque d'attributs en passant par l'imputation MICE et une attaque d'appartenance avec modèles fantômes ; et nous l'appelons « MICE avec modèles fantômes ». Cette méthode est une contribution nouvelle que nous proposons et qui se trouve d'ailleurs être plus efficace que la première en évaluant le taux de succès. En fait, nous avons testé ces algorithmes sur deux jeux de données (« adult » et « Texas-100X ») et les résultats obtenus ont démontré, d'une part, leur efficacité à divulguer des informations sur les individus ciblés et, d'autre part, que la méthode utilisant l'imputation est plus efficace à découvrir la bonne information car celle-ci a eu des taux de succès plus élevés. / This document addresses the issue of data confidentiality, particularly the risks of disclosure of data used to train a statistical learning model. In fact, faced with the constraints of data protection, several techniques have been proposed and used by researchers and organizations to obtain model results without violating the privacy of the individuals on whom these models are trained. We take the example of the DataSHIELD tool, which offers the possibility of outputting results judged to be safe after passing through a set of controls, without giving access to the micro-data. However, these tools for controlling the risk of privacy disclosure are still vulnerable to attacks by malicious individuals. In this thesis, we propose attribute attack algorithms which, based on the results of a model, can uncover precise and often sensitive information about the individuals who were used to train the model. Some of these attribute attack algorithms are based on inference-based membership attack models with the shadow model method proposed by Shokri et al. (2017). This type of algorithm has already been proposed in the literature by Zhao et al (2021). However, the authors were unable to demonstrate its effectiveness because they obtained a small difference between the attack success rate observed on member data and that observed on non-member data. Other of our algorithms are based on the above membership attack models and on multivariate imputation methods using chained equations (MICE method). We regard this method as a way for an adversary to carry out an attribute attack via MICE imputation and a membership attack with shadow models; and we call it "MICE with shadow models". This method is a new contribution that we propose, and one that is more effective than the first in terms of success rate. In fact, we tested these algorithms on two datasets ("adult" and "Texas-100X") and the results obtained demonstrated, firstly, their effectiveness in disclosing information about the targeted individuals and, secondly, that the method using imputation was more effective in discovering the right information, as it had higher success rates.
762

Mécanisme de contrôle du flot d'information dans un programme : approche par typage trivalué

Kanyabwero, Erwanne Paméla 19 April 2018 (has links)
Ce mémoire présente un mécanisme d’application de politiques de sécurité grâce à une analyse de types trivaluée sur un langage impératif. Notre analyse a pour but de réduire les faux positifs générés par l’analyse statique, tout en préparant les programmes analysés à être instrumentés. Les faux positifs se produisent dans l’analyse de systèmes informatiques à temps réel quand il manque de l’information au moment de la compilation, par exemple un nom de fichier, et par conséquent, son niveau de sécurité. Notre approche visant à répondre à la question « Y a-t’il violation de la propriété de non-interférence dans le programme ? », l’idée clé est de distinguer les réponses négatives des réponses incertaines. Au lieu de rejeter le programme systématiquement en cas d’incertitude, nous typons les instructions avec un type additionnel, unknown, indiquant l’incertitude. Notre travail est fait en préparation à un mécanisme d’application hybride, combinant l’analyse statique par l’analyse de types et l’analyse dynamique par l’instrumentation de code. Durant l’étape d’analyse statique, les réponses positives et négatives sont traitées de manière standard, tandis que les réponses incertaines sont clairement annotées du type incertain, préparant ainsi pour un éventuel passage à la deuxième étape : l’instrumentation. Une preuve que notre système de types est cohérent est donnée, ceci en montrant qu’il satisfait la non-interférence. Les programmes interagissent à travers les canaux de communication. Notre contribution réside dans la manipulation de trois types de sécurité, mais aussi dans le traitement des variables et canaux de communication de manière particulière. Les niveaux de sécurité sont associés aux canaux plutôt qu’aux variables dont les niveaux de sécurité varient selon l’information qu’elles contiennent.
763

Analyse et expérimentations des méthodes de création de deepfake dans le domaine géospatial et conception d'une méthode de détection adaptée

Meo, Valentin 20 November 2023 (has links)
Titre de l'écran-titre (visionné le 13 novembre 2023) / Du fait de leur danger, les deepfakes (ou hypertrucage en français) sont devenus un sujet de société. Cependant, aucune étude conséquente n'a été réalisée sur les deepfakes appliqués au domaine géospatial : l'hypertrucage géospatial. Ce travail commence par faire un état de l'art des technologies génératives permettant la modification partielle d'images, aussi appelées techniques d'« inpainting » en anglais. Grâce à celles-ci, il nous a été possible de concevoir des deepfakes d'imagerie aérienne d'une grande qualité. Afin de tester leur robustesse, des techniques de détection de falsification classiques ont été testées. Ces méthodes se sont révélées utiles mais pas suffisantes. Une méthode originale de détection spécialement adaptée aux particularités des images géospatiales a donc finalement été proposée. Les résultats très satisfaisants obtenus avec cette méthode, permettent de montrer que le contrôle de l'information n'est pas la seule solution au problème de la désinformation. Ce travail pourrait ainsi être utilisé par un public large allant des agences de renseignement, journalistes ou citoyens concernés soucieux de détecter les falsifications provenant de différentes entités.
764

Méthodes d'apprentissage automatique pour l'étude et la conservation de la faune sauvage

Villeneuve, Catherine 09 May 2024 (has links)
Les technologies pertinentes à l'étude et à la conservation de la faune sauvage ont connu des progrès fulgurants dans les dernières décennies. Les dispositifs tels que les systèmes de positionnement global, les satellites ou encore les pièges photographiques permettent d'étudier l'écologie animale à des échelles jusqu'alors inespérées, et facilitent la transformation des connaissances en des mesures concrètes de conservation. Les méthodes d'analyse et de modélisation utilisées dans ces contextes n'ont toutefois pas évolué au même rythme que les données ont pu gagner en complexité et en granularité. Ce mémoire s'intéresse à l'exploration du potentiel applicatif de l'apprentissage automatique pour répondre à cet enjeu, notamment dans les domaines de l'écologie des populations, de l'écologie du mouvement et de l'écologie du comportement. Dans un premier lieu, un pipeline à base d'apprentissage automatique combinant apprentissage profond, approximation de fonctions, algorithmes de regroupement et connaissances d'experts est proposé afin d'inférer, à partir d'une seule image satellite, la population d'oies des neiges, de harfangs des neiges et de lemmings de l'île Bylot (Nunavut). Par la suite, des protocoles novateurs permettant d'évaluer et de calibrer des modèles de mouvement animal, incluant ceux basés sur des algorithmes d'apprentissage automatique, sont introduits. Ces derniers reposent sur de nouvelles métriques basées sur la théorie du transport optimal, une branche des mathématiques appliquées. La pertinence des protocoles introduits est notamment révélée à travers une étude à large échelle comparant divers modèles de mouvement du renard arctique. Enfin, une méthodologie en mesure d'identifier automatiquement des comportements clés de l'éléphant d'Afrique est présentée. Cette méthodologie, combinant l'apprentissage automatique à la science des réseaux, tire profit des patrons géométriques associés aux comportements d'intérêt afin d'être en mesure d'apprendre à partir de peu de données, et de pouvoir être calibrée et déployée dans des environnements où les ressources matérielles sont très limitées. / Technologies relevant to wildlife study and conservation have made lightning fast progress in recent decades. Devices such as global positioning systems, satellites and camera traps are facilitating the study of animal ecology at previously unthinkable scales, and are helping to translate scientific knowledge into practical conservation actions. However, the analytical and modeling approaches used in these contexts have not kept pace with the increasing complexity and granularity of ecological data. This master thesis explores the potential of machine learning to address this challenge, notably in the fields of population ecology, movement ecology and behavioral ecology. A machine learning-based pipeline combining deep learning, function approximation, clustering algorithms and expert knowledge is first introduced to infer, from a single satellite image, the population of snow geese, snowy owls and lemmings on Bylot Island (Nunavut). Subsequently, innovative protocols for the evaluation and calibration of animal movement models, including those based on machine learning algorithms, are introduced. These protocols rely on optimal transport-based metrics, a field of applied mathematics. The relevance of the introduced protocols are demonstrated through a large-scale study comparing various Arctic fox movement models. Finally, a method that can automatically identify key African elephant behaviors is presented. By combining machine learning with network science, this method leverages the geometric patterns embedded in the behaviors of interest in order to learn from very little data, as well as to be able to be calibrated and deployed in environments where hardware resources are highly limited.
765

Réécriture de programmes pour une application effective des politiques de sécurité

Ould-Slimane, Hakima 17 April 2018 (has links)
Durant ces dernières décennies, nous avons assisté à une automatisation massive de la société selon toutes ses sphères. Malheureusement, cette révolution technologique n’a pas eu que des bienfaits. En effet, une nouvelle génération de criminels en a profité, afin d’occasionner davantage d’activités illégales. De ce fait, afin de protéger les systèmes informatiques, il est devenu plus que primordial de définir rigoureusement des politiques de sécurité ainsi que de mettre en oeuvre des mécanismes efficaces capables de les appliquer. L’objectif majeur d’un mécanisme de sécurité consiste souvent à contrôler des logiciels, afin de les contraindre à “bien” se comporter. Cependant, la plupart des mécanismes de sécurité procèdent par des méthodes ad hoc qui sont loin d’être efficaces. En outre, ils sont peu fiables, puisqu’il n’y a aucune preuve sur leur capacité à faire respecter les politiques de sécurité. De là apparaît la nécessité de concevoir des mécanismes de sécurité alternatifs qui résolvent le problème de l’application de la sécurité d’une manière formelle, correcte et précise. Dans ce contexte, notre thèse cible principalement la caractérisation formelle de l’application effective des politiques de sécurité via des mécanismes basés sur la réécriture de programmes. On entend par application effective, le fait d’éliminer tous les “mauvais” comportements d’un programme, tout en conservant tous les “bons” comportements qu’il engendre, et ce, sans compromettre la sémantique du programme à sécuriser. Nous avons opté pour la réécriture de programmes, vu sa grande puissance par rapport aux autres mécanismes de sécurité qui sont soit laxistes soit très restrictifs. Les principaux résultats qui ont été réalisés, afin d’atteindre les objectifs ciblés par cette thèse sont les suivants : – Caractérisation formelle de l’application des propriétés de sûreté par la réécriture de programmes. Il s’agit d’appliquer les propriétés de sûreté qui constituent la classe de propriétés de sécurité la plus communément appliquée par les mécanismes de sécurité. – Caractérisation formelle de l’application de n’importe quelle propriété de sécurité par la réécriture de programmes. Cette contribution montre comment la réécriture de programmes permet l’application de politiques de sécurité qu’aucune autre classe de mécanismes de sécurité ne peut appliquer. – Caractérisation alternative de l’application de la sécurité par une approche algébrique. Cette contribution propose un formalisme algébrique afin de réduire l’écart entre la spécification et l’implantation des mécanismes de sécurité basés-réécriture. / During the last decades, we have witnessed a massive automation of the society at all levels. Unfortunately, this technological revolution came with its burden of disadvantages. Indeed, a new generation of criminals emerged and is benefitting from continuous progress of information technologies to cause more illegal activities. Thus, to protect computer systems, it has become very crucial to rigorously define security policies and provide the effective mechanisms required to enforce them. Usually, the main objective of a security mechanism is to control the executions of a software and ensure that it will never violate the enforced security policy. However, the majority of security mechanisms are based on ad hoc methods and thus, are not effective. In addition, they are unreliable, since there is no evidence on their ability to enforce security policies. Therefore, there is a need to develop novel security mechanisms that allow enforcing security policies in a formal, correct, and accurate way. In this context, our thesis targets the formal characterization of effective security policies enforcement that is based on programs rewriting. We mean by “effective” enforcement preventing all the “bad” behaviors of a program while keeping all its "good" behaviors. In addition, effective enforcement should not compromise the semantics of controlled programs. We have chosen for rewriting programs, because it has a great power compared to other security mechanisms that are either permissive or too restrictive. Themain contributions of this thesis are the following : – Formal characterization of security enforcement of safety properties through program rewriting. Safety properties represent the main class of properties usually enforced by security mechanisms. – Formal characterization of any security property using program rewriting. This contribution shows how program rewriting allows the enforcement of security policies that no other class of security mechanisms can enforce. – Algebraic approach as an alternative formal characterization of program rewriting based security enforcement. In this contribution, we investigate an algebraic formal model in order to reduce the gap between the specification and the implementation of program rewriting based security mechansisms.
766

La protection des données de santé à caractère personnel : pour la reconnaissance des droits du patient / The protection of personal health data : In recognition of patient rights

Lacoste-Vaysse, Guillaume 25 November 2016 (has links)
Les données personnelles sont omniprésentes sur internet et leur importance économique est croissante. Pour les services de la société de l’information tels que les moteurs de recherche, les réseaux sociaux ou les sites de vente en ligne, elles sont devenues indispensables. Ces services apparaissent comme essentiellement gratuits pour les utilisateurs mais ont en réalité un modèle économique particulier : la monétisation des données personnelles des utilisateurs, en échange d’un accès gratuit. Le texte originel de la loi du 6 janvier 1978, dite « Informatique et Libertés », est le texte de référence en matière de protection des données à caractère personnel et permet d’assurer une protection étendue des données. Fondée par le principe du droit à l’autodétermination, cette loi permet d’assurer un traitement des données à caractère personnel, dans le respect du droit à la vie privée. Néanmoins, la loi dite « Informatique et Libertés » originelle ne prenait pas en compte l’apparition des nouveaux traitements de données sensibles en dehors du domaine médical. La directive Européenne 95/46/CE fait un apport, notamment en matière de protection des données biométriques. Cependant, on assiste au développement de nouvelles technologies qui permettent la collecte d’un nouveau type de données personnelles se rattachant à une personne et permettant son identification. Celles-ci sortent du cadre réglementé du cabinet médical. Les nouvelles technologies de l’information font apparaître un nouveau type de données difficile à définir. Ces nouveaux types d’informations sur la santé, générées et collectées directement par la personne concernée, font également l’objet de nombreux travaux au niveau européen. En effet, le Parlement Européen et le Conseil de l’Europe ont voté un nouveau Règlement visant à renforcer le cadre juridique en matière de circulation et de protection des données à caractère personnel. Le renforcement de la protection des données personnelles et des données de santé fait également l’objet d’un projet de loi, présenté par la secrétaire au gouvernement A. Lemaire, qui vise à développer une « république numérique ». Ce projet a notamment pour objectif de renforcer certains principes fondamentaux comme le droit d’accès ou le droit à l’information. Il développe un nouveau concept comme « l’habeas corpus numérique » qui vise à renforcer les prérogatives de chaque utilisateur et à maîtriser davantage les données personnelles, notamment dans le domaine de la santé. / Personal data is omnipresent on the internet and their economic importance is growing. For the information society services such as search engines, social networks, or online shopping sites, they have become indispensable. These services appear as essentially free for users, but actually have a particular economic model: the monetization of personal data of users in exchange for free access. The new data processing necessity an original governance by law.
767

Metadata-Driven Data Integration

Nadal Francesch, Sergi 16 May 2019 (has links) (PDF)
Data has an undoubtable impact on society. Storing and processing large amounts of available data is currently one of the key success factors for an organization. Nonetheless, we are recently witnessing a change represented by huge and heterogeneous amounts of data. Indeed, 90% of the data in the world has been generated in the last two years. Thus, in order to carry on these data exploitation tasks, organizations must first perform data integration combining data from multiple sources to yield a unified view over them. Yet, the integration of massive and heterogeneous amounts of data requires revisiting the traditional integration assumptions to cope with the new requirements posed by such data-intensive settings.This PhD thesis aims to provide a novel framework for data integration in the context of data-intensive ecosystems, which entails dealing with vast amounts of heterogeneous data, from multiple sources and in their original format. To this end, we advocate for an integration process consisting of sequential activities governed by a semantic layer, implemented via a shared repository of metadata. From an stewardship perspective, this activities are the deployment of a data integration architecture, followed by the population of such shared metadata. From a data consumption perspective, the activities are virtual and materialized data integration, the former an exploratory task and the latter a consolidation one. Following the proposed framework, we focus on providing contributions to each of the four activities.We begin proposing a software reference architecture for semantic-aware data-intensive systems. Such architecture serves as a blueprint to deploy a stack of systems, its core being the metadata repository. Next, we propose a graph-based metadata model as formalism for metadata management. We focus on supporting schema and data source evolution, a predominant factor on the heterogeneous sources at hand. For virtual integration, we propose query rewriting algorithms that rely on the previously proposed metadata model. We additionally consider semantic heterogeneities in the data sources, which the proposed algorithms are capable of automatically resolving. Finally, the thesis focuses on the materialized integration activity, and to this end, proposes a method to select intermediate results to materialize in data-intensive flows. Overall, the results of this thesis serve as contribution to the field of data integration in contemporary data-intensive ecosystems. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
768

Détection et analyse de l'impact des défauts de code dans les applications mobiles / Detection and analysis of impact of code smells in mobile applications

Hecht, Geoffrey 30 November 2016 (has links)
Les applications mobiles deviennent des logiciels complexes qui doivent être développés rapidement tout en évoluant de manière continue afin de répondre aux nouveaux besoins des utilisateurs ainsi qu'à des mises à jour régulières. S'adapter à ces contraintes peut provoquer la présence de mauvais choix d'implémentation ou de conception que nous appelons défauts de code. La présence de défauts de code au sein d'une application peut dégrader la qualité et les performances d'une application. Il est alors important de connaître ces défauts mais aussi de pouvoir les détecter et les corriger. Les défauts de code sont bien connus pour les applications orientés objets et de nombreux outils permettent leurs détections, mais ce n'est pas le cas pour les applications mobiles. Les connaissances concernant les défauts de code dans les applications mobiles sont lacunaires, de plus les outils permettant la détection et la correction des défauts sont inexistants ou peu matures. Nous présentons donc ici une classification de 17 défauts de code pouvant apparaître dans les applications Android, ainsi qu'un outil permettant la détection et la correction des défauts de code sur Android. Nous appliquons et validons notre méthode sur de grandes quantités d'applications (plus de 3000) dans deux études qui évaluent la présence et l'évolution du nombre des défauts de code dans des applications populaires. De plus, nous présentons aussi deux approches destinées à évaluer l'impact de la correction des défauts de code sur les performances et la consommation d'énergie. Ces approches nous ont permis d'observer que la correction des défauts de code est bénéfique dans la plupart des cas. / Mobile applications are becoming complex software systems that must be developed quickly and evolve continuously to fit new user requirements and execution contexts. However, addressing these constraints may result in poor low-level design choices, known as code smells. The presence of code smells within software systems may incidentally degrade their quality and performance, and hinder their maintenance and evolution. Thus, it is important to know this smells but also to detect and correct them. While code smells are well-known in object-oriented applications, their study in mobile applications is still in their infancy. Moreover there is a lack of tools to detect and correct them. That is why we present a classification of 17 code smells that may appear in Android applications, as well as a tool to detect and correct code smells on Android. We apply and validate our approach on large amounts of applications (over 3000) in two studies evaluating the presence and evolution of the number of code smells in popular applications. In addition, we also present two approaches to assess the impact of the correction of code smells on performance and energy consumption. These approaches have allowed us to observe that the correction of code smells is beneficial in most cases.
769

Multispectral image processing and pattern recognition techniques for quality inspection of apple fruits

Unay, Devrim 26 June 2006 (has links)
Quality inspection of apple fruits, traditionally performed by human experts, has to be automated by machine vision to reduce error, variation, fatigue and cost due to humans as well as to increase speed… A typical apple inspection system should employ image processing and pattern recognition techniques to precisely segment defected skin by minimal confusion with stem/calyx areas and classify fruit into correct quality category. In this thesis, we present a work performed for quality inspection of bi-colored apples using multispectral images by tackling each of these sub-problems (namely, stem/calyx recognition, defect detection and fruit grading) individually. Stem and calyx are natural parts of apples that are confused with some defects in machine vision systems. A precise inspection system requires their discrimination, which is achieved by a highly accurate support vector machines-based approach. Defect detection of apples by machine vision is very problematic due to numerous defect types present as well as high natural variability of skin color. This task is accomplished by multi-layer perceptrons (an artificial neural network), which outperformed several other methods in accuracy and speed. Final grading of fruit is obtained by binary and multi-category classification with different classifiers, where results achieved are very encouraging.
770

Vérification de modèles floue

Constantineau, Ivan January 2006 (has links) (PDF)
Dans ce mémoire, on généralise la notion de vérification automatique de modèles au contexte flou. On définit des structures de Kripke floues et on leur associe des logiques temporelles floues, dénotées NCTL * et NCTL. On vérifie que les opérateurs de la logique NCTL sont monotones et qu'il y a moyen de faire de la vérification de modèles dans ce contexte. On en fait alors la démonstration.

Page generated in 0.4229 seconds