• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 51
  • 13
  • Tagged with
  • 124
  • 96
  • 67
  • 26
  • 23
  • 23
  • 21
  • 20
  • 20
  • 19
  • 19
  • 19
  • 17
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Identity-based cryptography / Cryptographie de l'identité

Germouty, Paul 12 September 2018 (has links)
Dans cette thèse nous étudions les possibilités que les chiffrements basés sur l’identité offrent quand ils sont utilisés dans un but différent qu’un simple chiffrement. Nous avons pu généraliser différents types de chiffrement basés sur l’identité en une nouvelle primitive nommé Downgradable Identity-based Encryption (DIBE). Nous avons trouvé un moyen générique de transformer de simple IBE en des IBE en blanc, dans le cas où l’IBE est affine nous rendons le coût de communication très faible (de linéaire à logarithmique). Ces deux primitives ont donné lieux à différentes applications : les chiffrements basés sur les attributs pour la première et le transfère inconscient pour la deuxième. Une autre application est l’utilisation d’IBE hiérarchiques pour créer des signatures à vérifieur désigné basées sur l’identité. Ensuite nous avons regardé le transfère inconscient seul et avons réussi à le généraliser en un nouveau protocole nommé Oblivious Language-based Envelope. Finalement, nous avons construit une transformation d’un protocole à un autre, d’un échange authentifié de clés par mot de passe nous avons construit un transfère inconscient. En prenant une instanciation particulière nous obtenons un protocole plus efficace que tous les précédents pour le même niveau de sécurité. La primitive chiffrement basé sur l’identité est notre outil principal pour réaliser nos constructions. Nous avons donc besoin d’une instanciation efficace de cette primitive. Nous avons utilisé celle de Blazy Kiltz et Pan à CRYPTO’14 qui est très efficace mais possède aussi une structure particulière dite affine. / During this Thesis we investigated the possibilities that Identity-based Encryption offers when used out of their original purpose. We managed to generalize a whole class of different identity-based encryption schemes into Downgradable Identity-based Encryptions. We found a generic way to construct Blind Identity-based Encryptions. These two works leads both to applications that are not a priori linked with IBE: Attribute-based Encryption from Downgradable IBE and Oblivious Transfer for Blind IBE, in the case of Affine IBE we manage to reduce the communication cost from a linear to logarithmic. As application we also find a way to use Hierarchical IBE to construct a special type of signature called Identity-based Designated Verifier Signature. We continue the research out of the context of IBE's application with Oblivious Transfer. We manage to generalize the concept of Oblivious Transfer into a new protocol called Oblivious Language-based Envelope encompassing many kind of protocols. Finally, in the image of the whole Thesis we construct Oblivious Transfer with a very different primitive called Password Authenticated Key Exchange. Surprisingly, with some optimizations this last transformation leads to a very efficient Oblivious Transfer Protocol. The Identity-based Encryption is our main basis of work, thus efficient instantiations of this primitive were the key of our own efficiency, thus we used the instanciation from the paper of Blazy et als at crypto 2014 which is efficient, tight secure and affine.
52

Etudes de méthodes et outils pour la cohérence visuelle en réalité mixte appliquée au patrimoine / Studies of methods and tools for the really mixed visual coherence applied to the patrimony

Durand, Emmanuel 19 November 2013 (has links)
Le travail présenté dans ce mémoire a pour cadre le dispositif de réalité mixte ray-on, conçu par la société on-situ. Ce dispositif, dédié à la mise en valeur du patrimoine architectural et en particulier d'édifices historiques, est installé sur le lieu de l'édifice et propose à l'utilisateur une vision uchronique de celui-ci. Le parti pris étant celui du photo-réalisme, deux pistes ont été suivies : l'amélioration du mélange réel virtuel par la reproduction de l'éclairage réel sur les objets virtuels, et la mise en place d'une méthode de segmentation d'image résiliente aux changements lumineux.Pour la reproduction de l'éclairage, une méthode de rendu basé-image est utilisée et associée à une capture haute dynamique de l'environnement lumineux. Une attention particulière est portée pour que ces deux phases soient justes photométriquement et colorimétriquement. Pour évaluer la qualité de la chaîne de reproduction de l'éclairage, une scène test constituée d'une mire de couleur calibrée est mise en place, et capturée sous de multiples éclairages par un couple de caméra, l'une capturant une image de la mire, l'autre une image de l'environnement lumineux. L'image réelle est alors comparée au rendu virtuel de la même scène, éclairée par cette seconde image.La segmentation résiliente aux changements lumineux a été développée à partir d'une classe d'algorithmes de segmentation globale de l'image, considérant celle-ci comme un graphe où trouver la coupe minimale séparant l'arrière plan et l'avant plan. L'intervention manuelle nécessaire à ces algorithmes a été remplacée par une pré-segmentation de moindre qualité à partir d'une carte de profondeur, cette pré-segmentation étant alors utilisée comme une graîne pour la segmentation finale. / The work described in this report has as a target the mixed reality device ray-on, developed by the on-situ company. This device, dedicated to cultural heritage and specifically architectural heritage, is meant to be installed on-site and shows the user an uchronic view of its surroundings. As the chosen stance is to display photo-realistic images, two trails were followed: the improvement of the real-virtual merging by reproducing accurately the real lighting on the virtual objects, and the development of a real-time segmentation method which is resilient to lighting changes.Regarding lighting reproduction, an image-based rendering method is used in addition to a high dynamic range capture of the lighting environment. The emphasis is put on the photometric and colorimetric correctness of these two steps. To measure the quality of the lighting reproduction chain, a test scene is set up with a calibrated color checker, captured by a camera while another camera is grabbing the lighting environment. The image of the real scene is then compared to the simulation of the same scene, enlightened by the light probe.Segmentation resilient to lighting changes is developed from a set of global image segmentation methods, which consider an image as a graph where a cut of minimal energy has to be found between the foreground and the background. These methods being semi-automatic, the manual part is replaced by a low resolution pre-segmentation based on the depthmap of the scene which is used as a seed for the final segmentation.
53

Amélioration de la vitesse et de la qualité d'image du rendu basé image / Improving speed and image quality of image-based rendering

Ortiz Cayón, Rodrigo 03 February 2017 (has links)
Le rendu photo-réaliste traditionnel exige un effort manuel et des calculs intensifs pour créer des scènes et rendre des images réalistes. C'est principalement pour cette raison que la création de contenus pour l’imagerie numérique de haute qualité a été limitée aux experts et le rendu hautement réaliste nécessite encore des temps de calcul significatifs. Le rendu basé image (IBR) est une alternative qui a le potentiel de rendre les applications de création et de rendu de contenus de haute qualité accessibles aux utilisateurs occasionnels, puisqu'ils peuvent générer des images photo-réalistes de haute qualité sans subir les limitations mentionnées ci-dessus. Nous avons identifié trois limitations importantes des méthodes actuelles de rendu basé image : premièrement, chaque algorithme possède des forces et faiblesses différentes, en fonction de la qualité de la reconstruction 3D et du contenu de la scène, et un seul algorithme ne permet souvent pas d’obtenir la meilleure qualité de rendu partout dans l’image. Deuxièmement, ces algorithmes présentent de forts artefacts lors du rendu d’objets manquants ou partiellement reconstruits. Troisièmement, la plupart des méthodes souffrent encore d'artefacts visuels significatifs dans les régions de l’image où la reconstruction est de faible qualité. Dans l'ensemble, cette thèse propose plusieurs améliorations significatives du rendu basé image aussi bien en termes de vitesse de rendu que de qualité d’image. Ces nouvelles solutions sont basées sur le rendu sélectif, la substitution de modèle basé sur l'apprentissage, et la prédiction et la correction des erreurs de profondeur. / Traditional photo-realistic rendering requires intensive manual and computational effort to create scenes and render realistic images. Thus, creation of content for high quality digital imagery has been limited to experts and highly realistic rendering still requires significant computational time. Image-Based Rendering (IBR) is an alternative which has the potential of making high-quality content creation and rendering applications accessible to casual users, since they can generate high quality photo-realistic imagery without the limitations mentioned above. We identified three important shortcomings of current IBR methods: First, each algorithm has different strengths and weaknesses, depending on 3D reconstruction quality and scene content and often no single algorithm offers the best image quality everywhere in the image. Second, such algorithms present strong artifacts when rendering partially reconstructed objects or missing objects. Third, most methods still result in significant visual artifacts in image regions where reconstruction is poor. Overall, this thesis addresses significant shortcomings of IBR for both speed and image quality, offering novel and effective solutions based on selective rendering, learning-based model substitution and depth error prediction and correction.
54

Verification of behaviourist multi-agent systems by means of formally guided simulations / Vérification des systèmes multi-agents comportementalistes par le moyen des simulations formellement guidées

Silva, Paulo Salem da 28 November 2011 (has links)
Les systèmes multi-agents (SMA) peuvent être utilisé pour modéliser les phénomènes qui peuvent être décomposés en agents qui interagissent et qui existent au sein d'un environnement. Ils peuvent être utilisés pour modéliser les sociétés humaines et animales, aux fins de l'analyse de leurs propriétés par des moyens de calcul. Cette thèse est consacrée à l'analyse automatisée d'un type particulier de ces modèles sociaux, celles qui sont fondées sur les principes comportementalistes, qui contrastent avec les approches cognitives plus dominantes dans la littérature des SMAs. La caractéristique des théories comportementalistes est l'accent mis sur la définition des comportements basée sur l'interaction entre les agents et leur environnement. Non seulement des actions réflexives, mais aussi d'apprentissage, les motivations, et les émotions peuvent être définies. Nous introduisons une architecture formelle d'agent basée sur la théorie d'analyse comportementale de B. F. Skinner, ainsi que une notion appropriée et formelle de l'environnement pour mettre ces agents ensemble dans un SMA. La simulation est souvent utilisée pour analyser les SMAs. Les techniques consistent généralement à simuler le SMA plusieurs fois, soit pour recueillir des statistiques, soit pour voir ce qui se passe à travers l'animation. Toutefois, les simulations peuvent être utilisées d'une manière plus orientée vers la vérification si on considère qu'elles sont en réalité des explorations de grandes espaces d'états. Nous proposons une technique de vérification nouvelle basé sur cette idée, qui consiste à simuler un SMA de manière guidée, afin de vérifier si quelques hypothèses sur lui sont confirmées ou non. À cette fin, nous tirons profit de la position privilégiée que les environnements sont dans les SMAs de cette thèse: la spécification formelle de l'environnement d'un SMA sert à calculer les évolutions possibles du SMA comme un système de transition, établissant ainsi l'espace d'états à vérifier. Dans ce calcul, les agents sont pris en compte en les simulant afin de déterminer, à chaque état de l'environnement, quelles sont leurs actions. Chaque exécution de la simulation est une séquence d'états dans cet espace d'états, qui est calculée à la volée, au fur et à mesure que la simulation progresse. L'hypothèse à étudier, à son tour, est donnée comme un autre système de transition, appelé objectif de simulation, qui définit les simulations désirables et indésirables. Il est alors possible de vérifier si le SMA est conforme à l'objectif de simulation selon un certain nombre de notions de satisfiabilité très précises. Algorithmiquement, cela correspond à la construction d'un produit synchrone de ces deux systèmes de transitions (i.e., celui du SMA et l'objectif de simulation) à la volée et à l'utiliser pour faire fonctionner un simulateur. C'est-à-dire, l'objectif de simulation est utilisé pour guider le simulateur, de sorte que seuls les états concernés sont en réalité simulés. À la fin d'un tel algorithme, il délivre un verdict concluant ou non concluant. Si c'est concluant, il est connu que le SMA est conforme à l'objectif de simulation par rapport aux observations qui ont été faites lors des simulations. Si c'est non-concluant, il est possible d'effectuer quelques ajustements et essayer à nouveau. En résumé, dans cette thèse nous fournissons quatre nouveaux éléments: (i) une architecture d'agent; (ii) une spécification formelle de l'environnement de ces agents, afin qu'ils puissent être composés comme un SMA; (iii) une structure pour décrire les propriétés d'intérêt, que nous avons nommée objectif de simulation, et (iv) une technique pour l'analyse formelle du SMA résultant par rapport à un objectif de simulation. Ces éléments sont mis en œuvre dans un outil, appelé Simulateur Formellement Guidé (FGS, de l'anglais Formally Guided Simulator).Des études de cas exécutables dans FGS sont fournies pour illustrer l'approche. / Multi-agent systems (MASs) can be used to model phenomena that can be decomposed into several interacting agents which exist within an environment. In particular, they can be used to model human and animal societies, for the purpose of analysing their properties by computational means. This thesis is concerned with the automated analysis of a particular kind of such social models, namely, those based on behaviourist principles, which contrasts with the more dominant cognitive approaches found in the MAS literature. The hallmark of behaviourist theories is the emphasis on the definition of behaviour in terms of the interaction between agents and their environment. In this manner, not merely reflexive actions, but also learning, drives, and emotions can be defined. More specifically, in this thesis we introduce a formal agent architecture (specified with the Z Notation) based on the Behaviour Analysis theory of B. F. Skinner, and provide a suitable formal notion of environment (based on the pi-calculus process algebra) to bring such agents together as a MAS. Simulation is often used to analyse MASs. The techniques involved typically consist in implementing and then simulating a MAS several times to either collect statistics or see what happens through animation. However, simulations can be used in a more verification-oriented manner if one considers that they are actually explorations of large state-spaces. In this thesis we propose a novel verification technique based on this insight, which consists in simulating a MAS in a guided way in order to check whether some hypothesis about it holds or not. To this end, we leverage the prominent position that environments have in the MASs of this thesis: the formal specification of the environment of a MAS serves to compute the possible evolutions of the MAS as a transition system, thereby establishing the state-space to be investigated. In this computation, agents are taken into account by being simulated in order to determine, at each environmental state, what their actions are. Each simulation execution is a sequence of states in this state-space, which is computed on-the-fly, as the simulation progresses. The hypothesis to be investigated, in turn, is given as another transition system, called a simulation purpose, which defines the desirable and undesirable simulations (e.g., "every time the agent does X, it will do Y later"). It is then possible to check whether the MAS satisfies the simulation purpose according to a number of precisely defined notions of satisfiability. Algorithmically, this corresponds to building a synchronous product of these two transitions systems (i.e., the MAS's and the simulation purpose) on-the-fly and using it to operate a simulator. That is to say, the simulation purpose is used to guide the simulator, so that only the relevant states are actually simulated. By the end of such an algorithm, it delivers either a conclusive or inconclusive verdict. If conclusive, it becomes known whether the MAS satisfies the simulation purpose w.r.t. the observations made during simulations. If inconclusive, it is possible to perform some adjustments and try again.In summary, then, in this thesis we provide four novel elements: (i) an agent architecture; (ii) a formal specification of the environment of these agents, so that they can be composed into a MAS; (iii) a structure to describe the property of interest, which we named simulation purpose; and (iv) a technique to formally analyse the resulting MAS with respect to a simulation purpose. These elements are implemented in a tool, called Formally Guided Simulator (FGS). Case studies executable in FGS are provided to illustrate the approach.
55

Corrélats neuro-fonctionnels du phénomène de sortie de boucle : impacts sur le monitoring des performances / Neurofunctional correlates of the out-of-the-loop phenomenon : impacts on performance monitoring

Somon, Bertille 04 December 2018 (has links)
Les mutations technologiques à l’œuvre dans les systèmes aéronautiques ont profondément modifié les interactions entre l’homme et la machine. Au fil de cette évolution, les opérateurs se sont retrouvés face à des systèmes de plus en plus complexes, de plus en plus automatisés et de plus en plus opaques. De nombreuses tragédies montrent à quel point la supervision des systèmes par des opérateurs humains reste un problème sensible. En particulier, de nombreuses évidences montrent que l’automatisation a eu tendance à éloigner l’opérateur de la boucle de contrôle des systèmes, créant un phénomène dit de sortie de boucle (OOL). Ce phénomène se caractérise notamment par une diminution de la conscience de la situation et de la vigilance de l’opérateur, ainsi qu’une complaisance et une sur-confiance dans les automatismes. Ces difficultés déclenchent notamment une baisse des performances de l’opérateur qui n’est plus capable de détecter les erreurs du système et de reprendre la main si nécessaire. La caractérisation de l’OOL est donc un enjeux majeur des interactions homme-système et de notre société en constante évolution. Malgré plusieurs décennies de recherche, l’OOL reste difficile à caractériser, et plus encore à anticiper. Nous avons dans cette thèse utilisé les théories issues des neurosciences, notamment sur le processus de détection d’erreurs, afin de progresser sur notre compréhension de ce phénomène dans le but de développer des outils de mesure physiologique permettant de caractériser l’état de sortie de boucle lors d’interactions avec des systèmes écologiques. En particulier, l’objectif de cette thèse était de caractériser l’OOL à travers l’activité électroencéphalographique (EEG) dans le but d’identifier des marqueurs et/ou précurseurs de la dégradation du processus de supervision du système. Nous avons dans un premier temps évalué ce processus de détection d’erreurs dans des conditions standards de laboratoire plus ou moins complexes. Deux études en EEG nous ont d’abord permis : (i) de montrer qu’une activité cérébrale associée à ce processus cognitif se met en place dans les régions fronto-centrales à la fois lors de la détection de nos propres erreurs (ERN-Pe et FRN-P300) et lors de la détection des erreurs d’un agent que l’on supervise, (complexe N2-P3) et (ii) que la complexité de la tâche évaluée peut dégrader cette activité cérébrale. Puis nous avons mené une autre étude portant sur une tâche plus écologique et se rapprochant des conditions de supervision courantes d’opérateurs dans l’aéronautique. Au travers de techniques de traitement du signal EEG particulières (e.g., analyse temps-fréquence essai par essai), cette étude a mis en évidence : (i) l’existence d’une activité spectrale θ dans les régions fronto-centrales qui peut être assimilée aux activités mesurées en condition de laboratoire, (ii) une diminution de l’activité cérébrale associée à la détection des décisions du système au cours de la tâche, et (iii) une diminution spécifique de cette activité pour les erreurs. Dans cette thèse, plusieurs mesures et analyses statistiques de l’activité EEG ont été adaptées afin de considérer les contraintes des tâches écologiques. Les perspectives de cette thèse ouvrent sur une étude en cours dont le but est de mettre en évidence la dégradation de l’activité de supervision des systèmes lors de la sortie de boucle, ce qui permettrait d’identifier des marqueurs précis de ce phénomène permettant ainsi de le détecter, voire même, de l’anticiper. / The ongoing technological mutations occuring in aeronautics have profoundly changed the interactions between men and machines. Systems are more and more complex, automated and opaque. Several tragedies have reminded us that the supervision of those systems by human operators is still a challenge. Particularly, evidences have been made that automation has driven the operators away from the control loop of the system thus creating an out-of-the-loop phenomenon (OOL). This phenomenon is characterized by a decrease in situation awareness and vigilance, but also complacency and over-reliance towards automated systems. These difficulties have been shown to result in a degradation of the operator’s performances. Thus, the OOL phenomenon is a major issue of today’s society to improve human-machine interactions. Even though it has been studied for several decades, the OOL is still difficult to characterize, and even more to predict. The aim of this thesis is to define how cognitive neurosciences theories, such as the performance monitoring activity, can be used in order to better characterize the OOL phenomenon and the operator’s state, particularly through physiological measures. Consequently, we have used electroencephalographic activity (EEG) to try and identify markers and/or precursors of the supervision activity during system monitoring. In a first step we evaluated the error detection or performance monitoring activity through standard laboratory tasks, with varying levels of difficulty. We performed two EEG studies allowing us to show that : (i) the performance monitoring activity emerges both for our own errors detection but also during another agent supervision, may it be a human agent or an automated system, and (ii) the performance monitoring activity is significantly decreased by increasing task difficulty. These results led us to develop another experiment to assess the brain activity associated with system supervision in an ecological environment, resembling everydaylife aeronautical system monitoring. Thanks to adapted signal processing techniques (e.g. trial-by-trial time-frequency decomposition), we were able to show that there is : (i) a fronto-central θ activité time-locked to the system’s decision similar to the one obtained in laboratory condition, (ii) a decrease in overall supervision activity time-locked to the system’s decision, and (iii) a specific decrease of monitoring activity for errors. In this thesis, several EEG measures have been used in order to adapt to the context at hand. As a perspective, we have developped a final study aiming at defining the evolution of the monitoring activity during the OOL. Finding markers of this degradation would allow to monitor its emersion, and even better, predict it.
56

Développement de l'IRM dynamique pour l'étude de l'appareil musculo-squelettique en mouvement / Development of dynamic MRI to study the musculoskeletal system during motion

Makki, Karim 04 October 2019 (has links)
La paralysie cérébrale (PC) est la première cause de l’handicap moteur de l’enfant en France (2 naissances pour 1000). Il s’agit d’une pathologie causée par des atteintes non progressives survenues lors du développement du cerveau chez le foetus ou le nourrisson. L’équin de la cheville est la déformation musculo-squelettique la plus fréquente chez les enfants atteints par la PC. Malgré des thérapies médico-chirurgicales multiples, le taux de récidive post-opératoire demeure très élevé(48%). Une des principales raisons des échecs des thérapies est le manque de connaissance de la biomécanique articulaire et musculaire. Les techniques d’imagerie en IRM dynamique permettent aujourd’hui d’explorer l’appareil musculo-squelettique au cours du mouvement dans les 3 dimensions de l’espace avec une grande précision (<1mm). Cependant, ces techniques viennent avec leur propre liste de problèmes tels que la résolution réduite, l’anisotropie et les artefacts de mouvement. Dans cette thèse, nous abordons ces problèmes en combinant l’information spatiale de l’IRM conventionnel avec l’information temporelle fournie par les séquences IRM dynamique. Nous avons réussi à atteindre l’objectif principal de ces travaux de recherche en développant des algorithmes robustes combinant des aspects informatiques et mathématiques (dont le recalage d’images basé sur l’intensité était le facteur clé) qui nous ont permis de reconstruire les mouvements articulaires et donc d’établir une analyse biomécanique de la cheville en plus de la reconstruction spatio-temporelle de la séquence dynamique en utilisant une approche logeuclidienne. Les algorithmes proposés ont été appliqués sur la base de données actuellement disponible (contenant 6 sujets normaux) et devraient être également appliqués sur une base plus large contenant des sujets pathologiques de la même tranche d’âges afin de comparer les deux populations et de caractériser la pathologie. / Cerebral Palsy (CP) is a common birth pathology in children leading to ankle joint deformity, also known as the Spastic Equinus (SE) deformity, which causes abnormal function of the joint. While the management of ankle disorders focuses on restoring the joint functions, the underlying pathomechanics is not clearly understood yet. To better understand the biomechanics of the pediatric ankle joint, it is crucial to establish in vivo normative joint biomechanics before focusing on pathomechanics studies. Dynamic MRI has made it possible to non-invasively capture the ankle joint during a complete motion cycle. However, dynamic MRI comes with its own set of unique challenges such as low resolution, anisotropy, and motion artifacts. This motivates our choice for combining spatial information of conventional static MRI with temporal information of dynamic MRI sequences. The global aim of this research work is to build computational frameworks and to develop robust intensity-based approaches for estimating the joint motion and deformations from 3D+t MRI data, and thus for deriving the joint kinematics and the joint contact mechanics during a single cycle of dorsiplantarflexion. Due to a lack of sufficient Imaging data in the pediatric cohort, the proposed algorithms are applied on dynamic MRI data (portraying both passive and active ankle motions) from 6 healthy children.
57

Algorithmes de machine learning adaptatifs pour flux de données sujets à des changements de concept / Adaptive machine learning algorithms for data streams subject to concept drifts

Loeffel, Pierre-Xavier 04 December 2017 (has links)
Dans cette thèse, nous considérons le problème de la classification supervisée sur un flux de données sujets à des changements de concepts. Afin de pouvoir apprendre dans cet environnement, nous pensons qu’un algorithme d’apprentissage doit combiner plusieurs caractéristiques. Il doit apprendre en ligne, ne pas faire d’hypothèses sur le concept ou sur la nature des changements de concepts et doit être autorisé à s’abstenir de prédire lorsque c’est nécessaire. Les algorithmes en ligne sont un choix évident pour traiter les flux de données. De par leur structure, ils sont capables de continuellement affiner le modèle appris à l’aide des dernières observations reçues. La structure instance based a des propriétés qui la rende particulièrement adaptée pour traiter le problème des flux de données sujet à des changements de concept. En effet, ces algorithmes font très peu d’hypothèses sur la nature du concept qu’ils essaient d’apprendre ce qui leur donne une flexibilité qui les rend capable d’apprendre un vaste éventail de concepts. Une autre force est que stocker certaines des observations passées dans la mémoire peux amener de précieuses meta-informations qui pourront être utilisées par la suite par l’algorithme. Enfin, nous mettons en valeur l’importance de permettre à un algorithme d’apprentissage de s’abstenir de prédire lorsque c’est nécessaire. En effet, les changements de concepts peuvent être la source de beaucoup d’incertitudes et, parfois, l’algorithme peux ne pas avoir suffisamment d’informations pour donner une prédiction fiable. / In this thesis, we investigate the problem of supervised classification on a data stream subject to concept drifts. In order to learn in this environment, we claim that a successful learning algorithm must combine several characteristics. It must be able to learn and adapt continuously, it shouldn’t make any assumption on the nature of the concept or the expected type of drifts and it should be allowed to abstain from prediction when necessary. On-line learning algorithms are the obvious choice to handle data streams. Indeed, their update mechanism allows them to continuously update their learned model by always making use of the latest data. The instance based (IB) structure also has some properties which make it extremely well suited to handle the issue of data streams with drifting concepts. Indeed, IB algorithms make very little assumptions about the nature of the concept they are trying to learn. This grants them a great flexibility which make them likely to be able to learn from a wide range of concepts. Another strength is that storing some of the past observations into memory can bring valuable meta-informations which can be used by an algorithm. Furthermore, the IB structure allows the adaptation process to rely on hard evidences of obsolescence and, by doing so, adaptation to concept changes can happen without the need to explicitly detect the drifts. Finally, in this thesis we stress the importance of allowing the learning algorithm to abstain from prediction in this framework. This is because the drifts can generate a lot of uncertainties and at times, an algorithm might lack the necessary information to accurately predict.
58

Proposition d’un modèle de sécurité pour la protection de données personnelles dans les systèmes basés sur l’internet des objets / Proposal of a security model for the protection of personal data in systems based on the Internet of Things

Ould yahia, Youcef 24 June 2019 (has links)
Les technologies de l'Internet des objets (IdO) et de l'externalisation des services informatiques ont conduit à l'émergence de nouvelles menace sur la vie privée des utilisateurs. Cependant, l'implémentation des moyens de sécurité traditionnels sur les équipements de l'IdO constitue un premier défi lié aux limites de capacités. D'un autre côté, la délégation du traitement et du stockage des données, nous pose le problème de confiance envers les fournisseurs de service.Dans ce contexte, nous avons proposé une solution de chiffrement qui assure une protection de données centrée sur leurs propriétaires et adaptée à l'environnement contraignant des objets connectés. Ce modèle se base sur le chiffrement par attributs avec externalisation sécurisée et la technologie de la Blockchain. Ensuite, en réponse à la problématique de la confiance et de la sélection du service, nous avons exploré les possibilités offertes par les outils de l'intelligence artificielle. Pour ce faire, nous avons proposé un modèle de filtrage collaboratif basé sur les cartes de Kohonen avec une solution pour détecter les utilisateurs non fiable. / Internet of Things (IoT) and IT service outsourcing technologies have led to the emergence of new threats to users' privacy. However, the implementation of traditional security measures on IoT equipment is a first challenge due to capacity limitations. On the other hand, the offloading of data processing and storage poses the problem of trust in service providers.In this context, we have proposed an encryption solution that provides owner-centric data protection adapted to the constraining environment of IoT. This model is based on attribute-based encryption with secure offloading capability and Blockchain technology. Then, in response to the issue of trust and service selection, we explored the possibilities offered by artificial intelligence tools. To do this, we proposed a collaborative filtering model based on Kohonen maps and efficient solution to detect the untrusted users.
59

Conception et réalisation d'un consultant basé sur le contexte : application en histopathologie pour la gradation du cancer du sein / Design and implementation of a context-based consultant : application on histopathology for breast cancer gradation

Aroua, Anissa 13 June 2014 (has links)
Le diagnostic du cancer du sein est une activité humaine qui dépend du contexte dans lequel il est réalisé. Ce contexte se traduit par l'existence de très nombreux éléments qui rend l'automatisation de cette activité impossible. Depuis quelques années, la numérisation des lames (support de raisonnement) a incité les pathologistes à passer à l'analyse d'image de lames à l'écran. Cette migration a offre la possibilité d'une procéduralisation au moins partielle de leurs méthodes d'analyse. Dans le cadre de cette thèse, nous nous sommes intéressés à l'activité d'analyse d'une image de lame par un pathologiste qui est modélisée dans le formalisme des graphes contextuels dans le but de proposer une solution permettant d'assister les pathologistes dans leurs diagnostics. Notre Consultant fait partie des Systèmes d'Assistance Intelligents basés sur le Contexte. L'outil principal du Consultant est basé sur la Simulation à partir de pratiques expertes décrites dans un graphe contextuel. En partant d'une image que le pathologiste doit analyser, le simulateur va développer une pratique qui est la plus adaptée au contexte de travail. Le résultat de la simulation va donc être la pratique résultante et toutes les informations sur la manière dont cette pratique a été obtenue. Le consultant propose alors à l'utilisateur une visualisation des résultats des simulations réalisées permettant de les analyser et de les comparer. / Breast cancer diagnosis is a human activity that is context-dependent. The context contains a large number of elements that limits strongly any possibility de complete automation. Recently, digitization of slides (reasoning support) prompted pathologists to migrate from slide analysis under microscope to slide image analysis on the screen. This migration offers a possibility of partial proceduralization of their analysis methods. In this thesis, we are interested on the activity of slide image analysis by a pathologist that is modeled in the Contextual-Graphs formalism with the goal to propose a solution to support pathologists in their diagnosis. Our Consultant belongs to the class of Context based Intelligent Assistant Systems. The main tool of the consultant is based on the simulation of expert practices described in a contextual graph. Starting from an image to analyze, the simulator will develop a practice that is the most adapted to the working context. The output of the simulation is the resulting practice and ll information about its development. The consultant proposes to the user a visualization of the different results for analysis and comparison.
60

Haptic optical tweezers with 3D high-speed tracking / Pinces optiques haptiques avec 3D haute vitesse de suivi

Yin, Munan 03 February 2017 (has links)
La micromanipulation a un grand potentiel pour révolutionner la recherche biologique et les soins médicaux. À petite échelle, microrobots peuvent effectuer des tâches médicales avec peu invasive, et d'explorer la vie à un niveau fondamental. Pinces optiques sont l'une des techniques les plus populaires pour la manipulation biologique. La production de petits lots qui exige une grande flexibilité repose principalement sur le processus de téléopération. Cependant, le niveau limité d'intuitivité rend de plus en plus difficile de conduire efficacement les tâches de manipulation et d'exploration dans le micromonde complexe. Dans de telles circonstances, des chercheurs pionniers ont proposé d'incorporer l'haptique dans la boucle de contrôle du système OTs, qui vise à gérer les tâches de micromanipulation de manière plus flexible et plus efficace. Cependant, la solution n'est pas encore complète, et il ya deux défis principaux à résoudre dans cette thèse: Détection de force 3D, qui doit être précis, rapide et robuste dans un espace de travail suffisamment grand; Haute vitesse jusqu'à 1 kHz force de rétroaction, ce qui est indispensable pour permettre une sensation tactile fidèle et d'assurer la stabilité du système. Dans la micromanipulation des pinceaux optiques, la vision est un bon candidat pour l'estimation de la force puisque le modèle force-position est bien établi. Cependant, le suivi de 1 kHz dépasse la vitesse des procédés de traitement classiques. La discipline émergente de l'ingénierie biomorphe visant à intégrer les comportements de vie dans le matériel informatique ou le logiciel à grande échelle rompt le goulot d'étranglement. Le capteur d'image asynchrone basé sur le temps (ATIS) est la dernière génération de prototype de rétine de silicium neuromorphique qui enregistre seulement les changements de contraste de scène sous la forme d'un flux d'événements. Cette propriété exclut le fond redondant et permet la détection et le traitement des mouvements à grande vitesse. La vision événementielle a donc été appliquée pour répondre à l'exigence de la rétroaction de force 3D à grande vitesse. Le résultat montre que les premières pinces optiques haptiques 3D à grande vitesse pour une application biologique ont été obtenues. La réalisation optique et les algorithmes de suivi événementiel pour la détection de force 3D à grande vitesse ont été développés et validés. L'exploration reproductible de la surface biologique 3D a été démontrée pour la première fois. En tant que puissant capteur de force 3D à grande vitesse, le système de pinces optiques développé présente un potentiel important pour diverses applications. / Micromanipulation has a great potential to revolutionize the biological research and medical care. At small scales, microrobots can perform medical tasks with minimally invasive, and explore life at a fundamental level. Optical Tweezers are one of the most popular techniques for biological manipulation. The small-batch production which demands high flexibilities mainly relies on teleoperation process. However, the limited level of intuitiveness makes it more and more difficult to effectively conduct the manipulation and exploration tasks in the complex microworld. Under such circumstances, pioneer researchers have proposed to incorporate haptics into the control loop of OTs system, which aims to handle the micromanipulation tasks in a more flexible and effective way. However, the solution is not yet complete, and there are two main challenges to resolve in this thesis: 3D force detection, which should be accurate, fast, and robust in large enough working space; High-speed up to 1 kHz force feedback, which is indispensable to allow a faithful tactile sensation and to ensure system stability. In optical tweezers micromanipulation, vision is a sound candidate for force estimation since the position-force model is well established. However, the 1 kHz tracking is beyond the speed of the conventional processing methods. The emerging discipline of biomorphic engineering aiming to integrate the behaviors of livings into large-scale computer hardware or software breaks the bottleneck. The Asynchronous Time-Based Image Sensor (ATIS) is the latest generation of neuromorphic silicon retina prototype which records only scene contrast changes in the form of a stream of events. This property excludes the redundant background and allows high-speed motion detection and processing. The event-based vision has thus been applied to address the requirement of 3D high-speed force feedback. The result shows that the first 3D high-speed haptic optical tweezers for biological application have been achieved. The optical realization and event-based tracking algorithms for 3D high-speed force detection have been developed and validated. Reproducible exploration of the 3D biological surface has been demonstrated for the first time. As a powerful 3D high-speed force sensor, the developed optical tweezers system poses significant potential for various applications.

Page generated in 0.0629 seconds