• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 5
  • Tagged with
  • 12
  • 12
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Compression dans les entrepôts de données pour l'amélioration des performances

Garar, Djamel 01 1900 (has links) (PDF)
Les entrepôts de données jouent un rôle important dans la collecte et l'archivage d'une grande masse d'informations. Ces dernières sont utilisées dans la gestion et la prise des décisions pour des affaires stratégiques de l'entreprise. Cependant, l'exécution des requêtes complexes dans une grande masse d'information dégrade les performances du système d'entrepôt de données, dont la vitesse d'exécution des requêtes. Une des techniques les plus répandues pour remédier au problème précédent est de mettre en place un algorithme de compression de données. En effet, la compression de données permet d'une part de réduire le volume de données d'une table et d'autre part de charger et de traiter beaucoup des données en mémoire centrale et évite l'accès fréquent au disque de l'ordinateur. Aujourd'hui, il existe plusieurs systèmes de gestion de base de données qui intègrent différents algorithmes de compression de données. La plupart de ces algorithmes convergent vers une technique commune basée sur l'utilisation d'un dictionnaire de données. Ce dernier permet d'enregistrer une valeur unique correspondante aux données répétitives trouvées dans la table de données. Notre recherche dans ce mémoire vise, premièrement, à exploiter les algorithmes de compressions en particulier l'algorithme de compression de base de données Oracle; deuxièmement, à proposer un nouveau prototype de compression de données inspiré de l'approche Oracle. Ce prototype introduit un nouveau concept d'un dictionnaire hiérarchique. Ce dernier est défini par une structure hiérarchique contenant un super dictionnaire de données relié à plusieurs dictionnaires de données. Le super dictionnaire a pour rôle d'enregistrer toutes les valeurs communes entre les dictionnaires. La mise en œuvre de ce nouveau prototype a pour but de développer les techniques de compression de données et d'améliorer les performances de l'entrepôt de données. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Entrepôt de données (ACM 98, H.2.7), Compression (ACM 98, E.4), Dictionnaires (ACM 98, H.3.1), Performances (ACM 98, K.6.2).
2

Modelage de contexte simplifié pour la compression basée sur la transformée en cosinus discrète

Auclair Beaudry, Jean-Sébastien January 2009 (has links)
Le manque grandissant de médecins spécialistes à l'extérieur des grands centres influe négativement sur' la qualité des soins reçus par les patients. Une solution possible à ce problème est la supervision des médecins généralistes en région par des spécialistes disponibles dans les grands centres. Cette supervision à distance nécessite le développement de technologies répondant aux besoins précis de celle-ci. Dans le cadre de ce projet de recherche, la transmission de l'image est considérée. En vue de développer un codec vidéo adéquat pour l'application dans le futur, le codec intra-image est étudié. Plus précisément, le but recherché est de simplifier et de rendre parallélisable le codec AGU 1 [PONOMARENKO et coll., 2005] sans en réduire les performances en deça des performances de JPEG2000 [SxoDRAS et coll., 2001]. Ces améliorations facilitent la réalisation matérielle du codec en réduisant la latence si critique aux applications de télésupervision. Pour accomplir ces objectifs, le modelage du contexte du codec AGU doit être modifié. La méthodologie proposée passe par l'implémentation du codec AGU, l'étude de la source de données et la modification du modelage de contexte. La modification en question est le remplacement de l'utilisation d'une méthode adaptative basée sur un arbre de conditions par un réseau de neurones. Au terme de cette recherche, le réseau de neurones utilisé comme modeleur de contexte s'avère être un succès. Une structure à neuf entrées et aucune couche cachée est utilisée et permet de rendre presque triviale l'opération de modelage du contexte en gardant des performances supérieures à JPEG2000 en moyenne. La performance est inférieure à JPEG2000 pour une seule image de test sur cinq. Dans le futur, il est possible d'étudier comment améliorer davantage ce codec intra-image à travers l'utilisation d'un meilleur réseau de neurones ou d'une transformée différente. Il est également souhaitable d'étudier comment faire évoluer le codec en un codec inter-image.
3

Contributions à la cryptographie ADN : applications à la transmission sécurisée du texte et de l'image / Contributions to DNA cryptography : applications to text and image secure transmission

Tornea, Olga 13 November 2013 (has links)
La cryptographie ADN est un domaine nouveau et prometteur pour la sécurité de l'information. C'est une combinaison des solutions classiques de cryptographie avec les avantages du matériel génétique. En effet, il est possible de bénéficier des avantages des systèmes cryptographiques classiques et de les rendre plus efficaces sur certaines méthodes grâce à l’utilisation de l'ADN. Il y a différentes façons d'utiliser l'ADN pour sécuriser le contenu de l'information. Cette thèse propose deux solutions différentes pour utiliser l'ADN dans la cryptographie : sous sa forme biologique ou alors sous forme numérique. D ‘une part, l'ADN biologique peut être utilisé pour le stockage et pour cacher des données à l'intérieur de celui-ci. L'information secrète est placée dans une molécule de l'ADN et caché parmi d'autres molécules d'ADN. D’autre part, les nombres aléatoires peuvent être générés à partir de séquences numériques d'ADN. Ils représentent une solution pour la génération et la transmission des clés OTP (One-Time-Pad) symétriques. La transmission d'une très longue clé de cryptage n'est pas nécessaire, car chaque séquence possède un numéro d'identification unique dans la base de données. Ce numéro, ou une combinaison de ces numéros, peut alors être transmis. Enfin, la sécurité et la compression sont très importantes lors de la transmission et du stockage des données informatiques. Cependant, la plupart des systèmes de cryptage peuvent augmenter la taille des données, ou encore augmenter la complexité calcul. Ces inconvénients peuvent être résolus en combinant la compression de données avec le cryptage dans un seul processus ou en effectuant le cryptage sélectif des données. / DNA cryptography is a new and promising field in information security. It combines classical solutions in cryptography with the strength of the genetic material. By introducing DNA into the common symmetric key cryptography, it is possible to benefit from the advantages of the classical cryptosystems and solve some of its limitations. There are different ways how DNA can be used to secure information content. It is about using the biological medium of DNA for storing and hiding data. Secret information can be placed in microscopic size of DNA and hidden among a great amount of other DNA structures. Biomolecular computation is possible with specially designed DNA structures. Random numbers can be generated from DNA sequences which can be found in genetic databases in digital form. Genetic databases represent a feasible solution to the One-Time-Pad (OTP) symmetric key generation and transmission problem. The one-time use is ensured due to the great variety of the publicly available, very long (thousands of bases) sequences. Transmission of a very long key is not required because each sequence has a unique identification number in the database and this number can be sent instead. Compression along with information security have always been topics of interest because, as technology advances, the amount of data that is desired to be transmitted, stored, or used in real time applications is becoming greater. Some of the encryption schemes can increase the size of the data, or bring unwanted additional computations. These drawbacks can be solved by several techniques to combine compression with encryption in one process or by performing a selective encryption of the data.
4

REDUCTION DE PUISSANCE DURANT LE TEST PAR SCAN DES CIRCUITS INTEGRES

Badereddine, Nabil 15 September 2006 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la réduction de la consommation de puissance durant le test par scan des circuits intégrés. Le test par scan est une technique de conception en vue du test qui est largement utilisée, mais qui pose quelques problèmes. Elle nécessite en effet un nombre important de cycles d'horloge pour permettre le chargement, l'application, et le déchargement des données de test. Ces opérations engendrent une activité de commutation dans le circuit largement plus importante que celle rencontrée lors du fonctionnement normal. Cette forte activité lors du test peut avoir des conséquences graves sur le circuit telles qu'une baisse de sa fiabilité ou sa destruction pure et simple. L'objectif de cette thèse est de proposer des techniques permettant de réduire cette suractivité, en particulier durant la période comprise entre l'application d'un vecteur de test et la récupération de la réponse du circuit.
5

Contributions à la cryptographie ADN : applications à la transmission sécurisée du texte et de l'image

Tornea, Olga 13 November 2013 (has links) (PDF)
La cryptographie ADN est un domaine nouveau et prometteur pour la sécurité de l'information. C'est une combinaison des solutions classiques de cryptographie avec les avantages du matériel génétique. En effet, il est possible de bénéficier des avantages des systèmes cryptographiques classiques et de les rendre plus efficaces sur certaines méthodes grâce à l'utilisation de l'ADN. Il y a différentes façons d'utiliser l'ADN pour sécuriser le contenu de l'information. Cette thèse propose deux solutions différentes pour utiliser l'ADN dans la cryptographie : sous sa forme biologique ou alors sous forme numérique. D 'une part, l'ADN biologique peut être utilisé pour le stockage et pour cacher des données à l'intérieur de celui-ci. L'information secrète est placée dans une molécule de l'ADN et caché parmi d'autres molécules d'ADN. D'autre part, les nombres aléatoires peuvent être générés à partir de séquences numériques d'ADN. Ils représentent une solution pour la génération et la transmission des clés OTP (One-Time-Pad) symétriques. La transmission d'une très longue clé de cryptage n'est pas nécessaire, car chaque séquence possède un numéro d'identification unique dans la base de données. Ce numéro, ou une combinaison de ces numéros, peut alors être transmis. Enfin, la sécurité et la compression sont très importantes lors de la transmission et du stockage des données informatiques. Cependant, la plupart des systèmes de cryptage peuvent augmenter la taille des données, ou encore augmenter la complexité calcul. Ces inconvénients peuvent être résolus en combinant la compression de données avec le cryptage dans un seul processus ou en effectuant le cryptage sélectif des données.
6

Canevas de programmation pour gérer l'héterogénéité et la consommation d'énergie des mobiles dans un environnement ubiquitaire

Guan, Hongyu 01 June 2012 (has links) (PDF)
L'hétérogénéité des objets communicants et la consommation d'énergie sont deux considérations fondamentales pour les environnements informatiques ubiquitaires. Dans cette thèse, nous présentons notre approche pour gérer l'hétérogénéité et pour économiser l'énergie via des canevas de programmation dédiés. Pour gérer l'hétérogénéité, nous proposons une méthodologie et un support de programmation qui visent à faire communiquer les différents objets communicants de l'environnement ubiquitaire, et ce, en utilisant le protocole SIP considéré alors comme un bus de communication universel. Nous avons intégré ce bus SIP dans les canevas de programmation générés à partir des descriptions d'applications d'informatique ubiquitaire, écrites dans le langage DiaSpec. Concernant la consommation d'énergie, nous proposons une méthodologie qui utilise les techniques d'offloading et de compression de données pour minimiser la consommation d'énergie des applications mobiles. Nous avons ainsi construit une stratégie d'aide à la conception au travers d'un outil qui permet de déterminer le meilleur mode d'exécution pour une tâche donnée. Nous proposons l'intégration de cette stratégie dans le langage de description DiaSpec.
7

Compression de données de test pour architecture de systèmes intégrés basée sur bus ou réseaux et réduction des coûts de test / Test data compression for integrated systems architecture based on bus or network and test cost reduction

Dalmasso, Julien 01 October 2010 (has links)
Les circuits intégrés devenant de plus en plus complexes, leur test demande des efforts considérables se répercutant sur le coût de développement et de production de ces composants. De nombreux travaux ont donc porté sur la réduction du coût de ce test en utilisant en particulier les techniques de compression de données de test. Toutefois ces techniques n'adressent que des coeurs numériques dont les concepteurs détiennent la connaissance de toutes les informations structurelles et donc en pratique n'adressent que le test de sous-blocs d'un système complet. Dans cette thèse, nous proposons tout d'abord une nouvelle technique de compression des données de test pour les circuits intégrés compatible avec le paradigme de la conception de systèmes (SoC) à partir de fonctions pré-synthétisées (IPs ou coeurs). Puis, deux méthodes de test des systèmes utilisant la compression sont proposées. La première est relative au test des systèmes SoC utilisant l'architecture de test IEEE 1500 (avec un mécanisme d'accès au test de type bus), la deuxième concerne le test des systèmes pour lesquels la communication interne s'appuie sur des structures de type réseau sur puce (NoC). Ces deux méthodes utilisent conjointement un ordonnancement du test des coeurs du système avec une technique de compression horizontale afin d'augmenter le parallélisme du test des coeurs constituant le système et ce, à coût matériel constant. Les résultats expérimentaux sur des systèmes sur puces de référence montrent des gains de l'ordre de 50% sur le temps de test du système complet. / While microelectronics systems become more and more complex, test costs have increased in the same way. Last years have seen many works focused on test cost reduction by using test data compression. However these techniques only focus on individual digital circuits whose structural implementation (netlist) is fully known by the designer. Therefore, they are not suitable for the testing of cores of a complete system. The goal of this PhD work was to provide a new solution for test data compression of integrated circuits taking into account the paradigm of systems-on-chip (SoC) built from pre-synthesized functions (IPs or cores). Then two systems testing method using compression are proposed for two different system architectures. The first one concerns SoC with IEEE 1500 test architecture (with bus-based test access mechanism), the second one concerns NoC-based systems. Both techniques use test scheduling methods combined with test data compression for better exploration of the design space. The idea is to increase test parallelism with no hardware extra cost. Experimental results performed on system-on-chip benchmarks show that the use of test data compression leads to test time reduction of about 50% at system level.
8

Compression de Maillages à partir de la Géométrie

Lewiner, Thomas 16 December 2005 (has links) (PDF)
Les images ont envahi la plupart des publications et des communications contemporaines. Cette expansion s'est accélérés avec le développement de méthodes efficaces de compression spécifiques d'images. Aujourd'hui, la génération d'images s'appuie sur des objets multidimensionnels produits à partir de dessins assistés par ordinateurs, de simulations physiques, de représentations de données ou de solutions de problèmes d'optimisation. Cette variété de sources motive la conception de schémas dédiés de compression adaptés à des classes spécifiques de modèles. Ce travail présente deux méthodes de compression pour des modèles géométriques. La première code des ensembles de niveau en dimension quelconque, de manière directe ou progressive, avec des taux de compression au niveau de l'état de l'art pour les petites dimensions. La seconde méthode code des maillages de n'importe quelle dimension ou topologie, même sans être purs ou variété, plongés dans des espaces arbitraires. Les taux de compression pour les surfaces sont comparables aux méthodes usuelles de compression de maillages comme Edgebreaker.
9

Canevas de programmation pour gérer l'hétérogénéité et la consommation d'énergie des mobiles dans un environnement ubiquitaire / Managing heterogeneity and energy via high-level programming framework

Guan, Hongyu 01 June 2012 (has links)
L'hétérogénéité et l'énergie sont deux considérations fondamentales pour les environnements informatiques ubiquitaires. Dans cette thèse, nous présentons notre approche pour gérer l'hétérogénéité et pour économiser l'énergie via des canevas de programmation intégrés. Pour gérer l'hétérogénéité, nous proposons une méthodologie et un support de programmation qui vise à faire communiquer les différentes entités de l’environnement ubiquitaire en utilisant le protocole SIP considéré alors comme un bus logique universel de communication. Nous avons intégré ce bus SIP dans le langage de description d’architecture DiaSpec développé par notre équipe Phoenix. Concernant la consommation d’énergie, nous proposons une méthodologie qui utilise les techniques d’offloading et de compression de données pour minimiser la consommation d'énergie des applications mobiles. Nous avons ainsi construit une stratégie d’aide à la conception au travers d’un outil qui permet de déterminer le meilleur mode d’exécution pour une tâche donnée que nous proposons d’intégrer dans le langage de description DiaSpec. / The topics of heterogeneity and energy are two fundamental considerations for pervasive computing environments. Inthis thesis, we describe our approach to manage heterogeneity and to handle energy concerns via a high-level programming framework.To manage heterogeneity, we describe a methodology and a programming support that use the SIP protocol as a universal communication bus in pervasive computing environments. Ourwork enables homogeneous communications between heterogeneous distributed entities. In doing so, we integrate the SIP communication bus into our programming framework. We rely on adeclarative language named DiaSpec to describe the architecture of pervasive applications. This description is passed to a generator for producing a Java programming framework dedicated to the application area. We leverage the generated framework with SIP adaptations to raise the abstraction level of SIP operations.We then present a classification of a wide variety of entities interms of features, capabilities and network connectors. Based on this classification, a methodology and a programming supportare described for connecting entities on the SIP communication bus. This work has been validated by applications using theSIP communication bus to coordinate widely varying entities,including serial-based sensors (RS232, 1-Wire), ZigBee devices,X10 devices, PDA, native SIP entities, and software components.Regarding the energy concerns, we describe a methodology that uses two strategies, namely computation offloading and data compression, to minimize energy cost of mobile applications.In doing so, we present an execution and transfer model for atask of a mobile application and define its five different stubs forthree program execution and data transfer modes. Based on this model and our two strategies, we construct a strategy scheme to determine the most efficient stub in terms of energy consumption.We then design the OffDeci tool, using this strategy scheme, toprovide energy feedback for the developer and to analyze thebalance between local and remote computing with consideration of data compression. Our experimental study demonstrates thefeasibility of the strategy scheme of our approach. Finally, weextend DiaSpec with declarations dedicated to manage energy concerns during the application design phase. We sketched the integration of this energy-handling declaration and OffDeci intoour high-level programming framework. This integration permitsto determine the best stub of a declared DiaSpec component interms of its energy cost.
10

Single-pixel imaging : Development and applications of adaptive methods / Imagerie mono-pixel : Développement et applications de méthodes adaptatives

Rousset, Florian 27 October 2017 (has links)
L'imagerie mono-pixel est un concept récent qui permet l'obtention d'images à un coût relativement faible par une compression des données durant l'acquisition. L'architecture d'une caméra mono-pixel comprend seulement deux éléments, un modulateur spatial de la lumière et un détecteur ponctuel. L'idée est de mesurer, au niveau du détecteur, la projection de la scène observée -l'image- avec un certain motif. Le post-traitement d'une séquence de mesures obtenues avec différents motifs permet de restaurer l'image de la scène. L'imagerie mono-pixel possède plusieurs avantages qui sont d'un intérêt pour différentes applications, en particulier dans le domaine biomédical. Par exemple, une caméra mono-pixel résolue en temps bas coût est bénéfique pour l'imagerie de temps de vie de fluorescence. Un tel système peut également être couplé à un spectromètre afin de compléter le temps de vie avec une information spectrale. Cependant, la limite principale de l'imagerie mono-pixel est la vitesse d'acquisition et/ou de l'étape de restauration d'image qui est, à ce jour, non compatible avec des applications temps réel. Le but de cette thèse est de développer des méthodes rapides d'acquisition et de restauration des images à visée d'applications biomédicales. Tout d'abord, une stratégie d'acquisition basée sur les algorithmes de compression dans le domaine ondelettes est proposée. Celle-ci accélère le temps de restauration de l'image par rapport aux schémas d'acquisition classiques basés sur l'acquisition comprimée. Dans un second temps, une nouvelle méthode pour lever une contrainte expérimentale de positivité sur les motifs est détaillée. Comparée aux approches classiques, cette méthode basée sur une factorisation en matrices non-négatives permet de diviser par deux le nombre de motifs envoyés au modulateur spatial de la lumière, entrainant ainsi une division par deux du temps d'acquisition total. Enfin, l'applicabilité de ces techniques est démontrée pour de l'imagerie multispectrale et/ou résolue en temps, modalités courantes dans le domaine biomédical. / Single-pixel imaging is a recent paradigm that allows the acquisition of images at a reasonably low cost by exploiting hardware compression of the data. The architecture of a single-pixel camera consists of only two elements, a spatial light modulator and a single point detector. The key idea is to measure, at the detector, the projection (i.e., inner product) of the scene under view -the image- with some patterns. The post-processing of a measurements sequence obtained with different patterns permits to restore the desired image. Single-pixel imaging has several advantages, which are of interest for different applications, especially in the biomedical field. In particular, a time-resolved single-pixel imaging system benefits to fluorescence lifetime sensing. Such a setup can be coupled to a spectrometer to supplement lifetime with spectral information. However, the main limitation of single-pixel imaging is the speed of the acquisition and/or image restoration that is, as of today, not compatible with real-time applications. This thesis investigates fast acquisition/restoration schemes for single-pixel camera targeting biomedical applications. First, a new acquisition strategy based on wavelet compression algorithms is reported. It is shown that it can significantly accelerate image recovery compared to conventional schemes belonging to the compressive sensing framework. Second, a novel technique is proposed to alleviate an experimental positivity constraint of the modulation patterns. With respect to the classical approaches, the proposed non-negative matrix factorization based technique permits to divide by two the number of patterns sent to the spatial light modulator, hence dividing the overall acquisition time by two. Finally, the applicability of these techniques is demonstrated for multispectral and/or time-resolved imaging, which are common modalities in biomedical imaging.

Page generated in 0.0674 seconds