• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes de détection des régions cancéreuses dans des images obtenues par tomographie calculée / Methods for detection of cancerous regions in images obtained by computed tomography

Pham, Minh Hoan 30 September 2015 (has links)
La Tomographie Calculée (CT) est une technique non-invasive permettant de fournir des images de toutes les parties du corps humain sans superposition des structures adjacentes. Cette technique se base sur l'absorption de rayon X et permet la reconstruction d'images du corps humain. Les mesures avec CT à rayons X sont soumises à de nombreuses imperfections ou d'artefacts d'images qui comportent : bruit quantique, diffusion des rayons X par le patient, et des effets non linéaires de volume. Le traitement d'image est un outil indispensable pour améliorer le contraste et extraire d'une manière automatique les régions d'intérêts. L'analyse des données d'images CT est une aide à la décision pour l'apparition d'un cancer en phase naissante. La segmentation automatique de la tomographie calculée (CT) est une étape importante pour la chirurgie assistée qui requière à la fois une grande précision et une interaction minimale de l'utilisateur. Les tentatives d'utilisations de la segmentation, comprenant le seuillage (global et optimal), le filtrage, la segmentation par région de type watershead, et l'approche basée sur les contours actifs, ne sont pas pleinement satisfaisantes. Dans cette thèse, nous nous intéressons aux techniques d'extraction automatique des régions représentant les zones cancéreuses dans des images obtenues par la CT. Un nouvel algorithme basé sur la programmation dynamique, est proposé pour l'ajustement automatique des paramètres des contours actifs. Dans notre nouvelle approche, nous utilisons l'entropie pour l'estimation des paramètres alpha et beta de l'énergie interne. Pour obtenir des images pour l'identification des régions malignes, qui soient de meilleure qualité en terme de contraste, nous avons utilisé la fusion d'images à partir de la Transformée en ondelettes. Toutes ces méthodes ont été implémentées sous forme de plugins dans le logiciel GIMP. / Computed Tomography (CT) is a non-invasive technique which provides images of the human body without superposing adjacent structures. This technique is based on the absorption of X-rays by the human body. Analysis from X-ray absorption is subject to a variety of imperfections and image artifacts including quantum noise, X-rays scattered by the patient (absorptive environment), beam hardening, and nonlinear volume effects. Image processing is a crucial tool for contrast enhancement and region analysis. Analysis of CT images is a decision-making tool for cancer formation at an incipient phase. Segmentation of computed tomography (CT) images is an important step in image-guided surgery that requires both high accuracy and minimal user interaction. Previous attempts include thresholding (global and optimal), region growing (region competition, watershed segmentation), edge tracing, and parametric active contour (AC) approaches for segmentation, are not fully satisfying. In this dissertation we have been interested in the CT image processing methods to detect and analyze cancerous regions in phase II and III. A new algorithm, which hinges on dynamic programming, has been proposed for automatically extracting region of interest using adapted active contours. In our new approach, Entropy is used to estimate the parameters alpha and beta of the active contour internal energy. In order to enhance the image quality in terms of contrast and to understand more the regions of interest, image fusion is used. Image fusion is a process of combining multiple images into a single image containing more relevant information. We use Wavelet Transform and a specific Fusion Rule to identify and select relevant information of the process. All these methods have been implemented as plugins in GIMP software.
2

Méthodologie de conception de composants virtuels comportementaux pour une chaîne de traitement du signal embarquée

Savaton, Guillaume 10 December 2002 (has links) (PDF)
Les futures générations de satellites d'observation de la Terre doivent concilier des besoins croissants en résolution, précision et qualité des images avec un coût élevé de stockage des données à bord et une bande passante limitée des canaux de transmission. Ces contraintes imposent de recourir à de nouvelles techniques de compression des images parmi lesquelles le standard JPEG2000 est un candidat prometteur. Face à la complexité croissante des applications et des technologies, et aux fortes contraintes d'intégration - faible encombrement, faible consommation, tolérance aux radiations, traitement des informations en temps réel - les outils et méthodologies de conception et de vérification classiques apparaissent inadaptés à la réalisation des systèmes embarqués dans des délais raisonnables. Les nouvelles approches envisagées reposent sur une élévation du niveau d'abstraction de la spécification d'un système et sur la réutilisation de composants matériels pré-définis et pré-vérifiés (composants virtuels , ou blocs IP pour Intellectual Property). Dans cette thèse, nous nous intéressons à la conception de composants matériels réutilisables pour des applications intégrant des fonctions de traitement du signal et de l'image. Notre travail a ainsi consisté à définir une méthodologie de conception de composants virtuels hautement flexibles décrits au niveau comportemental et orientés vers les outils de synthèse de haut niveau. Nous avons expérimenté notre méthodologie sur l'implantation sous forme d'un composant virtuel comportemental d'un algorithme de transformation en ondelettes bidimensionnelle pour la compression d'images au format JPEG2000.
3

Sécurisation de la communication parlée par une techhnique stéganographique / A technique for secure speech communication using steganography

Rekik, Siwar 16 April 2012 (has links)
Une des préoccupations dans le domaine des communications sécurisées est le concept de sécurité de l'information. Aujourd’hui, la réalité a encore prouvé que la communication entre deux parties sur de longues distances a toujours été sujet au risque d'interception. Devant ces contraintes, de nombreux défis et opportunités s’ouvrent pour l'innovation. Afin de pouvoir fournir une communication sécurisée, cela a conduit les chercheurs à développer plusieurs schémas de stéganographie. La stéganographie est l’art de dissimuler un message de manière secrète dans un support anodin. L’objectif de base de la stéganographie est de permettre une communication secrète sans que personne ne puisse soupçonner son existence, le message secret est dissimulé dans un autre appelé medium de couverture qui peut être image, video, texte, audio,…. Cette propriété a motivé les chercheurs à travailler sur ce nouveau champ d’étude dans le but d’élaborer des systèmes de communication secrète résistante à tout type d’attaques. Cependant, de nombreuses techniques ont été développées pour dissimuler un message secret dans le but d’assurer une communication sécurisée. Les contributions majeures de cette thèse sont en premier lieu, de présenter une nouvelle méthode de stéganographie permettant la dissimulation d’un message secret dans un signal de parole. La dissimulation c’est le processus de cacher l’information secrète de façon à la rendre imperceptible pour une partie tierce, sans même pas soupçonner son existence. Cependant, certaines approches ont été étudiées pour aboutir à une méthode de stéganogaraphie robuste. En partant de ce contexte, on s’est intéressé à développer un système de stéganographie capable d’une part de dissimuler la quantité la plus élevée de paramètre tout en gardant la perceptibilité du signal de la parole. D’autre part nous avons opté pour la conception d’un algorithme de stéganographie assez complexe afin d’assurer l’impossibilité d’extraction de l’information secrète dans le cas ou son existence été détecter. En effet, on peut également garantir la robustesse de notre technique de stéganographie à l’aptitude de préservation du message secret face aux tentatives de détection des systèmes de stéganalyse. Notre technique de dissimulation tire son efficacité de l’utilisation de caractéristiques spécifiques aux signaux de parole et àl’imperfection du système auditif humain. Des évaluations comparatives sur des critères objectifs et subjectifs de qualité sont présentées pour plusieurs types de signaux de parole. Les résultats ont révélé l'efficacité du système développé puisque la technique de dissimulation proposée garantit l’imperceptibilité du message secret voire le soupçon de son existence. Dans la suite expérimentale et dans le même cadre de ce travail, la principale application visée par la thèse concerne la transmission de parole sécurisée par un algorithme de stéganographie. Dans ce but il s’est avéré primordial d’utiliser une des techniques de codage afin de tester la robustesse de notre algorithme stéganographique face au processus de codage et de décodage. Les résultats obtenus montrent la possibilité de reconstruction du signal original (contenant des informations secrètes) après codage. Enfin une évaluation de la robustesse de notre technique de stéganographie vis à vis des attaques est faite de façon à optimiser la technique afin d'augmenter le taux de sécurisation. Devant cette nécessité nous avons proposé une nouvelle technique de stéganalyse basée sur les réseaux de neurones AR-TDNN. La technique présentée ici ne permet pas d'extraire l'éventuel message caché, mais simplement de mettre en évidence sa présence. / One of the concerns in the field of secure communication is the concept of information security. Today’s reality is still showing that communication between two parties over long distances has always been subject to interception. Providing secure communication has driven researchers to develop several cryptography schemes. Cryptography methods achieve security in order to make the information unintelligible to guarantee exclusive access for authenticated recipients. Cryptography consists of making the signal look garbled to unauthorized people. Thus, cryptography indicates the existence of a cryptographic communication in progress, which makes eavesdroppers suspect the existence of valuable data. They are thus incited to intercept the transmitted message and to attempt to decipher the secret information. This may be seen as weakness in cryptography schemes. In contrast to cryptography, steganography allows secret communication by camouflaging the secret signal in another signal (named the cover signal), to avoid suspicion. This quality motivated the researchers to work on this burning field to develop schemes ensuring better resistance to hostile attackers. The word steganography is derived from two Greek words: Stego (means cover) and graphy (means writing). The two combined words constitute steganography, which means covert writing, is the art of hiding written communications. Several steganography techniques were used to send message secretly during wars through the territories of enemies. The major contributions of this thesis are the following ones. We propose a new method to secure speech communication using the Discrete Wavelet Transforms (DWT) and the Fast Fourier Transform (FFT). Our method exploits first the high frequencies using a DWT, then exploits the low-pass spectral properties of the speech magnitude spectrum to hide another speech signal in the low-amplitude high-frequencies region of the cover speech signal. The proposed method allows hiding a large amount of secret information while rendering the steganalysis more complex. Comparative evaluation based on objective and subjective criteria is introduced for original speech signal, stego-signal and reconstructed secret speech signal after the hiding process. Experimental simulations on both female and male speakers revealed that our approach is capable of producing a stego speech that is indistinguishable from the cover speech. The receiver is still able to recover an intelligible copy of the secret speech message. We used an LPC10 coder to test the effect of the coding techniques on the stego-speech signals. Experimental results prove the efficiency of the used coding technique since intelligibility of the stego-speech is maintained after the encoding and decoding processes. We also advocate a new steganalysis technique to ensure the robustness of our steganography method. The proposed classifier is called Autoregressive time delay neural network (ARTDNN). The purpose of this steganalysis system is to identify the presence or not of embedded information, and does not actually attempt to extract or decode the hidden data. The low detecting rate prove the robustness of our hiding technique.

Page generated in 0.1727 seconds