• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 36
  • 10
  • Tagged with
  • 128
  • 128
  • 74
  • 68
  • 34
  • 32
  • 27
  • 27
  • 21
  • 18
  • 16
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Segmentation automatique d'images sur des critères géométriques, application à l'inspection visuelle de produits agroalimentaires / Automated segmentation of images using geometrical criteria, application on image processing for good inspection

Dubosclard, Pierre 25 January 2016 (has links)
À l’échelle mondiale, la récolte de céréales atteint plusieurs milliards de tonnes chaque année. Les producteurs céréaliers échangent leurs récoltes selon un prix déterminé par la qualité de leur production. Cette évaluation, appelée agréage, est réalisée pour chaque lot sur un échantillon jugé représentatif. La difficulté au cours de cette évaluation est de parvenir à parfaitement caractériser l'échantillon. Il faut pour cela qualifier chacun de ses éléments, en d'autres termes, il est nécessaire d'évaluer chaque grain de céréale de manière individuelle. Cette opération est historiquement réalisée par un opérateur qui isole chaque grain manuellement pour l’inspecter et l'évaluer. Ce procédé est exposé à différents problèmes : d'une part les résultats obtenus par un opérateur ne sont pas parfaitement répétables : son état de fatigue visuelle peut influencer son appréciation ; d'autre part l'évaluation dépend de l'opérateur : elle n'est pas reproductible, les résultats peuvent varier d'un opérateur à l'autre. Cette thèse a donc pour but de mettre au point un système capable de réaliser cette inspection visuelle.Le système d’acquisition est présenté dans un premier temps. Cette enceinte contient les dispositifs d’éclairage et d’acquisition d’images. Différents outils ont été mis en œuvre pour s’assurer de la justesse et de la stabilité des acquisitions. Une méthode d’apprentissage de modèles de forme est ensuite présentée : elle a pour but de définir et de modéliser le type de forme des grains de l’application considérée (blé, riz, orge). Cette étape est réalisée sur une image d’objets isolés. Deux méthodes de détection sont ensuite présentées : une approche déterministe et une approche probabiliste. Ces deux méthodes, mises au point pour segmenter les objets d’une image, utilisent des outils communs bien qu’elles soient conçues différemment. Les résultats obtenus et présentés dans cette thèse démontrent la capacité du système automatique à se positionner comme une solution fiable à la problématique d’inspection visuelle de grains de céréales. / In agriculture, the global grain harvest reached several billion tons each year. Cereal producers exchange their crops at a price determined by the quality of their production. This assessment, called grading, is performed for each set on a representative sample. The difficulty of this assessment is to fully characterize the sample. To do so, it is necessary to qualify each of its elements. In other words, it is necessary to evaluate each individual cereal grain. Historically, this has been performed manually by an operator who isolates each evaluated grain. This method is exposed to various problems: firstly, results obtained by an operator are not perfectly repeatable. For example, eyestrain can influence the assessment. On the other hand the evaluation depends on the operator: it is not reproducible. The results can vary from one operator to another. The aim of this thesis is to develop a system that can handle this visual inspection. In a first time, the acquisition system is introduced. Image acquisition and lighting parts are placed in a cabin. Several methods have been introduced to manage accuracy and stability of the acquisitions. Then, a shape model learning is detailed: this step, based on an image with manually separated objects, defines and modelizes shape of the considered cereal grains (wheat, rice, barley). Two detection approaches are then introduced: a deterministic method and a probabilistic one. Both are based on the same tools to process the objects segmentation of an image, but they deal with the question in a different way. The results provided by the system and presented in this thesis emphasize the ability of this automatic system to process the visual inspection of food products.
2

Relevé de planètes géantes autour d'étoiles proches par imagerie directe et optimisation d'une technique d'imagerie multibande

Lafrenière, David January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
3

Traitement logarithmique d’images couleur / Color Logarithmic Image Processing

Gouinaud, Hélène 05 April 2013 (has links)
Cette thèse de doctorat porte sur l'extension du modèle LIP (Logarithmic Image Processing) aux images en couleurs. Le modèle CoLIP (Color Logarithmic Image Processing) est défini, étudié et appliqué au traitement d'image dans ce manuscrit.Le modèle LIP est un cadre mathématique original complet, développé pour le traitement d'images à niveaux de gris, rigoureusement établi mathématiquement, compatible avec les lois physiques de formation d'image, et mieux adapté que l'approche classique pour modéliser la perception visuelle humaine de l'intensité de la lumière. Après une étude de la vision des couleurs et de la science des couleurs, le modèle CoLIP est construit en suivant les étapes de la perception humaine des couleurs, tout en intégrant le cadre mathématique du modèle LIP. Dans un premier temps, le CoLIP est construit en suivant les étapes de la photoréception, de la compression lumineuse et du codage antagoniste. Il est donc développé comme un espace couleur représentant une image couleur par un ensemble de trois fonctions de tons antagonistes, sur lesquelles sont définies les opérations CoLIP d'addition et de multiplication par un scalaire, qui confèrent à cet espace couleur la structure d'espace vectoriel couleur. Ensuite, l'espace couleur CoLIP étant un espace de type luminance-chrominance uniforme, les attributs relatifs et absolus de la perception humaine des couleurs (teinte, chroma, coloration, luminosité, clarté, et saturation) peuvent être définis. Cette construction fait du CoLIP à la fois un espace vectoriel couleur bien structuré mathématiquement, et un modèle d'apparence couleur. Dans un deuxième temps, un grand nombre de justifications physiques, mathématiques, et psychophysiques du modèle CoLIP sont proposées, notamment la comparaison des formes des ellipses de MacAdam dans l'espace de couleur uniforme CoLIP et dans d'autres modèles uniformes, sur des critères d'aire et d'excentricité des ellipses. Enfin, diverses applications utilisant la structure d'espace vectoriel couleur du modèle CoLIP sont proposées, telles que le rehaussement de contraste, le rehaussement d'image et la détection de contour. Des applications utilisant la structure de modèle d'apparence couleur, qui permet de travailler sur les notions de teinte, de luminosité et de saturation, sont également développées. Une application spécifique permettant de mesurer la viabilité des cellules sur des images de lames obtenues par cytocentrifugation et marquage couleur est également proposée. / This doctoral thesis introduces the extension of the LIP (Logarithmic Image Processing) model to color images. The CoLIP (Color Logarithmic Image Processing) model is defined, studied and applied to image processing in this manuscript. The Logarithmic Image Processing (LIP) approach is a mathematical framework developed for the representation and processing of images valued in a bounded intensity range. The LIP theory is physically and psychophysically well justified since it is consistent with several laws of human brightness perception and with the multiplicative image formation model. Following a study of color vision and color science, the CoLIP model is constructed according to the human color perception stages, while integrating the mathematical framework of the LIP.Initially, the CoLIP is constructed by following the photoreception, non-linear cone compression, and opponent processing human color perception steps. It is developed as a color space representing a color image by a set of three antagonists tones functions, that can be combined by means of specific CoLIP operations: addition, scalar multiplication, and subtraction, which provide to the CoLIP framework a vector space structure. Then, as the CoLIP color space is a luminance-chrominance uniform color space, relative and absolute perception attributes (hue, chroma, colorfulness, brightness, lightness, and saturation) can be defined. Thus, the CoLIP framework combines advantages of a mathematically well structured vector space, and advantages of a color appearance model. In a second step, physical, mathematical, physiological and psychophysical justifications are proposed including a comparison of MacAdam ellipses shapes in the CoLIP uniform model, and in other uniform models, based on ellipses area and eccentricity criterions. Finally, various applications using the CoLIP vector space structure are proposed, such as contrast enhancement, image enhancement and edge detection. Applications using the CoLIP color appearance model structure, defined on hue, brightness and saturation criterions are also proposed. A specific application dedicated to the quantification of viable cells from samples obtained after cytocentrifugation process and coloration is also presented.
4

Architectures matérielles pour filtres morphologiques avec des grandes éléments structurants

Bartovsky, Jan 14 November 2012 (has links) (PDF)
Cette thèse se concentre sur la mise en œuvre d'implantations matérielles dédiées des filtres morphologiques fondamentaux, basés sur des itérations d'érosions/dilatations. L'objectif principal de cette thèse est de proposer une mise en oeuvre efficace et programmable de ces opérateurs en utilisant des algorithmes en flot de données et considérant les besoins applicatifs globaux. Dans la première partie, nous étudions les algorithmes existants pour les opérateurs morphologiques fondamentaux et leur réalisation sur des différentes plates-formes informatiques. Nous nous intéressons plus particulièrement à un algorithme basé sur la file d'attente pour la mise en œuvre de la dilatation car il permet de réaliser l'accès séquentiel aux données avec une latence minimale, ce qui est très favorable pour le matériel dédié. Nous proposons ensuite un autre algorithme réalisant l'ouverture morphologique, sous angle arbitraire, basé sur le même principe d'une file d'attente, permettant d'obtenir directement des mesures de granulométrie. La deuxième partie présente la mise en oeuvre matérielle des algorithmes efficaces au moyen d'unités de traitement à flot de données. Nous commençons par l'unité de dilatation 1-D, puis grâce à la séparabilité de la dilatation nous construisons des unités 2-D rectangulaire et polygonale. L'unité de traitement pour l'ouverture orientée et spectre modèle est ainsi décrit. Nous présentons également une méthode de parallélisation de calcul en dupliquant des unités de traitement. Toutes les unités de traitement proposés sont évalués expérimentalement par la réalisation des prototypes à base de circuits programmables (FPGA), et les résultats en termes d'occupation de surface et de vitesse de traitement sont discutées. Dans la troisième partie, les unités de calcul proposées sont utilisées dans deux applications différentes, illustrant ainsi leur capacité de répondre exigences des applications embarquées a basse consommation. Les principales contributions de cette thèse sont : i) proposition d'un nouvel algorithme d'ouverture sous angle arbitraire, ii) réalisation des architectures matérielles dédiées et programmables d'opérateurs morphologiques fondamentaux à l'élément structurant large et sous angle arbitraire ; iii) amélioration de la performance obtenue grâce à l'exploitation de plusieurs niveaux de parallélisme. Les résultats suggèrent que les performances de temps réel précédemment irréalisable de ces opérateurs traditionnellement coûteux peuvent être atteints même pour des longues concaténations d'opérateurs ou des images à haute résolution.
5

Caractérisation de la concentration et de la température d'un nuage de gaz par thermographie infrarouge : application à l'analyse des effluents gazeux / Characterization of concentration and temperature of a gas cloud by infrared thermography : application to the analysis of gaseous effluents

Alshunaifi, Ibrahim 09 February 2011 (has links)
La thèse porte sur la cratérisation par télédétection de la température et de la concentration d’un nuage de gaz. La thermographie infrarouge est le moyen passif utilisé pour détecter dans un premier temps et quantifier dans un deuxième temps le gaz recherché. Après avoir analysé des paramètres intervenant dans l’équation de transfert radiatif de gaz, l’étude présente le résultat de simulation de plusieurs sources (moteurs, fuite de gaz,…).Différentes voies d’amélioration de l’imagerie donnée par une caméra sont proposées : filtrage optique à une ou deux longueurs d’onde, filtrage temporel par analyse des fréquences. Un appareillage hyperspectral a aussi été développé à partir de la conjugaison d’un spectromètre à transformée de Fourier ayant pour «détecteur» une caméra matricielle sensible dans l’infrarouge. L’ensemble des solutions proposées permet de gagner un facteur 10 à 50 sur la détection de sources. Un exemple quantitatif est en fin proposé : la détermination du volume de CO2 expiré par un sportif pendant un effort fourni. Ce volume augmente au cours de l’effort. Ce travail conduit donc à des applications de mesures sans contact en biométrie. / The thesis focuses on the cratering of the temperature and the concentration of a gas cloud. The Infrared thermography is the means used at first to detect passive and second step in quantifying the target gas. After analyzing the parameters involved in the equation of radiatif transfer of gas, the study presents the simulation result from several sources (engines, gas leak ...). Different ways of improvement of imaging data by a camera are available : optical filtering in one or two wavelengths, temporal filtering by frequency analysis. hyperspectral equipment was also developed from the combination of a Fourier transform spectrometer with the "detector" a matrix camera sensitive in the infrared. All solutions can save a factor of 10 to 50 on the detection of sources. A quantitative example is finally proposed : determining the volume of CO2 exhaled by an athlete during an effort. This volume increases during exercise. This work therefore leads to non-contact measurement applications in biometrics.
6

Reconstruction du signal ou de l'état basé sur un espace de mesure de dimension réduite / Signal state Reconstruction from Lower-dimensional Measurements

Yu, Lei 20 November 2011 (has links)
Le 21_eme siècle est le siècle de l'explosion informatique, des milliards de Données sont produites, collectées et stockées dans notre vie quotidienne. Les façons de collecter les ensembles de données sont multiples mais toujours en essayant d'optimiser le critère qui consiste _a avoir le maximum d'information dans le minimum de données numérique. Il est préférable de collecter directement l'information, car les informations étant contraintes sont dans un espace plus faible que celui où évolues les données (signaux ou états). Cette méthode est donc appelée \la collecte de l'information", et conceptuellement peut ^être résumée dans les trois étapes suivantes : (1) la modélisation, ceci consiste _a condenser l'information pertinente pour les signaux _a un sous-espace plus petit; (2) l'acquisition, ceci consiste _a collecter et préserver l'information dans un espace inferieur _a la dimension des données et (3) la restauration, ceci consiste _a reconstituer l'information dans son espace d'origine. En suivant cette pensée, les principales contributions de cette thèse, concernant les observateurs et le \Compressive Sensing" (CS) basé sur des modèles bay_esiens peuvent ^être unies dans le cadre de la collecte de l'information : les principaux problèmes concernés par ces deux applications peuvent ^être de façon analogue, scindés en les trois étapes sus- mentionnées. Dans la première partie de la th_ese, le problème réside dans le domaine des systèmes dynamiques où l'objectif est de retrouver l'état du système _a partir de la mesure de la sortie. Il nous faut donc déterminer si les états du système sont récupérables _a partir des mesures de la sortie et de la connaissance partielle ou totale du modèle dynamique, c'est le problème de l'observabilité. Ensuite de transposer notre problème dans une représentation plus appropriée, c'est l'écriture sous forme normale et en récupérer l'information, c'est la phase de synthèse d'observateur. Plus précisément dans cette partie, nous avons considéré une classe de systèmes à commutation haute fréquence allant jusqu'au phénomène de Zénon. Pour ces deux types de commutation les transitions de l'état discret sont considérées trop élevées pour ^être mesurées. Toutefois, la valeur moyenne obtenue par filtrage des transitions peut ^être acquise ce qui donne une connaissance partielle des états discrets. Ici, avec ces seuls informations partielles, nous avons discuté de l'observabilité et ceci par les approches géométrie différentielle et algébrique. Aussi, des observateurs ont été proposes par la suite. Dans la deuxième partie de cette thèse, nous avons abordé de la même manière le thème du CS qui est une alternative efficace à l'acquisition abondante de données faiblement informatives pour ensuite les compresser. Le CS se propose de collecter l'information directement de façon compressée, ici les points clés sont la modélisation du signal en fonction des connaissances a priori dont on dispose, ainsi que la construction d'une matrice de mesure satisfaisant la \restricted isometry property" et finalement la restauration des signaux originaux clairsemés en utilisant des algorithmes d'éparpillement régularisé et d'inversion linéaire. Plus précisément, dans cette seconde partie, en considérant les propriétés du CS liées _a la modélisation, la capture et la restauration, il est proposé : (1) d'exploiter les séquences chaotiques pour construire la matrice de mesure qui est appelée la matrice chaotique de mesure, (2) considérer des types de modèle de signal clairsemé et reconstruire le modèle du signal à partir de ces structures sous-jacentes des modèles clairsemés, et (3) proposer trois algorithmes non paramétriques pour la méthode bayesienne hiérarchique. Dans cette dernière partie, des résultats expérimentaux prouvent d'une part que la matrice chaotique de mesure a des propriétés semblables aux matrices aléatoires sous-gaussienne et d'autre part que des informations supplémentaires sur les structures sous-jacentes clairsemés améliorent grandement les performances de reconstruction du signal et sa robustesse vis-a-vis du bruit. / This is the era of information-explosion, billions of data are produced, collected and then stored in our daily life. The manners of collecting the data sets are various but always following the criteria { the less data while the more information. Thus the most favorite way is to directly measure the information, which, commonly, resides in a lower dimensional space than its carrier, namely, the data (signals or states). This method is thus called information measuring, and conceptually can be concluded in a framework with the following three steps: (1) modeling, to condense the information relevant to signals to a small subspace; (2) measuring, to preserve the information in lower dimensional measurement space; and (3) restoring, to reconstruct signals from the lower dimensional measurements. From this vein, the main contributions of this thesis, saying observer and model based Bayesian compressive sensing can be well uni_ed in the framework of information measuring: the main concerned problems of both applications can be decomposed into the above three aspects. In the _rst part, the problem is resided in the domain of control systems where the objective of observer design is located in the observability to determine whether the system states are recoverable and observation of the system states from the lower dimensional measurements (commonly but not restrictively). Speci_cally, we considered a class of switched systems with high switching frequency, or even with Zeno phenomenon, where the transitions of the discrete state are too high to be captured. However, the averaged value obtained through filtering the transitions can be easily sensed as the partial knowledge. Consequently, only with this partial knowledge, we discussed the observability respectively from differential geometric approach and algebraic approach and the corresponding observers are designed as well. At the second part, we switched to the topic of compressive sensing which is objected to sampling the sparse signals directly in a compressed manner, where the central fundamentals are resided in signal modeling according to available priors, constructing sensing matrix satisfying the so-called restricted isometry property and restoring the original sparse signals using sparse regularized linear inversion algorithms. Respectively, considering the properties of CS related to modeling, measuring and restoring, we propose to (1) exploit the chaotic sequences to construct the sensing matrix (or measuring operator) which is called chaotic sensing matrix, (2) further consider the sparsity model and then rebuild the signal model to consider structures underlying the sparsity patterns, and (3) propose three non-parametric algorithms through the hierarchical Bayesian method. And the experimental results prove that the chaotic sensing matrix is with the similar property to sub-Gaussian random matrix and the additional consideration on structures underlying sparsity patterns largely improves the performances of reconstruction and robustness.
7

Le Modèle elliptique de l'équation d'osmose et ses applications / The Elliptic Osmosis Model and its Applications

De Masson d'Autume, Marie 18 July 2019 (has links)
Cette thèse étudie le modèle elliptique de l'équation d'osmose et plusieurs de ses applications, en particulier la texturation de modèles 3Ds à partir d'image satellite multi-dates. L'équation d'osmose est similaire à l'équation de Poisson mais est invariante aux changements d'illuminations. Elle a été introduite dans le cadre du traitement d'image dans un modèle parabolique et résolue pour un domaine avec conditions au bord de Neumann.Le premier chapitre expose le modèle elliptique et donne des résultats théoriques pour plusieurs des problèmes au bord associés : conditions de Dirichlet, de Neumann et conditions mixtes. Sont prouvés en particulier l'existence et unicité d'une solution à ces problèmes, à une constante multiplicative près dans le cas de conditions de Neumann. Ces résultats sont étendus au cas de variétés ayant une seule carte locale.Le deuxième chapitre donne ces mêmes résultats pour le cas discret. Il est difficile pour un domaine arbitraire d'implémenter des conditions de Neumann ou des conditions mixtes avec la méthode des différences finies classique. Une formulation par graphe est par conséquent proposée qui facilite considérablement la manipulation des différentes conditions au bord. Cette formulation a également l'avantage de pouvoir être applicable sans changements à un maillage triangulaire.Le troisième chapitre présente différentes applications de l'équation d'osmose : le seamless cloning, la suppression d'ombres et la fusion d'images. Pour le seamless cloning, les résultats sont comparés à ceux obtenus avec Poisson editing. Ils montrent l'intérêt de l'invariance aux changements d'illumination dans le cas d'images d'entrées à contrastes très différents. Cette partie montre aussi les raisons de préférer résoudre l'équation localement avec conditions de Dirichlet plutôt que sur toute l'image avec conditions de Neumann.C'est pour le cas de la suppression d'ombres que l'importance des conditions mixtes apparaît comme elles permettent de traiter à la fois les ombres propres et les ombres portées.Ce chapitre propose aussi plusieurs méthodes pour la fusion de plus de deux images. Sont comparés en particulier les résultats obtenus par une fusion directe des couleurs et ceux obtenus par une fusion à base d'EDPs.Les méthodes développées pour le seamless cloning et la suppression d'ombres sont ensuite appliquées au cas particulier de la restoration digitale d'enluminures médiévales censurées. Cette application est présentée dans le quatrième chapitre et nécessite elle aussi l'usage de conditions au bord mixtes. Ce chapitre propose également une méthode à base d'inpainting pour la restauration d'enluminures endommagées.Le dernier chapitre propose une chaîne de traitement pour la création et la texturation d'un maillage à partir d'images satellites multi-dates. Les ombres sont automatiquement détectées pour un traitement différent des ombres propres et des ombres portées. La texture finale est une fusion l'aide de l'équation d'osmose des images satellites pondérée par la présence d'ombres et l'orientation du satellite. / This thesis deals with the elliptic osmosis equation and several of itsapplications. One application in particular is the texturation of 3D modelswith multi-date satellite images. The osmosis equation is similar to Poissonequation but with an illumination-invariant data term. It was first introduced forimage editing in a parabolic formulation for a domain with Neumann boundaryconditions.The first chapter describes the elliptic formulation of the osmosis model andseveral of its associated boundary-value problems: Dirichlet, Neumann and mixedboundary-value conditions. Theoretical results for the existence and uniquenessof solutions to these problems are proved for regular domains. These resultsare extended to manifolds with one local chart. The second chapter gives thesame results for the discrete case. For arbitrary domains, Neumann and mixedboundary conditions are difficult to implement with a classic finite differencescheme. For this reason a graph formulation of the problem is introduced thatallows much more flexibility for the manipulation of these boundary conditions.Unlike a finite difference scheme this formulation can be directlyapplied to triangular meshes.The third chapter presents applications of the elliptic osmosis model to theproblems of seamless cloning, shadow removal and image fusion. For seamlesscloning the results are compared to the ones obtained with Poisson editing. Thisshows the interest of having an illumination-invariant term when dealing withinput images whose contrasts are very different. The experiments also presenttheadvantages of solving the problem locally with Dirichlet conditions instead ofon the whole image domain with Neumann boundary conditions.The illumination-invariance of the equation encourages its use for the problemof shadow removal. This application showcases the interest of using mixed boundaryconditions as it allows the user to deal with both cast and attached shadows.This chapter also shows several methods to fuse more than two images of ascene. Several aggregator functions are proposed and the results of thedifferent fusions are compared. It illustrates the interest of PDE-based fusionover the simple fusion of the colour information.A more concrete application related to art is presented in the fourth chapter:the digital restoration of censored medieval illuminations when infraredreflectograms are provided along with the colour images. This applicationneeds the use of the methods already described for seamless cloning andshadow removal. It also showcases the importance of mixed boundary conditions.The last chapter proposes a pipeline to texture a given 3D model frommulti-date satellite images. We automatically detect the shadows,distinguishing the cast and attached shadows. The final texture is a PDE basedfusion of the satellite images weighted by the presence of shadows and theorientation of the satellite sensor.
8

Routage pour la gestion de l'énergie dans les réseaux de capteurs sans fil

Yousef, Yaser 08 July 2010 (has links) (PDF)
Avec l'émergence des nouvelles technologies, les communications sans fil n'ont cessé de croître afin de permettre aux utilisateurs un accès à l'information et aux services électroniques, et ceci indépendamment de leur position géographique. Les réseaux sans fil ont aussi trouvé leur place pour des applications spécifiques telles que les transmissions radio utilisées pour l'interconnexion de capteurs. Ce type de réseau peut être considéré comme un sous-ensemble des réseaux ad hoc. Des contraintes spécifiques s'appliquent alors aux utilisateurs de ces réseaux, telles que la difficulté d'accès pour la maintenance, les problèmes liés à la miniaturisation et au nombre élevé de capteurs. L'objectif de cette thèse est d'étudier les contraintes énergétiques liées à l'utilisation des batteries à capacité limitée pour l'alimentation des capteurs. Pour atteindre cet objectif, nous avons proposé de représenter les réseaux de capteurs à travers une image à échelle de gris : les zones claires correspondant aux zones riches en énergie, alors que les zones sombres représentent des régions avec une capacité énergétique faible. Des filtres issus du monde de traitement d'image sont alors appliqués à cette image représentant l'énergie. Ainsi, nous proposons des filtres de convolution de type Sobel ou de type filtre moyen pour nos algorithmes de routage et nous construisons une matrice énergétique pour chaque capteur. Cette matrice est alors utilisée avec le produit de convolution pour guider le routage. Les différents algorithmes proposés font ensuite l'objet de simulations avec le simulateur de réseaux OMNeT++.
9

Hardware architectures for morphological filters with large structuring elements / Architectures matérielles pour filtres morphologiques avec des grandes éléments structurants

Bartovsky, Jan 14 November 2012 (has links)
Cette thèse se concentre sur la mise en œuvre d'implantations matérielles dédiées des filtres morphologiques fondamentaux, basés sur des itérations d'érosions/dilatations. L'objectif principal de cette thèse est de proposer une mise en oeuvre efficace et programmable de ces opérateurs en utilisant des algorithmes en flot de données et considérant les besoins applicatifs globaux. Dans la première partie, nous étudions les algorithmes existants pour les opérateurs morphologiques fondamentaux et leur réalisation sur des différentes plates-formes informatiques. Nous nous intéressons plus particulièrement à un algorithme basé sur la file d'attente pour la mise en œuvre de la dilatation car il permet de réaliser l'accès séquentiel aux données avec une latence minimale, ce qui est très favorable pour le matériel dédié. Nous proposons ensuite un autre algorithme réalisant l'ouverture morphologique, sous angle arbitraire, basé sur le même principe d'une file d'attente, permettant d'obtenir directement des mesures de granulométrie. La deuxième partie présente la mise en oeuvre matérielle des algorithmes efficaces au moyen d'unités de traitement à flot de données. Nous commençons par l'unité de dilatation 1-D, puis grâce à la séparabilité de la dilatation nous construisons des unités 2-D rectangulaire et polygonale. L'unité de traitement pour l'ouverture orientée et spectre modèle est ainsi décrit. Nous présentons également une méthode de parallélisation de calcul en dupliquant des unités de traitement. Toutes les unités de traitement proposés sont évalués expérimentalement par la réalisation des prototypes à base de circuits programmables (FPGA), et les résultats en termes d'occupation de surface et de vitesse de traitement sont discutées. Dans la troisième partie, les unités de calcul proposées sont utilisées dans deux applications différentes, illustrant ainsi leur capacité de répondre exigences des applications embarquées a basse consommation. Les principales contributions de cette thèse sont : i) proposition d'un nouvel algorithme d'ouverture sous angle arbitraire, ii) réalisation des architectures matérielles dédiées et programmables d'opérateurs morphologiques fondamentaux à l'élément structurant large et sous angle arbitraire ; iii) amélioration de la performance obtenue grâce à l'exploitation de plusieurs niveaux de parallélisme. Les résultats suggèrent que les performances de temps réel précédemment irréalisable de ces opérateurs traditionnellement coûteux peuvent être atteints même pour des longues concaténations d'opérateurs ou des images à haute résolution / This thesis is focused on implementation of fundamental morphological filters in the dedicated hardware. The main objective of this thesis is to provide a programmable and efficient implementation of basic morphological operators using efficient dataflow algorithms considering the entire application point of view. In the first part, we study existing algorithms for fundamental morphological operators and their implementation on different computational platforms. We are especially interested in algorithms using the queue memory because their implementation provides the sequential data access and minimal latency, the properties very beneficial for the dedicated hardware. Then we propose another queue-based arbitrary-oriented opening algorithm that allows for direct granulometric measures. Performance benchmarks of these two algorithms are discussed, too. The second part presents hardware implementation of the efficient algorithms by means of stream processing units. We begin with 1-D dilation unit, then thanks to the separability of dilation we build up 2-D rectangular and polygonal dilation units. The processing unit for arbitrary-oriented opening and pattern spectrum is described as well. We also introduce a method of parallel computation using a few copies of processing units in parallel, thereby speeding up the computation. All proposed processing units are experimentally assessed in hardware by means of FPGA prototypes, and the performance and FPGA occupation results are discussed. In the third part, the proposed units are employed in two diverse applications illustrating thus their capability of addressing performance-demanding, low-power embedded applications. The main contributions of this thesis are: 1) new algorithm for arbitrary oriented opening and pattern spectrum, 2) programmable hardware implementation of fundamental morphological operators with large structuring elements and arbitrary orientation, 3) performance increase obtained through multi-level parallelism. Results suggest that the previously unachievable, real-time performance of these traditionally costly operators can be attained even for long concatenations and high-resolution images
10

Certification de l'intégrité d'images numériques et de l'authenticité / Certification of authenticity and integrity of digital images

Nguyen, Hoai phuong 07 February 2019 (has links)
Avec l’avènement de l’informatique grand public et du réseau Internet, de nombreuses vidéos circulent un peu partout dans le monde. La falsification de ces supports est devenue une réalité incontournable, surtout dans le domaine de la cybercriminalité. Ces modifications peuvent être relativement anodines (retoucher l’apparence d’une personne pour lui enlever des imperfections cutanées), dérangeantes (faire disparaitre les défauts d’un objet) ou bien avoir de graves répercussions sociales (montage présentant la rencontre improbable de personnalités politiques). Ce projet s’inscrit dans le domaine de l’imagerie légale (digital forensics en anglais). Il s’agit de certifier que des images numériques sont saines ou bien falsifiées. La certification peut être envisagée comme une vérification de la conformité de l’image à tester en rapport à une référence possédée. Cette certification doit être la plus fiable possible car la preuve numérique de la falsification ne pourra être établie que si la méthode de détection employée fournit très peu de résultats erronés. Une image est composée de zones distinctes correspondantes à différentes portions de la scène (des individus, des objets, des paysages, etc.). La recherche d’une falsification consiste à vérifier si une zone suspecte est « physiquement cohérente » avec d’autres zones de l’image. Une façon fiable de définir cette cohérence consiste à se baser sur les « empreintes physiques » engendrées par le processus d’acquisition. Le premier caractère novateur de ce projet est la différenciation entre les notions de conformité et d’intégrité. Un support est dit conforme s’il respecte le modèle physique d’acquisition. Si certains des paramètres du modèle prennent des valeurs non autorisées, le support sera déclaré non-conforme. Le contrôle d’intégrité va plus loin. Il s’agit d’utiliser le test précédent pour vérifier si deux zones distinctes sont conformes à un modèle commun. Autrement dit, contrairement au contrôle de conformité qui s’intéresse au support dans son ensemble, le contrôle d’intégrité examine l’image zone par zone pour vérifier si deux zones sont mutuellement cohérentes, c’est-à-dire si la différence entre les paramètres caractérisant ces deux zones est cohérente avec la réalité physique du processus d’acquisition. L’autre caractère novateur du projet est la construction d’outils permettant de pouvoir calculer analytiquement les probabilités d’erreurs du détecteur de falsifications afin de fournir un critère quantitatif de décision. Aucune méthode ou outil actuels ne répondent à ces contraintes. / Nowadays, with the advent of the Internet, the falsification of digital media such as digital images and video is a security issue that cannot be ignored. It is of vital importance to certify the conformity and the integrity of these media. This project, which is in the domain of digital forensics, is proposed to answer this problematic.

Page generated in 0.0883 seconds