• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 152
  • 57
  • 1
  • 1
  • Tagged with
  • 503
  • 243
  • 169
  • 144
  • 134
  • 104
  • 99
  • 94
  • 81
  • 70
  • 64
  • 61
  • 61
  • 56
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Schémas de codage bio-inspirés

Masmoudi, Khaled 15 October 2012 (has links) (PDF)
Le but de mon travail de thèse est de concevoir de nouveaux codeurs d'images inspirées de la rétine. En effet, alors que la question du codage est importante pour l'économie d'énergie et de bande passante, nous sommes convaincus que peu est encore à gagner si aucun changement n'est fait dans la philosophie qui sous-tend la conception de la nouvelle image codeurs / décodeurs. Donc, mon travail vise à jeter les bases de la conception de l'image originale et les systèmes de compression vidéo qui sont basées sur des modèles de systèmes visuels biologiques. Ici, nous allons nous concentrer sur la rétine comme il est l'organe responsable de l'acquisition du stimulus visuel et le premier dispositif de codage dans le système visuel humain. Le sujet traité est très difficile et motivant pour deux raisons principales. La première est que les techniques de compression vidéo sont aujourd'hui indispensables pour la plupart des équipements standards tels que HDTV et DVD, et que le récent progrès technique nous permet d'imaginer des schémas de codage plus sophistiqués. Le second est que les récentes découvertes en neurosciences sur le système visuel humain pourrait être une source d'inspiration pour proposer de nouvelles idées, surtout si nous sommes en mesure de mieux comprendre le code neural de la rétine. Ainsi, nous nous attendons à une approche interdisciplinaire qui peut aider à atteindre nos objectifs. Cette approche permettrait de combiner les techniques de traitement du signal et les connaissances acquises par les neurophysiologistes. Nous espérons que ce travail va conduire à de nouveaux algorithmes de codage qui vont au-delà des normes.
62

Sur l'analyse des déformations homogènes et héterogènes des structures en élastomères

Idjeri, Mourad 29 April 2013 (has links) (PDF)
L'identification du comportement des polymères et notamment des élastomères reste un problème délicat. Dans ce travail, nous proposons une méthode d'identification qui associe la mesure de champ de déformation par analyse d'images avec l'optimisation d'un champ de contraintes adapté à l'essai. L'essai retenu est un étirage biaxial réalisé sur une éprouvette en forme de croix. L'approche proposée transforme l'inconvénient de l'hétérogénéité en avantage puisqu'il permet de réaliser l'identification simultanée sur plusieurs états de déformation : typiquement traction uniaxiale, plane et biaxiale. Le champ de contrainte est approché par la somme d'un champ homogène et d'un champ complémentaire vérifiant les conditions de bords libres et qui décroît lorsqu'on pénètre dans l'échantillon. La longueur caractéristique de la décroissance est optimisée de telle sorte que le champ approché vérifie au mieux les équations d'équilibre. En combinant l'analyse d'images avec le champ de contrainte optimisé, on identifie le potentiel hyperélastique en calculant explicitement les deux dérivées f=∂W/∂I1 et g=∂W/∂I2 où et sont les deux 1er invariants du tenseur de Cauchy droit. Enfin, un algorithme spécifique est mis en oeuvre par éléments finis pour une simulation 2D des matériaux hyperélastiques incompressibles. Cet algorithme est utilisé pour valider l'identification en comparant les résultats de la simulation et ceux de l'expérience
63

Hardware architectures for morphological filters with large structuring elements / Architectures matérielles pour filtres morphologiques avec des grandes éléments structurants

Bartovsky, Jan 14 November 2012 (has links)
Cette thèse se concentre sur la mise en œuvre d'implantations matérielles dédiées des filtres morphologiques fondamentaux, basés sur des itérations d'érosions/dilatations. L'objectif principal de cette thèse est de proposer une mise en oeuvre efficace et programmable de ces opérateurs en utilisant des algorithmes en flot de données et considérant les besoins applicatifs globaux. Dans la première partie, nous étudions les algorithmes existants pour les opérateurs morphologiques fondamentaux et leur réalisation sur des différentes plates-formes informatiques. Nous nous intéressons plus particulièrement à un algorithme basé sur la file d'attente pour la mise en œuvre de la dilatation car il permet de réaliser l'accès séquentiel aux données avec une latence minimale, ce qui est très favorable pour le matériel dédié. Nous proposons ensuite un autre algorithme réalisant l'ouverture morphologique, sous angle arbitraire, basé sur le même principe d'une file d'attente, permettant d'obtenir directement des mesures de granulométrie. La deuxième partie présente la mise en oeuvre matérielle des algorithmes efficaces au moyen d'unités de traitement à flot de données. Nous commençons par l'unité de dilatation 1-D, puis grâce à la séparabilité de la dilatation nous construisons des unités 2-D rectangulaire et polygonale. L'unité de traitement pour l'ouverture orientée et spectre modèle est ainsi décrit. Nous présentons également une méthode de parallélisation de calcul en dupliquant des unités de traitement. Toutes les unités de traitement proposés sont évalués expérimentalement par la réalisation des prototypes à base de circuits programmables (FPGA), et les résultats en termes d'occupation de surface et de vitesse de traitement sont discutées. Dans la troisième partie, les unités de calcul proposées sont utilisées dans deux applications différentes, illustrant ainsi leur capacité de répondre exigences des applications embarquées a basse consommation. Les principales contributions de cette thèse sont : i) proposition d'un nouvel algorithme d'ouverture sous angle arbitraire, ii) réalisation des architectures matérielles dédiées et programmables d'opérateurs morphologiques fondamentaux à l'élément structurant large et sous angle arbitraire ; iii) amélioration de la performance obtenue grâce à l'exploitation de plusieurs niveaux de parallélisme. Les résultats suggèrent que les performances de temps réel précédemment irréalisable de ces opérateurs traditionnellement coûteux peuvent être atteints même pour des longues concaténations d'opérateurs ou des images à haute résolution / This thesis is focused on implementation of fundamental morphological filters in the dedicated hardware. The main objective of this thesis is to provide a programmable and efficient implementation of basic morphological operators using efficient dataflow algorithms considering the entire application point of view. In the first part, we study existing algorithms for fundamental morphological operators and their implementation on different computational platforms. We are especially interested in algorithms using the queue memory because their implementation provides the sequential data access and minimal latency, the properties very beneficial for the dedicated hardware. Then we propose another queue-based arbitrary-oriented opening algorithm that allows for direct granulometric measures. Performance benchmarks of these two algorithms are discussed, too. The second part presents hardware implementation of the efficient algorithms by means of stream processing units. We begin with 1-D dilation unit, then thanks to the separability of dilation we build up 2-D rectangular and polygonal dilation units. The processing unit for arbitrary-oriented opening and pattern spectrum is described as well. We also introduce a method of parallel computation using a few copies of processing units in parallel, thereby speeding up the computation. All proposed processing units are experimentally assessed in hardware by means of FPGA prototypes, and the performance and FPGA occupation results are discussed. In the third part, the proposed units are employed in two diverse applications illustrating thus their capability of addressing performance-demanding, low-power embedded applications. The main contributions of this thesis are: 1) new algorithm for arbitrary oriented opening and pattern spectrum, 2) programmable hardware implementation of fundamental morphological operators with large structuring elements and arbitrary orientation, 3) performance increase obtained through multi-level parallelism. Results suggest that the previously unachievable, real-time performance of these traditionally costly operators can be attained even for long concatenations and high-resolution images
64

Dynamique de l'organisation nucléaire des séquences d'ADN répétées centromériques humaines au cours du cycle cellulaire / Human centromeric repeated dna sequences nuclear organization dynamics during the cell-cycle

Ollion, Jean 07 February 2014 (has links)
Le noyau des cellules est une structure très organisée, dont l'organisation joue un rôle important dans la régulation de l'expression des gènes. La compréhension des mécanismes à l'origine de cette organisation est donc essentielle à la compréhension du fonctionnement des génomes. De nombreuses expériences conduites chez la souris ont montré que les régions centromériques (RC) des chromosomes jouent un rôle dans l'organisation du noyau. L'organisation spatiale des RCs humaines est beaucoup moins étudiée, principalement à cause de la complexité des séquences qui les composent, qui rend plus difficile leur détection. Nous avons développé des outils de traitement et d'analyse quantitative d'image, qui, combinés à des nouveaux marqueurs des RCs humaines, nous ont permis de mieux décrire deux aspects de leur organisation spatiale. D'une part nous avons montré qu'elles se positionnent préférentiellement en périphérie du noyau ou aux bords des nucléoles, avec des fréquences qui dépendent des chromosomes. D'autre part nous avons montré qu'elles s'agrègent dans le noyau pour former un compartiment d'hétérochromatine, qui présente des caractéristiques similaires à celui observé dans d'autres espèces telles que la souris. Ces deux aspects sont tous deux inter-dépendants et varient au cours du cycle cellulaire. Cette description nouvelle met sur la piste de mécanismes responsables de l'organisation particulière des RCs, qui pourront être étudiés grâce à la méthode d'analyse et aux observables que nous avons développées. L'étude de ces mécanismes permettra de mieux comprendre la fonction des RCs humaines dans l'organisation du noyau. / The cell nucleus is a highly organized structure, playing an important role in gene regulation. Understanding the underlying mechanisms is therefore essential for understanding genome function. Numerous studies conducted in mouse cells have shown that centromeric regions (RC) of chromosomes play a role in nuclear organization. The spatial organization of human RCs is less studied, mainly because of the complexity of the underlying DNA sequences that make them hard to detect. We have developed image processing and analysis tools, that, combined with new markers for human RCs, have allowed us to draw a better description of two features of their spatial organization. On the one hand, we have shown that they are preferentially located close to the nuclear periphery or nucleoli borders, with chromosome-dependent frequencies. On the other hand, we have shown that they cluster to form a heterochromatic compartment that displays similar properties as the one observed in other species such as mouse. Both features are inter-dependent, and vary throughout the cell-cycle. This new description puts on the track of mechanisms responsible for the peculiar organization of RCs. Those mechanisms could be studied using the methodology and the observables we have developed. The study of those mechanisms will provide a better understanding of human RC function in nuclear organization.
65

Environnements lumineux naturels en mode : Spectral et Polarisé. Modélisation, Acquisition, Simulation / Spectral and Polarized Natural Light Environment

Porral, Philippe 16 December 2016 (has links)
Dans le domaine de la synthèse d'image, la simulation de l'apparence visuelle des matériaux nécessite, la résolution rigoureuse de l'équation du transport de la lumière. Cela implique d'incorporer dans les modèles tous les éléments pouvant avoir une influence sur la luminance spectrale énergétique reçue par l'œil humain. La caractérisation des propriétés de réflectance des matériaux, encore sujette à de nombreuses recherches, est très évoluée. Cependant, l'utilisation de cartes d'environnement, pour simuler leurs comportements visuels restent essentiellement trichromatiques. Caractériser la lumière naturelle avec précision, est une interrogation ancienne et il n'existe pas aujourd'hui de cartes d'environnement comportant à la fois les informations de luminance spectrale énergétique et de polarisations correspondant à des ciels réels. Il nous est donc apparu nécessaire, de proposer à la communauté de l'informatique graphique des environnements lumineux complets exploitables dans un moteur de rendu adapté en conséquence.Dans ce travail, nous exploitons des résultats issus d'autres domaines scientifiques tels que la météorologie, la climatologie..., pour proposer un modèle de ciel clair, c'est-à-dire sans nuage.Toutes les situations réelles ne pouvant pas être abordées par cette méthode, nous développons et caractérisons un dispositif de capture d'environnement lumineux incorporant à la fois, la gamme dynamique de l'éclairage, la répartition spectrale et les états de polarisation.Nous proposons, dans le but de standardiser les échanges, un format de données utilisable dans un moteur de rendu spectral, exploitant le formalisme de "Stokes - Mueller". / In the field of computer graphics, the simulation of the visual appearance of materials requires, a rigorous solving of the light transport equation. This implies to incorporate into models all elements that can influence the spectral received by human eyes. The characterization of the reflectance properties of materials, still subject to many researches is very advanced. However, the uses of environment maps, to simulate their visual behaviors remain essentially trichromaticity. Characterize the natural light with precision, is an old question. Today, there are no environment maps, including both spectral radiance and polarization informations, corresponding to a real sky. It was therefore necessary for us to design and propose to the computer graphics community a full of bright environments exploitable in a rendering engine adapted accordingly. In this work, we use the results of other scientific fields as meteorology, climatology..., to propose a new model of clear sky. As all actual situations are not addressed by this method, we develop and characterize an environment capturing device both incorporating the light dynamic range, the spectral distribution and the polarization states.
66

Certification de l'intégrité d'images numériques et de l'authenticité / Certification of authenticity and integrity of digital images

Nguyen, Hoai phuong 07 February 2019 (has links)
Avec l’avènement de l’informatique grand public et du réseau Internet, de nombreuses vidéos circulent un peu partout dans le monde. La falsification de ces supports est devenue une réalité incontournable, surtout dans le domaine de la cybercriminalité. Ces modifications peuvent être relativement anodines (retoucher l’apparence d’une personne pour lui enlever des imperfections cutanées), dérangeantes (faire disparaitre les défauts d’un objet) ou bien avoir de graves répercussions sociales (montage présentant la rencontre improbable de personnalités politiques). Ce projet s’inscrit dans le domaine de l’imagerie légale (digital forensics en anglais). Il s’agit de certifier que des images numériques sont saines ou bien falsifiées. La certification peut être envisagée comme une vérification de la conformité de l’image à tester en rapport à une référence possédée. Cette certification doit être la plus fiable possible car la preuve numérique de la falsification ne pourra être établie que si la méthode de détection employée fournit très peu de résultats erronés. Une image est composée de zones distinctes correspondantes à différentes portions de la scène (des individus, des objets, des paysages, etc.). La recherche d’une falsification consiste à vérifier si une zone suspecte est « physiquement cohérente » avec d’autres zones de l’image. Une façon fiable de définir cette cohérence consiste à se baser sur les « empreintes physiques » engendrées par le processus d’acquisition. Le premier caractère novateur de ce projet est la différenciation entre les notions de conformité et d’intégrité. Un support est dit conforme s’il respecte le modèle physique d’acquisition. Si certains des paramètres du modèle prennent des valeurs non autorisées, le support sera déclaré non-conforme. Le contrôle d’intégrité va plus loin. Il s’agit d’utiliser le test précédent pour vérifier si deux zones distinctes sont conformes à un modèle commun. Autrement dit, contrairement au contrôle de conformité qui s’intéresse au support dans son ensemble, le contrôle d’intégrité examine l’image zone par zone pour vérifier si deux zones sont mutuellement cohérentes, c’est-à-dire si la différence entre les paramètres caractérisant ces deux zones est cohérente avec la réalité physique du processus d’acquisition. L’autre caractère novateur du projet est la construction d’outils permettant de pouvoir calculer analytiquement les probabilités d’erreurs du détecteur de falsifications afin de fournir un critère quantitatif de décision. Aucune méthode ou outil actuels ne répondent à ces contraintes. / Nowadays, with the advent of the Internet, the falsification of digital media such as digital images and video is a security issue that cannot be ignored. It is of vital importance to certify the conformity and the integrity of these media. This project, which is in the domain of digital forensics, is proposed to answer this problematic.
67

Graph based approaches for image segmentation and object tracking / Méthodes de graphe pour la segmentation d'images et le suivi d'objets dynamiques

Wang, Xiaofang 27 March 2015 (has links)
Cette thèse est proposée en deux parties. Une première partie se concentre sur la segmentation d’image. C’est en effet un problème fondamental pour la vision par ordinateur. En particulier, la segmentation non supervisée d’images est un élément important dans de nombreux algorithmes de haut niveau et de systèmes d’application. Dans cette thèse, nous proposons trois méthodes qui utilisent la segmentation d’images se basant sur différentes méthodes de graphes qui se révèlent être des outils puissants permettant de résoudre ces problèmes. Nous proposons dans un premier temps de développer une nouvelle méthode originale de construction de graphe. Nous analysons également différentes méthodes similaires ainsi que l’influence de l’utilisation de divers descripteurs. Le type de graphe proposé, appelé graphe local/global, encode de manière adaptative les informations sur la structure locale et globale de l’image. De plus, nous réalisons un groupement global en utilisant une représentation parcimonieuse des caractéristiques des superpixels sur le dictionnaire de toutes les caractéristiques en résolvant un problème de minimisation l0. De nombreuses expériences sont menées par la suite sur la base de données <Berkeley Segmentation>, et la méthode proposée est comparée avec des algorithmes classiques de segmentation. Les résultats démontrent que notre méthode peut générer des partitions visuellement significatives, mais aussi que des résultats quantitatifs très compétitifs sont obtenus en comparaison des algorithmes usuels. Dans un deuxième temps, nous proposons de travailler sur une méthode reposant sur un graphe d’affinité discriminant, qui joue un rôle essentiel dans la segmentation d’image. Un nouveau descripteur, appelé patch pondéré par couleur, est développé pour calculer le poids des arcs du graphe d’affinité. Cette nouvelle fonctionnalité est en mesure d’intégrer simultanément l’information sur la couleur et le voisinage en représentant les pixels avec des patchs de couleur. De plus, nous affectons à chaque pixel une pondération à la fois local et globale de manière adaptative afin d’atténuer l’effet trop lisse lié à l’utilisation de patchs. Des expériences approfondies montrent que notre méthode est compétitive par rapport aux autres méthodes standards à partir de plusieurs paramètres d’évaluation. Finalement, nous proposons une méthode qui combine superpixels, représentation parcimonieuse, et une nouvelle caractéristisation de mi-niveau pour décrire les superpixels. Le nouvelle caractérisation de mi-niveau contient non seulement les mêmes informations que les caractéristiques initiales de bas niveau, mais contient également des informations contextuelles supplémentaires. Nous validons la caractéristisation de mi-niveau proposée sur l’ensemble de données MSRC et les résultats de segmentation montrent des améliorations à la fois qualitatives et quantitatives par rapport aux autres méthodes standards. Une deuxième partie se concentre sur le suivi d’objets multiples. C’est un domaine de recherche très actif, qui est d’une importance majeure pour un grand nombre d’applications, par exemple la vidéo-surveillance de piétons ou de véhicules pour des raisons de sécurité ou l’identification de motifs de mouvements animaliers. / Image segmentation is a fundamental problem in computer vision. In particular, unsupervised image segmentation is an important component in many high-level algorithms and practical vision systems. In this dissertation, we propose three methods that approach image segmentation from different angles of graph based methods and are proved powerful to address these problems. Our first method develops an original graph construction method. We also analyze different types of graph construction method as well as the influence of various feature descriptors. The proposed graph, called a local/global graph, encodes adaptively the local and global image structure information. In addition, we realize global grouping using a sparse representation of superpixels’ features over the dictionary of all features by solving a l0-minimization problem. Extensive experiments are conducted on the Berkeley Segmentation Database, and the proposed method is compared with classical benchmark algorithms. The results demonstrate that our method can generate visually meaningful partitions, but also that very competitive quantitative results are achieved compared with state-of-the-art algorithms. Our second method derives a discriminative affinity graph that plays an essential role in graph-based image segmentation. A new feature descriptor, called weighted color patch, is developed to compute the weight of edges in an affinity graph. This new feature is able to incorporate both color and neighborhood information by representing pixels with color patches. Furthermore, we assign both local and global weights adaptively for each pixel in a patch in order to alleviate the over-smooth effect of using patches. The extensive experiments show that our method is competitive compared to the other standard methods with multiple evaluation metrics. The third approach combines superpixels, sparse representation, and a new midlevel feature to describe superpixels. The new mid-level feature not only carries the same information as the initial low-level features, but also carries additional contextual cue. We validate the proposed mid-level feature framework on the MSRC dataset, and the segmented results show improvements from both qualitative and quantitative viewpoints compared with other state-of-the-art methods. Multi-target tracking is an intensively studied area of research and is valuable for a large amount of applications, e.g. video surveillance of pedestrians or vehicles motions for sake of security, or identification of the motion pattern of animals or biological/synthetic particles to infer information about the underlying mechanisms. We propose a detect-then-track framework to track massive colloids’ motion paths in active suspension system. First, a region based level set method is adopted to segment all colloids from long-term videos subject to intensity inhomogeneity. Moreover, the circular Hough transform further refines the segmentation to obtain colloid individually. Second, we propose to recover all colloids’ trajectories simultaneously, which is a global optimal problem that can be solved efficiently with optimal algorithms based on min-cost/max flow. We evaluate the proposed framework on a real benchmark with annotations on 9 different videos. Extensive experiments show that the proposed framework outperforms standard methods with large margin.
68

Représentations optimales pour la recherche dans les bases d'images patrimoniales / Optimal representation for searching the image databases heritage

Negrel, Romain 03 December 2014 (has links)
Depuis plusieurs décennies, le développement des technologies de numérisation et de stockage ont permis la mise en œuvre de nombreux projets de numérisation du patrimoine culturel.L'approvisionnement massif et continu de ces bases de données numériques du patrimoine culturel entraîne de nombreux problèmes d'indexation.En effet, il n'est plus possible d'effectuer une indexation manuelle de toutes les données.Pour indexer et rendre accessible facilement les données, des méthodes d'indexation automatique et d'aide à l'indexation se sont développées depuis plusieurs années.Cependant, les méthodes d'indexation automatique pour les documents non-textuels (image, vidéo, son, modèle 3D, …) sont encore complexes à mettre en œuvre pour de grands volumes de données.Dans cette thèse, nous nous intéressons en particulier à l'indexation automatique d'images.Pour effectuer des tâches d'indexation automatique ou d'aide à l'indexation, il est nécessaire de construire une méthode permettant d'évaluer la similarité entre deux images.Nos travaux sont basés sur les méthodes à signatures d'image ; ces méthodes consistent à résumer le contenu visuel de chaque image dans une signature (vecteur unique), puis d'utiliser ces signatures pour calculer la similarité entre deux images.Pour extraire les signatures, nous utilisons la chaîne d'extraction suivante : en premier, nous extrayons de l'image un grande nombre de descripteurs locaux ; puis nous résumons l'ensemble de ces descripteurs dans une signature de grande dimension ; enfin nous réduisons fortement la dimension de la signature.Les signatures de l'état de l'art basées sur cette chaîne d'extraction permettent d'obtenir de très bonnes performance en indexation automatique et en aide à l'indexation.Cependant, les méthodes de l'état de l'art ont généralement de forts coûts mémoires et calculatoires qui rendent impossible leurs mise en œuvre sur des grands volumes de données.Dans cette thèse, notre objectif est double : d'une part nous voulons améliorer les signatures d'images pour obtenir de très bonnes performances dans les problèmes d'indexation automatique ; d'autre part, nous voulons réduire les coûts de la chaîne de traitement, pour permettre le passage à l'échelle.Nous proposons des améliorations d'une signature d'image de l'état de l'art nommée VLAT (Vectors of Locally Aggregated Tensors).Ces améliorations permettent de rendre la signature plus discriminante tout en réduisant sa dimension.Pour réduire la dimension des signatures, nous effectuons une projection linéaire de la signature dans un espace de petite dimension.Nous proposons deux méthodes pour obtenir des projecteurs de réduction de dimension tout en conservant les performances des signatures d'origine.Notre première méthode consiste à calculer les projecteurs qui permettent d'approximer le mieux possible les scores de similarités entre les signatures d'origine.La deuxième méthode est basée sur le problème de recherche de quasi-copies ; nous calculons les projecteurs qui permettent de respecter un ensemble de contraintes sur le rang des images dans la recherche par rapport à l'image requête.L'étape la plus coûteuse de la chaîne d'extraction est la réduction de dimension de la signature à cause de la grande dimension des projecteurs.Pour les réduire, nous proposons d'utiliser des projecteurs creux en introduisant une contrainte de parcimonie dans nos méthodes de calcul des projecteurs.Comme il est généralement complexe de résoudre un problème d'optimisation avec une contrainte de parcimonie stricte, nous proposons pour chacun des problèmes une méthode pour obtenir une approximation des projecteurs creux recherchés.L'ensemble de ces travaux font l'objet d'expériences montrant l'intérêt pratique des méthodes proposées par comparaison avec les méthodes de l'état de l'art. / In the last decades, the development of scanning and storing technologies resulted in the development of many projects of cultural heritage digitization.The massive and continuous flow of numerical data in cultural heritage databases causes many problems for indexing.Indeed, it is no longer possible to perform a manual indexing of all data.To index and ease the access to data, many methods of automatic and semi-automatic indexing have been proposed in the last years.The current available methods for automatic indexing of non-textual documents (images, video, sound, 3D model, ...) are still too complex to implement for large volumes of data.In this thesis, we focus on the automatic indexing of images.To perform automatic or semi-automatic indexing, it is necessary to build an automatic method for evaluating the similarity between two images.Our work is based on image signature methods ; these methods involve summarising the visual content of each image in a signature (single vector), and then using these signatures to compute the similarity between two images.To extract the signatures, we use the following pipeline: First, we extract a large number of local descriptors of the image; Then we summarize all these descriptors in a large signature; Finally, we strongly reduce the dimensionality of the resulting signature.The state of the art signatures based on this pipeline provide very good performance in automatic indexing.However, these methods generally incur high storage and computational costs that make their implementation impossible on large volumes of data.In this thesis, our goal is twofold : First, we wish to improve the image signatures to achieve very good performance in automatic indexing problems ; Second, we want to reduce the cost of the processing chain to enable scalability.We propose to improve an image signature of the state of the art named VLAT (Vectors of Locally Aggregated Tensors).Our improvements increase the discriminative power of the signature.To reduce the size of the signatures, we perform linear projections of the signatures in a lower dimensional space.We propose two methods to compute the projectors while maintaining the performance of the original signatures.Our first approach is to compute the projectors that best approximate the similarities between the original signatures.The second method is based on the retrieval of quasi-copies; We compute the projectors that meet the constraints on the rank of retrieved images with respect to the query image.The most expensive step of the extraction pipeline is the dimentionality reduction step; these costs are due to the large dimentionality of the projectors.To reduce these costs, we propose to use sparse projectors by introducing a sparsity constraint in our methods.Since it is generally complex to solve an optimization problem with a strict sparsity constraint, we propose for each problem a method for approximating sparse projectors.This thesis work is the subject of experiments showing the practical value of the proposed methods in comparison with existing methods
69

Contributions au clustering collaboratif et à ses potentielles applications en imagerie à très haute résolution / Contributions to collaborative clustering and its potential applications on very high resolution satellite images

Sublime, Jérémie 09 November 2016 (has links)
Cette thèse présente plusieurs algorithmes développés dans le cadre du projet ANR COCLICO et contient deux axes principaux :Le premier axe concerne l'introduction d'un algorithme applicable aux images satellite à très haute résolution, qui est basé sur les champs aléatoires de Markov et qui apporte des notions sémantiques sur les clusters découverts. Cet algorithme est inspiré de l'algorithme Iterated conditional modes (ICM) et permet de faire un clustering sur des segments d'images pré-traitées. La méthode que nous proposons permet de gérer des voisinages irréguliers entre segments et d'obtenir des informations sémantiques de bas niveau sur les clusters de l'image traitée.Le second axe porte sur le développement de méthodes de clustering collaboratif applicables à autant d'algorithmes que possible, ce qui inclut les algorithmes du premier axe. La caractéristique principale des méthodes proposées dans cette thèse est leur applicabilité aux deux cas suivants : 1) plusieurs algorithmes travaillant sur les mêmes objets dans des espaces de représentation différents, 2) plusieurs algorithmes travaillant sur des données différentes ayant des distributions similaires. Les méthodes que nous proposons peuvent s'appliquer à de nombreux algorithmes comme l'ICM, les K-Moyennes, l'algorithme EM, ou les cartes topographiques (SOM et GTM). Contrairement aux méthodes précédemment proposées, notre modèle permet à des algorithmes très différents de collaborer ensemble, n'impose pas de contrainte sur le nombre de clusters recherchés et a une base mathématique solide. / This thesis presents several algorithms developed in the context of the ANR COCLICO project and contains two main axis: The first axis is concerned with introducing Markov Random Fields (MRF) based models to provide a semantic rich and suited algorithm applicable to images that are already segmented. This method is based on the Iterated Conditional Modes Algorithm (ICM algorithm) and can be applied to the segments of very high resolution (VHR) satellite pictures. Our proposed method can cope with highly irregular neighborhood dependencies and provides some low level semantic information on the clusters and their relationship within the image. The second axis deals with collaborative clustering methods developed with the goal of being applicable to as many clustering algorithms as possible, including the algorithms used in the first axis of this work. A key feature of the methods proposed in this thesis is that they can deal with either of the following two cases: 1) several clustering algorithms working together on the same data represented in different feature spaces, 2) several clustering algorithms looking for similar clusters in different data sets having similar distributions. Clustering algorithms to which these methods are applicable include the ICM algorithm, the K-Means algorithm, density based algorithms such as DB-scan, all Expectation-Maximization (EM) based algorithms such as the Self-Organizing Maps (SOM) and the Generative Topographic Mapping (GTM) algorithms. Unlike previously introduced methods, our models have no restrictions in term of types of algorithms that can collaborate together, do not require that all methods be looking for the same number of clusters, and are provided with solid mathematical foundations.
70

Développement d'une méthode in situ pour mesurer les champs de déformation élastique et totale à l'échelle du grain / Development of an in situ method for measuring elastic and total strain fields at the grain scale

Chow, Wang 01 February 2017 (has links)
Au cours des dernières deux décennies, la modélisation micromécanique a été largement développée afin de relier directement la microstructure réelle d’un matériau à ses propriétés macroscopiques (mécanique, thermique, électrique, etc.). Les lois de plasticité cristalline visent à prédire les comportements locaux et macroscopiques et/ou les changements de la microstructure lors d’un chargement thermomécanique. Cependant, étant donné l’échelle des mécanismes que ces modèles décrivent, les mesures sont difficiles à réaliser et l’identification des paramètres devient délicate. Il est également nécessaire d’utiliser des données expérimentales à l’échelle du grain. L’objectif de l’étude présentée ici est de développer une procédure robuste pour obtenir au moins deux réponses mécaniques locales distinctes d’un matériau à l’échelle du grain.Les champs total et élastique ont été sélectionnés et ensuite mesurés en même temps à chaque niveau de chargement successif lors d’essais de traction avec décharges. Le champ total a été déterminé par Corrélation d’Images Numériques (CIN) et le champ élastique a été calculé à partir de la mesure de Diffraction des Rayons X (DRX). Deux échantillons oligo-cristallins en alliage d’aluminium (5052) ont été utilisés dans cette étude. Le dispositif et méthode expérimental a été développé pour effectuer simultanément la CIN, la DRX et l’essai de traction in-situ dans un diffractomètre à rayons X. En plus des résultats et des analyses, les incertitudes ont également été quantifiées. / Micromechanical modelling was widely developed during the past 20 years as they enable ones to make direct links between the actual microstructure of a material and its macroscopic properties such as mechanical, thermal, electrical, etc. Crystal plasticity models aim at predicting local and macroscopic behaviours and/or changes of the microstructure during thermomechanical loading. However, the parameters of these models are difficult to identify, because the mechanisms they describe are at a small scale and are thus complicated to measure. For this reason, the crystalline model identification requires the use of experimental data at the grain scale. The objective of the study presented here is to develop a robust procedure to obtain at least two distinct local mechanical responses of a material at the grain scale.The total and elastic strain fields have been chosen to be characterised referring to the research interest and the adaptability of experimental methodologies. When samples were subjected to simple tensile loadings and unloadings, strain fields were measured on the sample surface simultaneously at each successive level. Total strain fields were determined by the Digital Image Correlation technique (DIC) while elastic strain fields were calculated from the X-ray diffraction (XRD) measurements. Two oligo-crystalline samples of an aluminium alloy (5052) has been prepared and used in this study. The experimental device and methodology was designed and developped to perform DIC, XRD and tensile tests in-situ in an X-ray diffractometer. The total and elastic strain fields of two samples through in situ tension experiments were obtained. Besides results and analysis, the corresponding uncertainties during each measurement were quantified as well.

Page generated in 0.0307 seconds