• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 528
  • 225
  • 59
  • 31
  • 8
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 863
  • 241
  • 154
  • 152
  • 144
  • 138
  • 123
  • 118
  • 108
  • 104
  • 100
  • 92
  • 86
  • 85
  • 78
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

Geodynamics and synchronous filling of a rift type-basin evolved through compression tectonics (The western margin of the Levant Basin) / Géodynamique et évolution du remplissage d’un bassin de type rift en contexte de compression : l’exemple de la marge Ouest Levantine

Papadimitriou, Nikolaos 07 December 2017 (has links)
La Méditerranée orientale doit sa complexité aux mouvements tectoniques des plaques Africaines, d’Arabie et d'Eurasie. Les récentes découvertes pétrolières du bassin Levantin (2009) renforcent la nécessité d’une approche combinée sismique/terrain pour comprendre l’évolution de son remplissage. L’intégration des données de sismique 2D et des données de terrain a permis de proposer des modèles conceptuels 3D qui, couplées aux données de puits, ont permis de définir les sources sédiementaires et les principales phases de remplissages correspondantes aux grands évènements géodynamiques. Ainsi l’évolution du bassin du Levan est marquée par la transition d’une sédimentation carbonate vers une sédimentation mixte (silicoclatisque/carbonaté) au cours du Crétacé. Seul le mont Ératosthène, situé sur une tête de bloc basculé hérité du rifting thétysien, conserve une sédimentation carbonatée superficielle jusqu’au Crétacé supérieur, liée à sa distance des sources silicoclastiques. Celui-ci présente 4 séquences de sédimentation carbonatée alternant superficielle et profonde: La fin du Jurassique moyen, le Crétacé inférieur, le Crétacé supérieur suivie et le Miocène. L'amorce de la collision Miocène en les plaques Eurasienne et Africaine coïncide avec le soulèvement d'Eratosthène avec une phase paroxysmique au cours du Miocène supérieur suivi par son basculement vers le nord en avant de l’ile de Chypre. Nous montrons que la collision a provoqué la formation de petits bassins au sud de Chypre ; un bassin piggyback (Polis Basin) et un bassin flexural (bassin de Limassol) ; contrôlés par la distribution des sédiments mésozoïques. / The Eastern Mediterranean owes its complex nature to the movement of Africa, Arabia and Eurasia. The recent gas discoveries in the Levant Basin (2009) provoked the necessity of necessity of conducting a combined (seismic and field) study to better understand the geological evolution of the Basin. The combination of geophysical and field data allows the conceptualization of onshore and, offshore 3D models in order to characterize the tectonostratigraphic evolution of this area and eventually trace the main sources and pathways that contributed to the infilling of the Levant Basin. The evolution of the Levant Basin is marked by the transition from a pure carbonate system to a mix system (carbonate /siliciclastic) during the Cenozoic. The Eratosthenes block corresponds to a fault block platform. Four major seismic sequences, characterized by periods of aggradation, retrogradation and progradation, punctuated by major unconformities and drowning surfaces have been recognized on the Eratosthenes Seamount. These periods are: the Late Jurassic; the Early Cretaceous, the Late Cretaceous and the Miocene. The initiation of the collision during the Miocene between the African and Eurasian plates coincides with the uplift of the Eratosthenes Seamount with a peak during the upper Miocene (pre-Messinian Salinity Crisis) followed by its northward tilting under Cyprus thrusting. We show that the collision of the two plates caused the formation of small basins in southern part of Cyprus; a piggyback basin (Polis), and a flexural basin (Limassol) that were controlled by the different substratum of the Mesozoic sediments.
402

Probability on the spaces of curves and the associated metric spaces via information geometry; radar applications / Probabilités sur les espaces de chemins et dans les espaces métriques associés via la géométrie de l’information ; applications radar

Le Brigant, Alice 04 July 2017 (has links)
Nous nous intéressons à la comparaison de formes de courbes lisses prenant leurs valeurs dans une variété riemannienne M. Dans ce but, nous introduisons une métrique riemannienne invariante par reparamétrisations sur la variété de dimension infinie des immersions lisses dans M. L’équation géodésique est donnée et les géodésiques entre deux courbes sont construites par tir géodésique. La structure quotient induite par l’action du groupe des reparamétrisations sur l’espace des courbes est étudiée. À l’aide d’une décomposition canonique d’un chemin dans un fibré principal, nous proposons un algorithme qui construit la géodésique horizontale entre deux courbes et qui fournit un matching optimal. Dans un deuxième temps, nous introduisons une discrétisation de notre modèle qui est elle-même une structure riemannienne sur la variété de dimension finie Mn+1 des "courbes discrètes" définies par n + 1 points, où M est de courbure sectionnelle constante. Nous montrons la convergence du modèle discret vers le modèle continu, et nous étudions la géométrie induite. Des résultats de simulations dans la sphère, le plan et le demi-plan hyperbolique sont donnés. Enfin, nous donnons le contexte mathématique nécessaire à l’application de l’étude de formes dans une variété au traitement statistique du signal radar, où des signaux radars localement stationnaires sont représentés par des courbes dans le polydisque de Poincaré via la géométrie de l’information. / We are concerned with the comparison of the shapes of open smooth curves that take their values in a Riemannian manifold M. To this end, we introduce a reparameterization invariant Riemannian metric on the infinite-dimensional manifold of these curves, modeled by smooth immersions in M. We derive the geodesic equation and solve the boundary value problem using geodesic shooting. The quotient structure induced by the action of the reparametrization group on the space of curves is studied. Using a canonical decomposition of a path in a principal bundle, we propose an algorithm that computes the horizontal geodesic between two curves and yields an optimal matching. In a second step, restricting to base manifolds of constant sectional curvature, we introduce a detailed discretization of the Riemannian structure on the space of smooth curves, which is itself a Riemannian metric on the finite-dimensional manifold Mn+1 of "discrete curves" given by n + 1 points. We show the convergence of the discrete model to the continuous model, and study the induced geometry. We show results of simulations in the sphere, the plane, and the hyperbolic halfplane. Finally, we give the necessary framework to apply shape analysis of manifold-valued curves to radar signal processing, where locally stationary radar signals are represented by curves in the Poincaré polydisk using information geometry.
403

Filtered multicarrier waveforms in the context of 5G : novel algorithms and architecture optimizations / Formes d'onde multiporteuses filtrées dans le contexte de la 5G : nouveaux algorithmes et optimisations d'architectures

Nadal, Jérémy 15 December 2017 (has links)
La 5ème génération de réseaux mobiles (5G), actuellement en cours de standardisation, prévoit de nouveaux scénarios de communication dans l’évolution vers un monde entièrement connecté et communicant. Dans ce contexte, un nombre très important de techniques avancées sont en cours d’exploration pour répondre aux nombreux défis imposés en termes de débit, de latence, de consommation énergétique, et de capacité à faire communiquer entre eux, efficacement, des milliards d'objets très différents. Parmi les techniques les plus prometteuses de la couche physique, de nouvelles formes d'ondes multiporteuses filtrées sont proposées. Bien qu’elles offrent un meilleur confinement spectral et une meilleure localisation en temps et en fréquence par rapport à l’OFDM de la 4G, elles présentent des limitations soit en termes de complexité soit en termes de performance et d’intégration. De plus, ces formes d’ondes sont évaluées d’un point de vue théorique et les résultats ne sont pas toujours validés sur des plateformes matérielles de preuve de concept reproduisant les conditions réelles des scénarios de la 5G.Dans ce contexte, les travaux de cette thèse proposent plusieurs contributions originales aussi bien au niveau algorithmes de traitement qu’au niveau architectures matérielles. Dans le domaine algorithmique,les travaux réalisés ont mené aux contributions suivantes : (1) Un nouveau filtre prototype court est proposé pour la forme d’onde FBMC/OQAM. Des analyses analytiques, complétées par simulation,montrent que le filtre proposé permet d’améliorer la résistance aux erreurs de synchronisation temporel et de réduire la complexité du récepteur FBMC de type « frequency-spread » comparé aux autres filtres de la littérature, (2) Un nouveau type de récepteur FBMC adapté pour les filtres courts est proposé. Ce récepteur a la particularité d’améliorer sensiblement la résistance aux canaux doublement dispersifs pour des filtres courts, et de supporter les communications asynchrones, (3) Un émetteur UF-OFDM original de complexité significativement réduite par rapport à la littérature est proposé. Contrairement aux techniques existantes, l’émetteur proposé n’introduit aucune approximation dans le signal généré, et préserve ainsi le confinement spectral de la forme d’onde. Dans le domaine de la conception matérielle, les travaux réalisés durant cette thèse ont mené aux contributions suivantes : (4) Une architecture matérielle optimisée des émetteurs FBMC et UF-OFDM de complexité comparable à OFDM, (5) Une architecture matérielle optimisée de l’étage de filtrage du récepteur FBMC « frequency-spread », avec une complexité comparable à celle d’un récepteur « polyphase-network », et (6) Une des premières plateformes matérielles de preuve de concept de la 5G, pouvant évaluer les performances des formes d’ondes pour les différents services de la 5G. / The 5th generation of mobile communications is fore seen to cope with a high degree of heterogeneity in terms of services: enhanced mobile broadband, massive machine, vehicular and mission critical communications, broadcast services. Consequently, diverse and often contradicting key performance indicators need to be supported, such as high capacity/user-rates, low latency, high mobility, massive number of devices, low cost and low power consumption. 4G is not designed to efficiently meet such a high degree of heterogeneity: the OFDM waveform exhibits several limitations in terms of spectrum usage and robustness to frequency and timing synchronization errors. In order to overcome these limitations and to cope with the new 5G requirements,several research initiatives have been conducted to design new waveforms. Proposed candidates, such as FBMC/OQAM or UF-OFDM,are mainly based on multicarrier modulation with specific filtering scheme used on the top of the OFDM basis. However, most of the proposed new waveforms are often studied and analyzed at the algorithmic level considering mainly the quality of the communication link. Therefore, the investigation of low-complexity implementations and the availability of real hardware prototypes are of high interest for performance validation and proof-of-concept of the diverse proposed communication techniques. In the above context, this thesis work proposes several original contributions in the algorithm and the hardware design domains. In the algorithm domain, this work leads to the following contributions: (1) Anovel short prototype filter for FBMC allowing for near perfectreconstruction and having the same size as one OFDM symbol is proposed. Using the Frequency Spread implementation for the FBMC receiver, analytical studies and simulation results show that the proposed filter exhibits better robustness to several types of channel impairments when compared to state-of-the-art short prototype filters and OFDM modulation. (2) A novel FBMC receiver technique suitable for short filters is proposed. This receiver enables to greatly improve the robustness against double dispersive channels for short filters, and enables the support of asynchronous communications, (3) A novel low complexityUF-OFDM transmitter without any signal quality loss isproposed. For small subband sizes, the complexity becomescomparable to OFDM regardless of the number of allocated subbands.In the hardware design domain, this thesis work leads to the following contributions: (4) An efficient pipelined hardware architecture of the FBMC/OQAM transmitter capable of supporting several filter lengths and targeting low complexity is proposed and compared to typical FBMC/OQAM and OFDM implementations, (5) An optimized frequency spread based hardware architecture of the filtering stage is proposed for the designed short prototype filter, showing lower complexity than the classical Poly Phase-Network-based implementation, (6) One of the first flexible and efficient hardware platforms for 5G waveform design, allowing the support of several communication scenarios as foreseen in 5G.
404

Fusion multimodale pour la reconnaissance d'espèces d'arbres / Multimodal fusion for leaf species recognition

Ben Ameur, Rihab 04 June 2018 (has links)
Les systèmes de fusion d’informations permettent de combiner des données issues de différentes sources d’informations tout en tenant compte de leur qualité. La combinaison de données issues de sources hétérogènes permet de profiter de la complémentarité des données et donc d’avoir potentiellement des performances plus élevées que celles obtenues en utilisant une seule source d’informations. L’utilisation de ces systèmes s’avère intéressante dans le cadre de la reconnaissance d’espèces d’arbres à travers la fusion d’informations issues de deux modalités : les feuilles et les écorces.Une seule modalité représente éventuellement différentes sources d’informations décrivant chacune une des caractéristiques les plus pertinentes. Ceci permet de reproduire la stratégie adoptée par les botanistes qui se basent sur ces même critères lors de la reconnaissance. L’adoption de cette stratégie entre dans la mise en valeur de l’aspect éducatif. Dans ce cadre, un système de fusion est envisageable afin de combiner les données issues d’une même modalité ainsi que les différentes modalités disponibles. Dans le contexte de la reconnaissance d’espèces d’arbres, il s’agit d’un problème réel où les photos des feuilles et des écorces sont prises en milieu naturel. Le traitement de ce type de données est compliqué vue leurs spécificités dues d’une part à la nature des objets à reconnaître (âge, similarité inter-espèces et variabilité intra-espèce) et d’autre part à l’environnement.Des erreurs peuvent s’accumuler tout au long du processus précédant la fusion. L’intérêt de la fusion est de prendre en compte toutes les imperfections pouvant entacher les données disponibles et essayer de bien les modéliser. La fusion est d’autant plus efficace que les données sont bien modélisées. La théorie des fonctions de croyance représente l’un des cadres théoriques les plus aptes à gérer et représenter l’incertitude, l’imprécision, le conflit, etc. Cette théorie tire son importance de sa richesse en termes d’outils permettant de gérer les différentes sources d’imperfections ainsi que les spécificités des données disponibles. Dans le cadre de cette théorie, il est possible de modéliser les données à travers la construction de fonctions de masse. Il est également possible de gérer la complexité calculatoire grâce aux approximations permettant de réduire le nombre d’éléments focaux. Le conflit étant l’une des sources d’imperfections les plus présentes, peut être traité à travers la sélection de la règle de combinaison la mieux adaptée.En fusionnant des sources d’informations ayant des degrés de fiabilité différents, il est possible que la source la moins fiable affecte les données issues de la source la plus fiable. Une des solutions pour ce problème est de chercher à améliorer les performances de la source la moins fiable. Ainsi, en la fusionnant avec d’autres sources, elle apportera des informations utiles et contribuera à son tour à l’amélioration des performances du système de fusion. L’amélioration des performances d’une source d’informations peut s’effectuer à travers la correction des fonctions de masse. Dans ce cadre, la correction peut se faire en se basant sur des mesures de la pertinence ou de la sincérité de la source étudiée. Les matrices de confusion présentent une source de données à partir desquelles des méta-connaissances caractérisant l’état d’une source peuvent être extraites.Dans ce manuscrit, le système de fusion proposé est un système de fusion hiérarchique mis en place dans le cadre de la théorie des fonctions de croyance. Il permet de fusionner les données issues des feuilles et des écorces et propose à l’utilisateur une liste des espèces les plus probables tout en respectant l’objectif éducatif de l’application. La complexité calculatoire de ce système de fusion est assez réduite permettant, à long termes, d’implémenter l’application sur un Smart-phone. / Information fusion systems allow the combination of data issued from different sources of information while considering their quality. Combining data from heterogeneous sources makes it possible to take advantage of the complementarity of the data and thus potentially have higher performances than those obtained when using a single source of information.The use of these systems is interesting in the context of tree species recognition through the fusion of information issued from two modalities : leaves and barks. A single modality may represent different sources of information, each describing one of its most relevant characteristics. This makes it possible to reproduce the strategy adopted by botanists who base themselves on these same criteria. The adoption of this strategy is part of the enhancement of the educational aspect. In this context, a merger system is conceivable in order to combine the data issued from one modality as well as the data issued from different modalities. In the context of tree species recognition, we treat a real problem since the photos of leaves and bark are taken in the natural environment. The processing of this type of data is complicated because of their specificities due firstly to the nature of the objects to be recognized (age, inter-species similarity and intra-species variability) and secondly to the environment.Errors can be accumulated during the pre-fusion process. The merit of the fusion is to take into account all the imperfections that can taint the available data and try to model them well. The fusion is more effective if the data is well modeled. The theory of belief functions represents one of the best theoretical frameworks able to manage and represent uncertainty, inaccuracy, conflict, etc. This theory is important because of its wealth of tools to manage the various sources of imperfections as well as the specificities of the available data. In the framework of this theory, it is possible to model the data through the construction of mass functions. It is also possible to manage the computational complexity thanks to the approximations allowing to reduce the number of focal elements. Conflict being one of the most present sources of imperfections, can be dealt through the selection of the best combination rule.By merging sources of information with different degrees of reliability, it is possible that the least reliable source affects the data issued from the most reliable one. One of the solutions for this problem is to try to improve the performances of the least reliable source. Thus, by merging with other sources, it will provide useful information and will in turn contribute in improving the performance of the fusion system.The performance improvement of an information source can be effected through the correction of mass functions. In this context, the correction can be made based on measures of the relevance or sincerity of the studied source. The confusion matrices present a data source from which meta-knowledge characterizing the state of a source can be extracted. In this manuscript, the proposed fusion system is a hierarchical fusion system set up within the framework of belief function theory. It allows to merge data from leaves and barks and provides the user with a list of the most likely species while respecting the educational purpose of the application. The computational complexity of this fusion system is quite small allowing, in the long term, to implement the application on a Smart-phone.
405

Améliorations de la Transformée de Hough en traitement d'images / Enhanced Hough transforms for image processing

Tu, Chunling 23 September 2014 (has links)
Les travaux effectués dans le cadre de la présente thèse concernent l'analyse et les améliorations apportées à la transformée de Hough Standard (SHT), utilisée en traitement d'image comme simple outil de détection de segments de lignes droites. La transformée de Hough a reçu, depuis sa proposition en 1962, une attention particulière de la part de la communauté. La HT est considérée comme une méthode robuste, dont le principe repose sur la transformation le problème initial de détection de segments de lignes droites en un problème de section de sommets dans l'espace des paramètres, appelé aussi espace HT ou espace de Hough. Les points candidats dans l'espace image sont mis en correspondance points dans l'espace de Hough, en utilisant Le principe avancé par la transformée de Hough est qu'il existe un nombre infini de lignes qui passent par un point, dont la seule différence est l'orientation (l'angle). La transformée de Hough permet de déterminer lesquelles de ces lignes passent au plus près du domaine d'intérêt. Les cellules dans l'espace de Hough échantillonné obtiennent des votes des points candidats. Les maxima locaux, correspondant aux sommets sont construit lorsque les cellules considérées obtiennent plus de votes que les cellules voisines. Les sommets détectés alors dans l'espace des paramètres sont transformée dans l'espace image pour validation. Malheureusement, les opérations les opérations de transformation directe, de l'espace image vers l'espace des paramètres, et inverse engendrent des opérations d'approximation, ce qui est la source de plusieurs problèmes de la transformée de Hough, qui affectent les aspects de robustesse, précision et résolution. On se propose de résoudre ces problèmes dans le cadre des travaux engagés dans le cadre de la thèse. Les contributions, détaillées ci-dessous, ont pu être proposées. A) Pour adresser le problème de limitation en termes de résolution de la SHT, les points concernent la sélection d'une bonne résolution, l'extension de la résolution de la SHT et l'utilisation des techniques de super-résolution pour la HT ont été couverts et de nouvelles propositions ont été faites et qui sont d'une utilité certaine pour les applications de traitement d'image.- la relation entre la performance de la HT et la résolution est proposée, ce qui permet de garantir le bon choix.- Une technique de super-résolution ets proposée en s'appuyant sur le principe de la HT- Une auto-similarité dans les échantillons HT a été découverte et a été utilisée pour obtenir une résolution supérieure de la HT avec un grande fidélité. B) Pour adresser le problème de la précision de la SHT, les erreurs de la HT ont été analysées, lorsque l'on fait subir des transformations géométriques à l'image source. Les erreurs ainsi détectées ont été utilisées pour compenser le manque de précision de la SHT, aboutissant ainsi à une HT plus précise. Afin de permettre l'évaluation de performance des approches proposées dan sel cadre de la thèse, une transformée de Hough idéale est proposée comme référence / The thesis addresses the improvements of the Standard Hough Transform (SHT) for image processing applications. As a common tool for straight line segment detection, the Hough Transform (HT) has received extensive attention since its proposal in 1962. HT is robust since it converts the straight line detection problem to a peak seeking problem in the parameter space (also called HT space or Hough space). Feature points in the image space are mapped to the parameter space, according to the normal formulation of the possible straight lines crossing them. The cells in the digitalised parameter space obtain votes from the feature points. The local maxima, corresponding to peaks are built when corresponding cells obtain more votes than the ones around them. The peaks detected in the parameter space are then mapped back to the image space for validation. Unfortunately, when mapping feature points in the image space to the parameter space in conjunction with the voting process, rounding operations are employed, which leads to several problems of HT. The robustness, accuracy and resolution are all affected. This thesis aims to solve these problems, and the following contributions were made towards this goal : A) Because of the resolution limitation of SHT, the topics of how to select a “good” resolution, how to extend the resolutions of SHT and how to employ the super-resolution technique in HT are covered. In the research of these topics, several outputs are obtained, which are helpful to image processing applications. These include:- The map of HT performance versus resolutions is drawn, according to which “good” choices of resolutions can be found.- HT resolutions are extended by geometrical analysis of the HT butterflies.- Super resolution HT is proposed with consideration to the features of HT.- Self-similarity of the HT butterflies is discovered and employed to obtain high resolution HT with high reliability. B) For the accuracy defect of SHT, the error system of HT is studied when the image is shifted in the image space. The detection errors are employed to compensate for the defect, and an accurate HT is proposed. In order to evaluate existing HT varieties, an ideal HT is proposed as a standard
406

Un arbre des formes pour les images multivariées / A Tree of shapes for multivariate images

Carlinet, Edwin 27 November 2015 (has links)
De nombreuses applications issues de la vision par ordinateur et de la reconnaissance des formes requièrent une analyse de l'image multi-échelle basée sur ses régions. De nos jours, personne ne considérerait une approche orientée « pixel » comme une solution viable pour traiter ce genre de problèmes. Pour répondre à cette demande, la Morphologie Mathématique a fourni des représentations hiérarchiques des régions de l'image telles que l'Arbre des Formes (AdF). L'AdF représente l'image par un arbre d'inclusion de ses lignes de niveaux. L'AdF est ainsi auto-dual et invariant au changement de contraste, ce qui fait de lui une structure bien adaptée aux traitements d'images de haut niveau. Néanmoins, il est seulement défini aux images en niveaux de gris et la plupart des tentatives d'extension aux images multivariées (e.g. en imposant un ordre total «arbitraire ») ne sont pas satisfaisantes. Dans ce manuscrit, nous présentons une nouvelle approche pour étendre l'AdF scalaire aux images multivariées : l'Arbre des Formes Multivarié (AdFM). Cette représentation est une « fusion » des AdFs calculés marginalement sur chaque composante de l'image. On vise à fusionner les formes marginales de manière « sensée » en préservant un nombre maximal d'inclusion. La méthode proposée a des fondements théoriques qui consistent en l'expression de l'AdF par une carte topographique de la variation totale curvilinéaire depuis la bordure de l'image. C'est cette reformulation qui a permis l'extension de l'AdF aux données multivariées. De plus, l'AdFM partage des propriétés similaires avec l'AdF scalaire ; la plus importante étant son invariance à tout changement ou inversion de contraste marginal (une sorte d'auto-dualité dans le cas multidimensionnel). Puisqu'il est évident que, vis-à-vis du nombre sans cesse croissant de données à traiter, nous ayons besoin de techniques rapides de traitement d'images, nous proposons un algorithme efficace qui permet de construire l'AdF en temps quasi-linéaire vis-à-vis du nombre de pixels et quadratique vis-à-vis du nombre de composantes. Nous proposons également des algorithmes permettant de manipuler l'arbre, montrant ainsi que, en pratique, l'AdFM est une structure facile à manipuler, polyvalente, et efficace. Finalement, pour valider la pertinence de notre approche, nous proposons quelques expériences testant la robustesse de notre structure aux composantes non-pertinentes (e.g. avec du bruit ou à faible dynamique) et nous montrons que ces défauts n'affectent pas la structure globale de l'AdFM. De plus, nous proposons des applications concrètes utilisant l'AdFM. Certaines sont juste des modifications mineures aux méthodes employant d'ores et déjà l'AdF scalaire mais adaptées à notre nouvelle structure. Par exemple, nous utilisons l'AdFM à des fins de filtrage, segmentation, classification et de détection d'objet. De ces applications, nous montrons ainsi que les méthodes basées sur l'AdFM surpassent généralement leur analogue basé sur l'AdF, démontrant ainsi le potentiel de notre approche / Nowadays, the demand for multi-scale and region-based analysis in many computer vision and pattern recognition applications is obvious. No one would consider a pixel-based approach as a good candidate to solve such problems. To meet this need, the Mathematical Morphology (MM) framework has supplied region-based hierarchical representations of images such as the Tree of Shapes (ToS). The ToS represents the image in terms of a tree of the inclusion of its level-lines. The ToS is thus self-dual and contrast-change invariant which make it well-adapted for high-level image processing. Yet, it is only defined on grayscale images and most attempts to extend it on multivariate images - e.g. by imposing an “arbitrary” total ordering - are not satisfactory. In this dissertation, we present the Multivariate Tree of Shapes (MToS) as a novel approach to extend the grayscale ToS on multivariate images. This representation is a mix of the ToS's computed marginally on each channel of the image; it aims at merging the marginal shapes in a “sensible” way by preserving the maximum number of inclusion. The method proposed has theoretical foundations expressing the ToS in terms of a topographic map of the curvilinear total variation computed from the image border; which has allowed its extension on multivariate data. In addition, the MToS features similar properties as the grayscale ToS, the most important one being its invariance to any marginal change of contrast and any marginal inversion of contrast (a somewhat “self-duality” in the multidimensional case). As the need for efficient image processing techniques is obvious regarding the larger and larger amount of data to process, we propose an efficient algorithm that can be build the MToS in quasi-linear time w.r.t. the number of pixels and quadraticw.r.t. the number of channels. We also propose tree-based processing algorithms to demonstrate in practice, that the MToS is a versatile, easy-to-use, and efficient structure. Eventually, to validate the soundness of our approach, we propose some experiments testing the robustness of the structure to non-relevant components (e.g. with noise or with low dynamics) and we show that such defaults do not affect the overall structure of the MToS. In addition, we propose many real-case applications using the MToS. Many of them are just a slight modification of methods employing the “regular” ToS and adapted to our new structure. For example, we successfully use the MToS for image filtering, image simplification, image segmentation, image classification and object detection. From these applications, we show that the MToS generally outperforms its ToS-based counterpart, demonstrating the potential of our approach
407

Modélisation probabiliste de classifieurs d’ensemble pour des problèmes à deux classes / Probabilistic modeling of ensemble classifiers for two classes problems

Dong, Yuan 08 July 2013 (has links)
L'objectif de cette thèse est d'améliorer ou de préserver les performances d'un système décisionnel quand l’environnement peut impacter certains attributs de l'espace de représentation à un instant donné ou en fonction de la position géographique de l’observation. S'inspirant des méthodes d'ensemble, notre approche a consisté à prendre les décisions dans des sous-espaces de représentation résultant de projections de l'espace initial, espérant ainsi travailler dans des sous-espaces non impactés. La décision finale est alors prise par fusion des décisions individuelles. Dans ce contexte, trois méthodes de classification (one-class SVM, Kernel PCA et Kernel ECA) ont été testées en segmentation d'images texturées qui constitue un support applicatif parfaitement adéquat en raison des ruptures de modèle de texture aux frontières entre deux régions. Ensuite, nous avons proposé une nouvelle règle de fusion reposant sur un test du rapport de vraisemblance pour un ensemble de classifieurs indépendants. Par rapport au vote majoritaire, cette règle de fusion a montré de meilleures performances face à l'altération de l'espace de représentation. Enfin, nous avons établi un modèle conjoint pour l’ensemble des variables décisionnelles de Bernoulli corrélées associées aux décisions des classifieurs individuels. Cette modélisation doit permettre de lier les performances des classifieurs individuels à la performance de la règle de décision globale et d’étudier et de maîtriser l'impact des changements de l'espace initial sur la performance globale / The objective of this thesis is to improve or maintain the performance of a decision-making system when the environment can impact some attributes of the feature space at a given time or depending on the geographical location of the observation. Inspired by ensemble methods, our approach has been to make decisions in representation sub-spaces resulting of projections of the initial space, expecting that most of the subspaces are not impacted. The final decision is then made by fusing the individual decisions. In this context, three classification methods (one-class SVM, Kernel PCA and Kernel ECA) were tested on a textured images segmentation problem which is a perfectly adequate application support because of texture pattern changes at the border between two regions. Then, we proposed a new fusion rule based on a likelihood ratio test for a set of independent classifiers. Compared to the majority vote, this fusion rule showed better performance against the alteration of the performance space. Finally, we modeled the decision system using a joint model for all decisions based on the assumption that decisions of individual classifiers follow a correlated Bernoulli law. This model is intended to link the performance of individual classifiers to the performance of the overall decision rule and to investigate and control the impact of changes in the original space on the overall performance
408

Système d'identification à partir de l'image d'iris et détermination de la localisation des informations / Iris identification system and determination of characteristics location

Hilal, Alaa 21 October 2013 (has links)
Le système d’identification d’iris est considéré comme l’une des meilleures technologies biométriques. Toutefois, des problèmes liés à la segmentation de l’iris et à la normalisation de la texture de l’iris sont généralement signalés comme principales origines des reconnaissances incorrectes. Dans notre travail, trois contributions principales sont proposées pour améliorer le système d’identification d’iris. Une nouvelle méthode de segmentation est développée. Elle détecte la frontière externe de l’iris par un contour circulaire et la pupille, d’une manière précise, à l’aide d’un modèle de contour actif. Ensuite, une nouvelle méthode de normalisation est proposée. Elle assure une représentation plus robuste et un meilleur échantillonnage de la texture de l’iris comparée aux méthodes traditionnelles. Enfin en utilisant le système d’identification d’iris proposé, la localisation des caractéristiques discriminantes dans une région d’iris est identifiée. Nous vérifions que l’information la plus importante de la région de l’iris se trouve à proximité de la pupille et que la capacité discriminante de la texture diminue avec la distance à la pupille. Les méthodes de segmentation et de normalisation développées sont testées et comparées à un système de référence sur une base de données contenant 2639 images d’iris. Une amélioration des performances de reconnaissance valide l’efficacité du système proposé / Iris identification system is considered among the best biometric technologies. However problems related to the segmentation of the iris and to the normalization of iris templates are generally reported and induce loss of recognition performance. In this work three main contributions are made to the progress of the iris identification system. A new segmentation method is developed. It approximates the outer iris boundary with a circle and segments accurately the inner boundary of the iris by use of an active contour model. Next, a new normalization method is proposed. It leads to a more robust characterization and a better sampling of iris textures compared to traditional normalization methods. Finally using the proposed iris identification system, the location of discriminant characteristics along iris templates is identified. It appears that the most discriminant iris characteristics are located in inner regions of the iris (close to the pupil boundary) and that the discriminant capabilities of these characteristics decreases as outer regions of the iris are considered. The developed segmentation and normalization methods are tested and compared to a reference iris identification system over a database of 2639 iris images. Improvement in recognition performance validates the effectiveness of the proposed system
409

Reconstruction de modèles CAO de scènes complexes à partir de nuages de points basés sur l’utilisation de connaissances a priori / Reconstruction of CAD model of industrial scenes using a priori knowledge

Bey, Aurélien 25 June 2012 (has links)
Certaines opérations de maintenance sur sites industriels nécessitent une planification à partir de modèles numériques 3D des scènes où se déroulent les interventions. Pour permettre la simulation de ces opérations, les modèles 3D utilisés doivent représenter fidèlement la réalité du terrain. Ces représentations virtuelles sont habituellement construites à partir de nuages de points relevés sur le site, constituant une description métrologique exacte de l’environnement sans toutefois fournir une description géométrique de haut niveau.Il existe une grande quantité de travaux abordant le problème de la reconstruction de modèles 3D à partir de nuages de points, mais peu sont en mesure de fournir des résultats suffisamment fiables dans un contexte industriel et cette tâche nécessite en pratique l’intervention d’opérateurs humains.Les travaux réalisés dans le cadre de cette thèse visent l’automatisation de la reconstruction,avec comme principal objectif la fiabilité des résultats obtenus à l’issu du processus. Au vu de la complexité de ce problème, nous proposons d’exploiter des connaissances et données a priori pour guider la reconstruction. Le premier a priori concerne la compositiondes modèles 3D : en Conception Assistée par Ordinateur (CAO), les scènes industrielles sont couramment décrites comme des assemblages de primitives géométriques simples telles que les plans, sphères, cylindres, cônes, tores, etc. Nous hiérarchisons l’analyse en traitant dans un premier temps les plans et les cylindres, comme un préalable à la détection de stores. On obtient ainsi une description fiable des principaux composants d’intérêt dans les environnements industriels. Nous proposons en outre d’exploiter un certain nombre de règles régissant la manière dont ces primitives s’assemblent en un modèle CAO, basées surdes connaissances ”métier” caractérisant les scènes industrielles que nous traitons. De plus,nous tirons parti d’un modèle CAO existant d´ecrivant une scène similaire à celle que nous souhaitons reconstruire, provenant typiquement de la reconstruction antérieure d’un site semblable au site d’intérêt. Bien que semblables en théorie, ces scènes peuvent présenterdes différences significatives qui s’accentuent au cours de leur exploitation.La méthode que nous développons se fonde sur une formulation Bayésienne du problème de reconstruction : il s’agit de retrouver le modèle CAO le plus probable vis à visdes différentes attentes portées par les données et les a priori sur le modèle à reconstruire. Les diverses sources d’a priori s’expriment naturellement dans cette formulation. Pour permettre la recherche du modèle CAO optimal, nous proposons une approche basée surdes tentatives d’insertion d’objets générés aléatoirement. L’acceptation ou le rejet de ces objets repose ensuite sur l’am´elioration systématique de la solution en cours de construction. Le modèle CAO se construit ainsi progressivement, par ajout et suppression d’objets, jusqu’à obtention d’une solution localement optimale. / 3D models are often used in order to plan the maintenance of industrial environments.When it comes to the simulation of maintenance interventions, these 3D models have todescribe accurately the actual state of the scenes they stand for. These representationsare usually built from 3D point clouds that are huge set of 3D measurements acquiredin industrial sites, which guarantees the accuracy of the resulting 3D model. Althoughthere exists many works addressing the reconstruction problem, there is no solution toour knowledge which can provide results that are reliable enough to be further used inindustrial applications. Therefore this task is in fact handled by human experts nowadays.This thesis aims at providing a solution automating the reconstruction of industrialsites from 3D point clouds and providing highly reliable results. For that purpose, ourapproach relies on some available a priori knowledge and data about the scene to beprocessed. First, we consider that the 3D models of industrial sites are made of simpleprimitive shapes. Indeed, in the Computer Aided Design (CAD) field, this kind of scenesare described as assemblies of shapes such as planes, spheres, cylinders, cones, tori, . . . Ourown work focuses on planes, cylinders and tori since these three kind of shapes allow thedescription of most of the main components in industrial environment. Furthermore, weset some a priori rules about the way shapes should be assembled in a CAD model standingfor an industrial facility, which are based on expert knowledge about these environments.Eventually, we suppose that a CAD model standing for a scene which is similar to theone to be processed is available. This a priori CAO model typically comes from the priorreconstruction of a scene which looks like the one we are interested in. Despite the factthat they are similar theoretically, there may be significant differences between the sitessince each one has its own life cycle.Our work first states the reconstruction task as a Bayesian problem in which we haveto find the most probable CAD Model with respect to both the point cloud and the a prioriexpectations. In order to reach the CAD model maximizing the target probability, wepropose an iterative approach which improves the solution under construction each time anew randomly generated shape is tried to be inserted in it. Thus, the CAD model is builtstep by step by adding and removing shapes, until the algorithm gets to a local maximumof the target probability.
410

Détection de personnes pour des systèmes de videosurveillance multi-caméra intelligents / People detection methods for intelligent multi-Camera surveillance systems

Mehmood, Muhammad Owais 28 September 2015 (has links)
La détection de personnes dans les vidéos est un défi bien connu du domaine de la vision par ordinateur avec un grand nombre d'applications telles que le développement de systèmes de surveillance visuels. Même si les détecteurs monoculaires sont plus simples à mettre en place, ils sont dans l’incapacité de gérer des scènes complexes avec des occultations, une grande densité de personnes ou des scènes avec beaucoup de profondeur de champ menant à une grande variabilité dans la taille des personnes. Dans cette thèse, nous étudions la détection de personnes multi-vues et notamment l'utilisation de cartes d'occupation probabilistes créées en fusionnant les différentes vues grâce à la connaissance de la géométrie du système. La détection à partir de ces cartes d'occupation amène cependant des fausses détections (appelées « fantômes ») dues aux différentes projections. Nous proposons deux nouvelles techniques afin de remédier à ce phénomène et améliorer la détection des personnes. La première utilise une déconvolution par un noyau dont la forme varie spatialement tandis que la seconde est basée sur un principe de validation d’hypothèse. Ces deux approches n'utilisent volontairement pas l'information temporelle qui pourra être réintroduite par la suite dans des algorithmes de suivi. Les deux approches ont été validées dans des conditions difficiles présentant des occultations, une densité de personnes plus ou moins élevée et de fortes variations dans les réponses colorimétriques des caméras. Une comparaison avec d'autres méthodes de l’état de l'art a également été menée sur trois bases de données publiques, validant les méthodes proposées pour la surveillance d'une gare et d'un aéroport / People detection is a well-studied open challenge in the field of Computer Vision with applications such as in the visual surveillance systems. Monocular detectors have limited ability to handle occlusion, clutter, scale, density. Ubiquitous presence of cameras and computational resources fuel the development of multi-camera detection systems. In this thesis, we study the multi-camera people detection; specifically, the use of multi-view probabilistic occupancy maps based on the camera calibration. Occupancy maps allow multi-view geometric fusion of several camera views. Detection with such maps create several false detections and we study this phenomenon: ghost pruning. Further, we propose two novel techniques in order to improve multi-view detection based on: (a) kernel deconvolution, and (b) occupancy shape modeling. We perform non-temporal, multi-view reasoning in occupancy maps to recover accurate positions of people in challenging conditions such as of occlusion, clutter, lighting, and camera variations. We show improvements in people detections across three challenging datasets for visual surveillance including comparison with state-of-the-art techniques. We show the application of this work in exigent transportation scenarios i.e. people detection for surveillance at a train station and at an airport

Page generated in 0.0337 seconds