• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 665
  • 191
  • 75
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 962
  • 353
  • 283
  • 190
  • 149
  • 103
  • 94
  • 91
  • 89
  • 89
  • 86
  • 86
  • 83
  • 82
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
561

Hybridation d’algorithmes évolutionnaires et de méthodes d’intervalles pour l’optimisation de problèmes difficiles / Hybridization of evolutionary algorithms and interval-based methods for optimizing difficult problems

Vanaret, Charlie 27 January 2015 (has links)
L’optimisation globale fiable est dédiée à la recherche d’un minimum global en présence d’erreurs d’arrondis. Les seules approches fournissant une preuve numérique d’optimalité sont des méthodes d’intervalles qui partitionnent l’espace de recherche et éliminent les sous-espaces qui ne peuvent contenir de solution optimale. Ces méthodes exhaustives, appelées branch and bound par intervalles, sont étudiées depuis les années 60 et ont récemment intégré des techniques de réfutation et de contraction, issues des communautés d’analyse par intervalles et de programmation par contraintes. Il est d’une importance cruciale de calculer i) un encadrement précis de la fonction objectif et des contraintes sur un sous-domaine ; ii) une bonne approximation (un majorant) du minimum global. Les solveurs de pointe sont généralement des méthodes intégratives : ils invoquent sur chaque sous-domaine des algorithmes d’optimisation locale afin d’obtenir une bonne approximation du minimum global. Dans ce document, nous nous intéressons à un cadre coopératif combinant des méthodes d’intervalles et des algorithmes évolutionnaires. Ces derniers sont des algorithmes stochastiques faisant évoluer une population de solutions candidates (individus) dans l’espace de recherche de manière itérative, dans l’espoir de converger vers des solutions satisfaisantes. Les algorithmes évolutionnaires, dotés de mécanismes permettant de s’échapper des minima locaux, sont particulièrement adaptés à la résolution de problèmes difficiles pour lesquels les méthodes traditionnelles peinent à converger. Au sein de notre solveur coopératif Charibde, l’algorithme évolutionnaire et l’algorithme sur intervalles exécutés en parallèle échangent bornes, solutions et espace de recherche par passage de messages. Une stratégie couplant une heuristique d’exploration géométrique et un opérateur de réduction de domaine empêche la convergence prématurée de la population vers des minima locaux et évite à l’algorithme évolutionnaire d’explorer des sous-espaces sous-optimaux ou non réalisables. Une comparaison de Charibde avec des solveurs de pointe (GlobSol, IBBA, Ibex) sur une base de problèmes difficiles montre un gain de temps d’un ordre de grandeur. De nouveaux résultats optimaux sont fournis pour cinq problèmes multimodaux pour lesquels peu de solutions, même approchées, sont connues dans la littérature. Nous proposons une application aéronautique dans laquelle la résolution de conflits est modélisée par un problème d’optimisation sous contraintes universellement quantifiées, et résolue par des techniques d’intervalles spécifiques. Enfin, nous certifions l’optimalité de la meilleure solution connue pour le cluster de Lennard-Jones à cinq atomes, un problème ouvert en dynamique moléculaire. / Reliable global optimization is dedicated to finding a global minimum in the presence of rounding errors. The only approaches for achieving a numerical proof of optimality in global optimization are interval-based methods that interleave branching of the search-space and pruning of the subdomains that cannot contain an optimal solution. The exhaustive interval branch and bound methods have been widely studied since the 1960s and have benefitted from the development of refutation methods and filtering algorithms, stemming from the interval analysis and interval constraint programming communities. It is of the utmost importance: i) to compute sharp enclosures of the objective function and the constraints on a given subdomain; ii) to find a good approximation (an upper bound) of the global minimum. State-of-the-art solvers are generally integrative methods, that is they embed local optimization algorithms to compute a good upper bound of the global minimum over each subspace. In this document, we propose a cooperative framework in which interval methods cooperate with evolutionary algorithms. The latter are stochastic algorithms in which a population of individuals (candidate solutions) iteratively evolves in the search-space to reach satisfactory solutions. Evolutionary algorithms, endowed with operators that help individuals escape from local minima, are particularly suited for difficult problems on which traditional methods struggle to converge. Within our cooperative solver Charibde, the evolutionary algorithm and the intervalbased algorithm run in parallel and exchange bounds, solutions and search-space via message passing. A strategy combining a geometric exploration heuristic and a domain reduction operator prevents premature convergence toward local minima and prevents the evolutionary algorithm from exploring suboptimal or unfeasible subspaces. A comparison of Charibde with state-of-the-art solvers based on interval analysis (GlobSol, IBBA, Ibex) on a benchmark of difficult problems shows that Charibde converges faster by an order of magnitude. New optimality results are provided for five multimodal problems, for which few solutions were available in the literature. We present an aeronautical application in which conflict solving between aircraft is modeled by an universally quantified constrained optimization problem, and solved by specific interval contractors. Finally, we certify the optimality of the putative solution to the Lennard-Jones cluster problem for five atoms, an open problem in molecular dynamics.
562

Optimisation des trajectoires avion dans l'Atlantique Nord / Aircraft trajectory optimization in North Atlantic oceanic airspace

Rodionova, Olga 30 June 2015 (has links)
Cette thèse explore des pistes d'amélioration du système de trafic aérien dans l'espace océanique de l'Atlantique Nord (NAT). D'abord, on considère le système actuel, où les avions suivent les rails prédefinis. On favorise les re-routages entre rails, diminuant la congestion dans l'espace continental. On applique des méthodes stochastiques d'optimisation pour trouver une configuration de vols sans conflits avec la séparation reduite entre aéronefs. Ensuite, on simule la planification des trajectoires avec le Wind Networking (WN). La source prinicipale des erreurs dans la prédiction de trajectoires étant l'incertitude dans la prévision du vent, le WN permet aux avions d'échanger leurs vents mesurés afin d'ajuster leurs prédictions. Enfin, on introduit le concept de free-flight dans NAT. Etant donné des trajectoires vent-optimales, on applique une méthode stochastique d'optimisation pour réduire le nombre de conflits au niveau stratégique, tout en conservant les trajectoires proches de leur optimum. Nos résultats numériques mettent en évidence plusieurs pistes pour améliorer le système de trafic aérien dans NAT, en considérant de nouvelles technologies et de nouveaux concepts. / This thesis investigates the ways to improve the air traffic system in the highly congested North Atlantic oceanic airspace (NAT). First, we consider the current system, where aircraft follow predefined NAT tracks. We favor the re-routings between tracks, decreasing congestion in pre-oceanic airspace, and apply stochastic methods of optimization to find a conflict-free flight configuration with reduced separation between aircraft. Second, we simulate trajectory prediction by Wind Networking (WN). While the main source of time prediction errors is the uncertainty in wind forecast, WN permits aircraft to exchange measured winds and adjust their predictions using this recent and accurate information. Third, we study the impact of introducing the free flight concept in NAT. We apply a stochastic method of optimization on data provided by NASA consisting of NAT flights with wind optimal trajectories. The aim is to reduce the number of conflicts on the strategic level, while keeping the trajectories close to the optimal routes. Our computational experiments show that the air traffic situation in NAT can be improved in several different ways, considering new technologies and new trajectory planning concepts.
563

Apport de l’imagerie active 3D à plan focal, embarquable sur drone, pour l’amélioration de la cartographie haute résolution de terrain / Contribution of 3D active imaging with focal plane array, embeddable on drone, for the improvement of high resolution terrain mapping

Coyac, Antoine 18 December 2017 (has links)
L'imagerie laser 3D est une technique performante utilisée notamment pour cartographier l'environnement dans lequel évolue un aéronef, en mesurant la distance le séparant d'un objet, en plus des coordonnées (x,y). Le système est capable d'acquérir des mesures par tout temps (nuit, pluie, brouillard). Une nouvelle génération de capteurs, multi-pixels et ultra-sensibles, permet alors de répondre aux besoins identifiés pour cartographier avec précision une zone de grande superficie : haute résolution spatiale, longue portée avec précision centimétrique et rapidité d'acquisition. Il s'agit des plans focaux 3D Geiger. Avant leur utilisation en aéroporté, il était nécessaire de se familiariser avec leur fonctionnement, basé sur les probabilités de détection. Un simulateur reproduisant l'ensemble de la chaîne d'acquisition à été développé, puis validé sur des cas réels, au sol et en conditions statiques. Il a ensuite permis de démontrer l'intérêt des plans focaux Geiger pour la cartographie aéroportée à longue distance. / 3D laser imaging is a powerful technique used to recognize the environment around an aircraft, by measuring the distance between the system and an objet, in addition to its spatial coordinates. Also, it allows data acquisition under any weather condition (night, rain, fog). A new kind of sensors, multi-pixel arrays with high sensitivity, seems in line with the needs of an accurate 3D mapping of a big area : high spatial resolution, longe range detection with centimeter accuracy and low acquisition time. There are 3D Geiger-mode focal plane arrays. Before an onboard use, it was necessary to analyze the operation of such a sensor, based on probabilities of detection. An end-to-end simulator reproducing the entire acquisition process has been implemented, then experimentally validated on ground and static cases. It finally allowed to demonstrate the potential and contribution of Geiger-mode focal plane arrays for long distance and high spatial resolution airborne 3D mapping.
564

Simulation de la diffraction par des réseaux lamellaires 1D par la méthode modale en différences finies et la méthode des moments en coordonnées paramétriques / Simulation of diffraction by 1D lamellar arrays using the modal finite difference method and the moment method in parametric coordinates

Andriamanampisoa, Lala Bakonirina 17 December 2010 (has links)
Ce manuscrit est consacré à l'amélioration des deux méthodes numériques : MMDF et Méthode des Moments avec la technique de la RSA. Dans un premier temps, on présente les outils théoriques sur l'étude du problème de la diffraction par des réseaux lamellaires, éclairée sous incidence classique et les outils de simulation pour résoudre les équations de Maxwell. On choisit comme fonctions de base et de test, les fonctions triangles. On introduit par la suite, la technique de la RSA afin d'améliorer la vitesse de convergence de calcul. Les résultats obtenus sont comparés à ceux de la méthode MMFE et la méthode MMDF de "Lalanne et al". Une étude numérique de la stabilité et de la convergence de la méthode est effectuée. Enfin, on présente une extension de la Méthode des Moments basée sur l'hypothèse de Galerkin au cas de l'incidence conique. Le détail de la résolution des équations Maxwell est décrit. L'application numérique est traitée dans le cas du réseau diélectrique pour mettre au point les influences de l'état de la polarisation et les paramètres physiques. / This manuscript is devoted to improvement of the two numerical methods : MMDF and Method of the Moments with the technique of the RSA. In the first part, we present the theoretical tools on study of the problem of diffraction by binary grating,illuminated of classical incidence and the tools for simulation to solve the Maxwell's equations. We choose like basic functions and test, the functions triangles. In the second part, we introduce the technique of the RSA so to improve the speed of convergence of calculation. The results obtained are compared with those of method MMFE and method MMDF of"Lalanne and al". A numerical study of the stability and convergence of the method are carried. The last part, we present the Method of the Moments with triangle functions as expansion and triangle as test functions to the case of conical incidence. We describe the detail of the resolution of the Maxwell equations. Numerical application is treated in the case of the dielectric grating to develop the influences of state of polarization and the physical parameters.
565

Localisation et reconstruction du réseau routier par vectorisation d'image THR et approximation des contraintes de type "NURBS" / Localization and reconstruction of the road network by VHR images’ vectorisation and approximation using “NURBS “constraints

Naouai, Mohamed 20 July 2013 (has links)
Ce travail de thèse vise à mettre en place un système d’extraction de réseau routier en milieu urbain à partir d’image satellite à très haute résolution. Dans ce contexte, nous avons proposé deux méthodes de localisation de routes. La première approche est fondée sur la procédure de conversion de l’image vers un format vectoriel. L’originalité de cette approche réside dans l’utilisation d’une méthode géométrique pour assurer le passage vers une représentation vectorielle de l’image d’origine et la mise en place d’un formalisme logique fondé sur un ensemble de critères perceptifs permettant le filtrage de l’information inutile et l’extraction des structures linéaires. Dans la deuxième approche, nous avons proposé un algorithme fondé sur la théorie des ondelettes, il met particulièrement en évidence les deux volets multi-résolution et multi-direction. Nous proposons donc une approche de localisation des routes mettant en jeux l'information fréquentielle multi directionnelle issue de la transformée en ondelette Log-Gabor. Dans l’étape de localisation, nous avons présenté deux détecteurs de routes qui exploitent l’information radiométrique, géométrique et fréquentielle. Cependant, ces informations ne permettent pas un résultat exact et précis. Pour remédier à ce problème, un algorithme de suivi s’avère nécessaire. Nous proposons la reconstruction de réseaux routiers par des courbes NURBS. Cette approche est basée sur un ensemble de points de repères identifiés dans la phase de localisation. Elle propose un nouveau concept, que nous avons désigné par NURBSC, basé sur les contraintes géométriques des formes à approximer. Nous connectons les segments de route identifiés afin d’obtenir des tracés continus propres aux routes. / The aim of this thesis is to establish a road network extraction system in urban areas from very high resolution satellite images. In this context, we proposed two approaches to locate roads. The first one is based on the process of converting the image into a vector form. The originality of this approach lies in the use of a geometric method to ensure the shift into a vector representation of the original image and the establishment of a logical formalism based on a set of perceptual criteria. It allows the filtering of unnecessary information and extracting linear structures. In the second approach, we proposed an algorithm based on the wavelet theory, it particularly highlights the two axis multi-resolution and multi-direction. Thus, we introduce a road localization approach, which manage the frequency multidirectional data resulting from the transform using the Log-Gabor wavelet. In the localization step, we presented two road detectors, which are capable of exploiting the radiometric, geometric and frequency data. However, this data cannot allow accurate and precise results. To overcome this drawback, a tracking algorithm is needed. We propose the reconstruction of road networks by NURBS curves. This approach is based on a landmark set of points identified in the localization phase and presents a new concept, noted by NURBSC. NURBSC is based on the geometrical constraints of shapes to be approximated. We connect road segments identified in order to obtain continuous road network.
566

La morphodynamique éolienne en régions sèches : des échelles spatiales et temporelles aux outils / Aeolian morphodynamics in drylands : spatial and temporal scales, associated tools

Venard, Cédric 13 December 2012 (has links)
Les régions sèches situées à la périphérie des déserts sont généralement peuplées et mises en valeur sur un mode sédentaire. Elles partagent cependant avec les milieux désertiques des conditions environnementales qui les rendent sensibles et fragiles. Cela implique de bien connaître les mécanismes de leurs milieux, a fortiori dans un contexte de désertification qui augmente le risque environnemental. Celui-ci est souvent évalué par le suivi de la végétation, mais l’expérience de terrain montre que les formes éoliennes pourraient apporter des compléments utiles. La morphodynamique éolienne joue en effet un rôle non négligeable dans le risque environnemental en régions sèches. Si, dans les systèmes désertiques, l’influence des activités humaines sur l’évolution des formes éoliennes de grande taille est réduite, dans les régions sèches non-désertiques, elles sont de plus petite dimension et leur vitesse de réaction aux changements des conditions du milieu est élevée. Elles sont de surcroît liées aux autres composants du paysage, avec lesquels elles interagissent fortement, et leur fonctionnement peut être corrélé aux modalités d’exploitation du milieu. Cela en fait des indicateurs pertinents et leur suivi doit donc être conçu dans une approche systémique appuyée sur une bonne maîtrise des fondements physiques de l’étude de la morphodynamique éolienne qui sont présentés en ouverture de ce mémoire. Différents outils et concepts élaborés dans les contextes désertiques, parmi lesquels les déplacements potentiels sableux et la densité d’obstacle, sont détaillés. Les effets paysagers de la morphodynamique éolienne sont illustrés par divers exemples. Son intégration dans les études de suivi est alors questionnée pour démontrer que de nouvelles approches peuvent être explorées. Les propositions faites s’intéressent en particulier à un objet, la forme éolienne d’obstacle, qui reste mal connu malgré la place qu’il tient dans les paysages des régions sèches. Une grille de caractérisation fine de cet objet est définie, à partir de laquelle un protocole de quantification et d’évaluation qualitative nécessaire à la production d’indicateurs peut être élaboré. Pour cela, les méthodes développées doivent être reproductibles et minimiser la complexité et les coûts de mise en oeuvre. Dans le domaine de la télédétection, la facilité d’utilisation et la précision des images du Pixy, paramoteur léger à voile souple, démontrent le potentiel des vecteurs de type drone. L’intérêt des satellites à très haute résolution spatiale pour, notamment, la généralisation d’études ciblées est également démontré. Les images produites correspondent notamment à une échelle intermédiaire qui faisait jusqu’alors défaut. Parmi les fournisseurs d’images très haute résolution spatiale, Google Earth est une alternative possible des fournisseurs commerciaux. La disponibilité de plus en plus grande d’images de résolution très élevée offre des perspectives d’applications dans des domaines variés. Leur exploitation présente cependant des contraintes que la Morphologie Mathématique (MM), discipline de l’analyse d’image orientée-objet, permet de contourner. Les outils de la MM facilitent l’analyse façon robuste des images non corrigées, du type Pixy ou Google Earth. Elle s’appuie sur des procédures simples à reproduire, dont les résultats s’expliquent facilement. Elle participe ainsi à réduire le coût des études. Or, la question économique du diagnostic environnemental ne peut être évacuée, en particulier dans les pays concernés par la lutte contre la désertification. Chaque chapitre de ce mémoire démontre l’importance de la prise en considération de deux seuils : d’une part, le seuil d’hétérogénéité, en-deçà duquel l’information recherchée est noyée dans le bruit d’un trop grand détail, d’autre part, le seuil d’homogénéité, au-delà duquel la maille d’analyse fait que l’information est trop lissée pour être pertinente.... / Drylands share with deserts many environmental conditions that make them sensitive and fragile. It is a necessity to understand the mechanisms of these environments, especially in contexts where there is a risk of desertification. Such an understanding is often assessed by monitoring vegetation. Field experience, however, shows that aeolian morphodynamics may provide useful additional information. The aeolian morphodynamics plays indeed a significant role in the environmental risk of drylands. In desert systems, the anthropogenic pressure on aeolian processes is low. On the other hand, in non-desert drylands, features are smaller but have a faster reaction time to environmental change. They interact strongly with other components of the landscape, such as human activities. Accordingly, the study of non-desertic aeolian morphodynamics has to be designed following a systematic approach. It relies on a good knowledge of fundamental physics of wind geomorphology that is described in this dissertation. Various tools and concepts developed in desert environments, including potential displacement and roughness density, are given. The effects of aeolian morphodynamics on landscapes are illustrated by various examples. Standard studies of wind dynamics are discussed and questioned to demonstrate that new approaches can be explored. This study focuses anchored dunes, which remain poorly studied despite their importance in drylands. Anchored dunes are described and characterized in detail. Then a protocole of quantification and qualitative evaluation can be elaborated.Our aim was to develop methods that are reproducible and minimize the complexity and costs of implementation. The unmanned platform, Pixy, illustrates the potential of drones which provide accurate images with a great flexibility of use. The interest of very high spatial resolution imagery provided by satellites such as QuickBird is also demonstrated. Their images introduce to an intermediate scale between field and large-scale satellite imagery. Among the providers of very high spatial resolution imagery, Google Earth (GE) appears to be a good alternative to commercial suppliers. Increasing availability of free high resolution images offers potential applications in various fields. However, their use has constraints that are managed by Mathematical Morphology (MM), an object-oriented image analysis discipline. Tools from MM allow the analysis of uncorrected images, like those of Pixy or GE. It relies on simple procedures easy to reproduce and explain. It thus contributes to reducing the cost of studies. This economic issue of environmental diagnosis cannot be ignored, especially in the countries concerned by the fight against desertification.Each chapter of this thesis demonstrates the importance of two thresholds through particular example. The threshold of heterogeneity, below which information is embedded in the background noise produced by too much detail, is the first one. The threshold of homogeneity, beyond which information is too smooth to be relevant, is the second one. This work attempts to show how these thresholds may have direct effects on results of a remote sensing study. This consideration is thus a structuring element of the methods used. Beyond the issue of aeolian morphodynamics, this thesis combines semi-automatic characterization methods of landscape elements with processes of multi-scalar integration. The results are potentially useful to any approach that seeks to understand the effects of a phenomenon at different scales.
567

Modélisation de textures anisotropes par la transformée en ondelettes monogéniques / Modelisation of anisotropic textures by the monogenic wavelet transform

Polisano, Kévin 12 December 2017 (has links)
L’analyse de texture est une composante du traitement d’image qui suscite beaucoup d’intérêt tant les applications qu’elle recouvre sont diverses. En imagerie médicale, les signaux enregistrés sous forme d’images telles que les radiographies de l’os ou les mammographies, présentent une micro-architecture fortement irrégulière qui invite à considérer la formation de ces textures comme la réalisation d’un champ aléatoire. Suite aux travaux précurseurs de Benoit Mandelbrot, de nombreux modèles dérivés du champ brownien fractionnaire ont été proposés pour caractériser l’aspect fractal des images et synthétiser des textures à rugosité prescrite. Ainsi l’estimation des paramètres de ces modèles, a notamment permis de relier la dimension fractale des images à la détection de modifications de la structure osseuse telle qu’on l’observe en cas d’ostéoporose. Plus récemment, d’autres modèles de champs aléatoires, dits anisotropes, ont été utilisés pour décrire des phénomènes présentant des directions privilégiées, et détecter par exemple des anomalies dans les tissus mammaires.Cette thèse porte sur l’élaboration de nouveaux modèles de champs anisotropes, permettant de contrôler localement l’anisotropie des textures. Une première contribution a consisté à définir un champ brownien fractionnaire anisotrope généralisé (GAFBF), et un second modèle basé sur une déformation de champs élémentaires (WAFBF), permettant tous deux de prescrire l’orientation locale de la texture. L’étude de la structure locale de ces champs est menée à l’aide du formalisme des champs tangents. Des procédures de simulation sont mises en oeuvres pour en observer concrètement le comportement, et servir de benchmark à la validation d’outils de détection de l’anisotropie. En effet l’étude de l’orientation locale et de l’anisotropie dans le cadre des textures soulève encore de nombreux problèmes mathématiques, à commencer par la définition rigoureuse de cette orientation. Notre seconde contribution s’inscrit dans cette perspective. En transposant les méthodes de détection de l’orientation basées sur la transformée en ondelettes monogéniques, nous avons été en mesure, pour une vaste classe de champs aléatoires, de définir une notion d’orientation intrinsèque. En particulier l’étude des deux nouveaux modèles de champs anisotropes introduits précédemment, a permis de relier formellement cette notion d’orientation aux paramètres d’anisotropie de ces modèles. Des connexions avec les statistiques directionnelles sont également établies, de façon à caractériser la loi de probabilité des estimateurs d’orientation.Enfin une troisième partie de la thèse est consacrée au problème de la détection de lignes dans les images. Le modèle sous jacent est celui d’une superposition de lignes diffractées (c-a-d convoluées par un noyau de flou) et bruitées, dont il s’agit de retrouver les paramètres de position et d’intensité avec une précision sub-pixel. Nous avons développé dans cet objectif une méthode basée sur le paradigme de la super-résolution. La reformulation du problème en termes d’atomes 1-D a permis de dégager un problème d’optimisation sous contraintes, et de reconstruire ces lignes en atteignant cette précision. Les algorithmes employés pour effectuer la minimisation appartiennent à la famille des algorithmes dits proximaux. La formalisation de ce problème inverse et sa résolution, constituent une preuve de concept ouvrant des perspectives à l’élaboration d’une transformée de Hough revisitée pour la détection ‘continue’ de lignes dans les images. / Texture analysis is a component of image processing which hold the interest in the various applications it covers. In medical imaging, the images recorded such as bone X-rays or mammograms show a highly irregular micro-architecture, which invites to consider these textures formation as a realization of a random field. Following Benoit Mandelbrot’s pioneer work, many models derived from the fractional Brownian field have been proposed to characterize the fractal behavior of images and to synthesize textures with prescribed roughness. Thus, the parameters estimation of these models has made possible to link the fractal dimension of these images to the detection of bone structure alteration as it is observed in the case of osteoporosis. More recently, other models known as anisotropic random fields have been used to describe phenomena with preferred directions, for example for detecting abnormalities in the mammary tissues.This thesis deals with the development of new models of anisotropic fields, allowing to locally control the anisotropy of the textures. A first contribution was to define a generalized anisotropic fractional Brownian field (GAFBF), and a second model based on an elementary field deformation (WAFBF), both allowing to prescribe the local orientation of the texture. The study of the local structure of these fields is carried out using the tangent fields formalism. Simulation procedures are implemented to concretely observe the behavior, and serve as a benchmark for the validation of anisotropy detection tools. Indeed, the investigation of local orientation and anisotropy in the context of textures still raises many mathematical problems, starting with the rigorous definition of this orientation. Our second contribution is in this perspective. By transposing the orientation detection methods based on the monogenic wavelet transform, we have been able, for a wide class of random fields, to define an intrinsic notion of orientation. In particular, the study of the two new models of anisotropic fields introduced previously allowed to formally link this notion of orientation with the anisotropy parameters of these models. Connections with directional statistics are also established, in order to characterize the probability distribution of orientation estimators.Finally, a third part of this thesis was devoted to the problem of the lines detection in images. The underlying model is that of a superposition of diffracted lines (i.e, convoluted by a blur kernel) with presence of noise, whose position and intensity parameters must be recovered with sub-pixel precision. We have developed a method based on the super-resolution paradigm. The reformulation of the problem in the framework of 1-D atoms lead to an optimization problem under constraints, and enables to reconstruct these lines by reaching this precision. The algorithms used to perform the minimization belong to the family of algorithms known as proximal algorithms. The modelization and the resolution of this inverse problem, provides a proof of concept opening perspectives to the development of a revised Hough transform for the continuous detection of lines in images.
568

Advanced spectral unmixing and classification methods for hyperspectral remote sensing data / Source separation in hyperspectral imagery

Villa, Alberto 29 July 2011 (has links)
La thèse propose des nouvelles techniques pour la classification et le démelange spectraldes images obtenus par télédétection iperspectrale. Les problèmes liées au données (notammenttrès grande dimensionalité, présence de mélanges des pixels) ont été considerés et destechniques innovantes pour résoudre ces problèmes. Nouvelles méthodes de classi_cationavancées basées sur l'utilisation des méthodes traditionnel de réduction des dimension etl'integration de l'information spatiale ont été développés. De plus, les méthodes de démelangespectral ont été utilisés conjointement pour ameliorer la classification obtenu avec lesméthodes traditionnel, donnant la possibilité d'obtenir aussi une amélioration de la résolutionspatial des maps de classification grace à l'utilisation de l'information à niveau sous-pixel.Les travaux ont suivi une progression logique, avec les étapes suivantes:1. Constat de base: pour améliorer la classification d'imagerie hyperspectrale, il fautconsidérer les problèmes liées au données : très grande dimensionalité, presence demélanges des pixels.2. Peut-on développer méthodes de classi_cation avancées basées sur l'utilisation des méthodestraditionnel de réduction des dimension (ICA ou autre)?3. Comment utiliser les differents types d'information contextuel typique des imagés satellitaires?4. Peut-on utiliser l'information données par les méthodes de démelange spectral pourproposer nouvelles chaines de réduction des dimension?5. Est-ce qu'on peut utiliser conjointement les méthodes de démelange spectral pour ameliorerla classification obtenu avec les méthodes traditionnel?6. Peut-on obtenir une amélioration de la résolution spatial des maps de classi_cationgrace à l'utilisation de l'information à niveau sous-pixel?Les différents méthodes proposées ont été testées sur plusieurs jeux de données réelles, montrantresultats comparable ou meilleurs de la plus part des methodes presentés dans la litterature. / The thesis presents new techniques for classification and unmixing of hyperspectral remote sensing data. The main issues connected to this kind of data (in particular the huge dimension and the possibility to find mixed pixels) have been considered. New advanced techniques have been proposed in order to solve these problems. In a first part, new classification methods based on the use of traditional dimensionality reduction methods (such as Independent Component Analysis - ICA) and on the integration of spatial and spectral information have been proposed. In a second part, methods based on spectral unmixing have been considered to improve the results obtained with classical methods. These methods gave the possibility to improve the spatial resolution of the classification maps thanks to the sub-pixel information which they consider.The main steps of the work are the following:- Introduction and survey of the data. Base assessment: in order to improve the classification of hyperspectral images, data related problems must be considered (very high dimension, presence of mixed pixels)- Development of advanced classification methods making use of classic dimensionality reduction techniques (Independent Component Discriminant Analysis)- Proposition of classification methods exploiting different kinds of contextual information, typical of hyperspectral imagery - Study of spectral unmixing techniques, in order to propose new feature extraction methods exploiting sub-pixel information - Joint use of traditional classification methods and unmixing techniques in order to obtain land cover classification maps at a finer resolutionThe different methods proposed have been tested on several real hyperspectral data, showing results which are comparable or better than methods recently proposed in the literature.
569

Schémas de Hilbert invariants et théorie classique des invariants / Invariant Hilbert Schemes and classical invariant theory

Terpereau, Ronan 05 November 2012 (has links)
Pour toute variété affine W munie d'une opération d'un groupe réductif G, le schéma de Hilbert invariant est un espace de modules qui classifie les sous-schémas fermés de W, stables par l'opération de G, et dont l'algèbre affine est somme directe de G-modules simples avec des multiplicités finies préalablement fixées. Dans cette thèse , on étudie d'abord le schéma de Hilbert invariant, noté H, qui paramètre les sous-schémas fermés GL(V)-stables Z de W=n1 V oplus n2 V^* tels que k[Z] est isomorphe à la représentation régulière de GL(V) comme GL(V)-module. Si dim(V)<3,on montre que H est une variété lisse, et donc que le morphisme de Hilbert-Chow gamma: H -> W//G est une résolution des singularités du quotient W//G. En revanche, si dim(V)=3, on montre que H est singulier. Lorsque dim(V)<3, on décrit H par des équations et aussi comme l'espace total d'un fibré vectoriel homogène au dessus d'un produit de deux grassmanniennes. On se place ensuite dans le cadre symplectique en prenant n1=n2 et en remplaçant W par la fibre en 0 de l'application moment mu: W -> End(V). On considère alors le schéma de Hilbert invariant H' qui paramètre les sous-schémas contenus dans mu^{-1}(0). On montre que H' est toujours réductible, mais que sa composante principale Hp' est lisse lorsque dim(V)<3. Dans ce cas, le morphisme de Hilbert-Chow est une résolution (parfois symplectique) des singularités du quotient mu^{-1}(0)//G. Lorsque dim(V)<3, on décrit Hp' comme l'espace total d'un fibré vectoriel homogène au dessus d'une variété de drapeaux. Enfin, on obtient des résultats similaires lorsque l'on remplace GL(V) par un autre groupe classique (SL(V), SO(V), O(V), Sp(V)) que l'on fait opérer d'abord dans W=nV, puis dans la fibre en 0 de l'application moment. / Let W be an affine variety equipped with an action of a reductive group G. The invariant Hilbert scheme is a moduli space which classifies the G-stable closed subschemes of W such that the affine algebra is the direct sum of simple G-modules with previously fixed finite multiplicities. In this thesis, we first study the invariant Hilbert scheme, denoted H. It parametrizes the GL(V)-stable closed subschemes Z of W=n1 V oplus n2 V^* such that k[Z] is isomorphic to the regular representation of GL(V) as GL(V)-module. If dim(V)<3, we show that H is a smooth variety, so that the Hilbert-Chow morphism gamma: H -> W//G is a resolution of singularities of the quotient W//G. However, if dim(V)=3, we show that H is singular. When dim(V)<3, we describe H by equations and also as the total space of a homogeneous vector bundle over the product of two Grassmannians. Then we consider the symplectic setting by letting n1=n2 and replacing W by the zero fiber of the moment map mu: W -> End(V). We study the invariant Hilbert scheme H' which parametrizes the subschemes included in mu^{-1}(0). We show that H' is always reducible, but that its main component Hp' is smooth if dim(V)<3. In this case, the Hilbert-Chow morphism is a resolution of singularities (sometimes a symplectic one) of the quotient mu^{-1}(0)//G. When dim(V)=3, we describe Hp' as the total space of a homogeneous vector bundle over a flag variety. Finally, we get similar results when we replace GL(V) by some other classical group (SL(V), SO(V), O(V), Sp(V)) acting first on W=nV, then on the zero fiber of the moment map.
570

ApAM : un environnement pour le développement et l'exécution d'applications ubiquitaires / ApAM : An environment for the development and execution of ubiquitous applications

Damou, Elmehdi 25 October 2013 (has links)
Simplifier notre interaction avec les entités informatiques interconnectées de notre environnement et faciliter l'exploitation des informations générées par celles-ci est l'objectif des environnements et applications ubiquitaires. Le comportement des applications ubiquitaires dépend de l'état et de la disponibilité des entités (logicielles ou dispositifs) qui compose l'environnement ubiquitaire dans lequel ils évoluent, ainsi que des préférences et localisation des utilisateurs. Développer et exécuter des applications ubiquitaires est un véritable défi que notre approche essaie de relever au travers de l'environnement d'exécution ApAM. Considérant que l'environnement d'exécution est imprévisible, nous partons du principe qu'une application ubiquitaire doit disposer d'une grande flexibilité dans le choix de ses composants et que cette composition doit être automatique. Nous proposons une description abstraite et implicite de la composition (où les composants et les liens entre eux ne sont pas décrits explicitement), ce qui permet de construire l'application incrémentalement pendant la phase d'exécution. La plate-forme d'exécution ApAM implémente ces mécanismes de composition incrémentale et s'en sert pour conférer aux applications ubiquitaires la capacité de « résister » et de s'adapter aux changements imprévisibles de l'environnement d'exécution. Cette propriété dite de résilience est au cœur de notre approche car elle permet aux programmeurs de développer « simplement » des applications « résilientes » sans avoir à décrire les diverses adaptations à réaliser, et même sans connaitre toutes les perturbations de l'environnement auquel elles seront soumises. Notre proposition offre le moyen de développer et d'exécuter des applications ayant un haut niveau de résilience vis-à-vis des évolutions de leur contexte d'exécution, grâce à des mécanismes automatiques capables de construire et de modifier à l'exécution l'architecture logicielle des applications ubiquitaire. Les mécanismes fournis sont génériques mais peuvent être étendus et spécialisés pour s'adapter plus finement à certaines applications ou à des domaines métiers spécifiques. / The goal of ubiquitous environments and applications is to simplify our interaction with interconnected software and hardware entities, and to allow the exploitation of the information that they gather and generate. The behavior of ubiquitous applications depends on the state and the availability of the software and hardware entities that compose the ubiquitous environment in which they are constantly evolving, as well as, the preferences and locations of users. Developing and executing ubiquitous applications is a difficult challenge that our approach attempts to address with the creation of the ApAM execution environment. Knowing that the execution environment is unpredictable, we believe that ubiquitous applications require a large amount of flexibility in choosing the components that compose the application, and that the composition should be automated. We propose an abstract and implicit description of the composition, where components and bindings are not explicitly described. This allows to incrementally building an application at runtime. The ApAM execution platform implements the mechanisms to achieve incremental composition and uses them to provide ubiquitous applications with the resilience and adaptability necessary to face unpredictable changes that originate in the execution environment. Resilience is a core property of our approach because it allows developers to easily build applications without the need to either describe nor predict the multiple adaptations required to support environmental disturbances which the applications will encounter. Our proposal offers the means of developing and executing applications with a high level of resilience in regards to their continuously evolving context. This is possible thanks to the mechanisms described in this dissertation that allow building and changing, at runtime, ubiquitous applications. These mechanisms are generic but can be extended or specialized in order to solve domain or application-specific issues.

Page generated in 0.0622 seconds