• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 169
  • 146
  • 1
  • 1
  • Tagged with
  • 490
  • 490
  • 482
  • 323
  • 320
  • 55
  • 45
  • 44
  • 41
  • 38
  • 35
  • 33
  • 33
  • 32
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Traitement logarithmique d'images couleur

Gouinaud, Hélène 05 April 2013 (has links) (PDF)
Cette thèse de doctorat porte sur l'extension du modèle LIP (Logarithmic Image Processing) aux images en couleurs. Le modèle CoLIP (Color Logarithmic Image Processing) est défini, étudié et appliqué au traitement d'image dans ce manuscrit.Le modèle LIP est un cadre mathématique original complet, développé pour le traitement d'images à niveaux de gris, rigoureusement établi mathématiquement, compatible avec les lois physiques de formation d'image, et mieux adapté que l'approche classique pour modéliser la perception visuelle humaine de l'intensité de la lumière. Après une étude de la vision des couleurs et de la science des couleurs, le modèle CoLIP est construit en suivant les étapes de la perception humaine des couleurs, tout en intégrant le cadre mathématique du modèle LIP. Dans un premier temps, le CoLIP est construit en suivant les étapes de la photoréception, de la compression lumineuse et du codage antagoniste. Il est donc développé comme un espace couleur représentant une image couleur par un ensemble de trois fonctions de tons antagonistes, sur lesquelles sont définies les opérations CoLIP d'addition et de multiplication par un scalaire, qui confèrent à cet espace couleur la structure d'espace vectoriel couleur. Ensuite, l'espace couleur CoLIP étant un espace de type luminance-chrominance uniforme, les attributs relatifs et absolus de la perception humaine des couleurs (teinte, chroma, coloration, luminosité, clarté, et saturation) peuvent être définis. Cette construction fait du CoLIP à la fois un espace vectoriel couleur bien structuré mathématiquement, et un modèle d'apparence couleur. Dans un deuxième temps, un grand nombre de justifications physiques, mathématiques, et psychophysiques du modèle CoLIP sont proposées, notamment la comparaison des formes des ellipses de MacAdam dans l'espace de couleur uniforme CoLIP et dans d'autres modèles uniformes, sur des critères d'aire et d'excentricité des ellipses. Enfin, diverses applications utilisant la structure d'espace vectoriel couleur du modèle CoLIP sont proposées, telles que le rehaussement de contraste, le rehaussement d'image et la détection de contour. Des applications utilisant la structure de modèle d'apparence couleur, qui permet de travailler sur les notions de teinte, de luminosité et de saturation, sont également développées. Une application spécifique permettant de mesurer la viabilité des cellules sur des images de lames obtenues par cytocentrifugation et marquage couleur est également proposée.
162

Optimisation des requêtes de similarité dans les espaces métriques répondant aux besoins des usagers

Ribeiro Porto Ferreira, Monica 22 October 2012 (has links) (PDF)
La complexité des données contenues dans les grandes bases de données a augmenté considérablement. Par conséquent, des opérations plus élaborées que les requêtes traditionnelles sont indispensable pour extraire toutes les informations requises de la base de données. L'intérêt de la communauté de base de données a particulièrement augmenté dans les recherches basées sur la similarité. Deux sortes de recherche de similarité bien connues sont la requête par intervalle (Rq) et par k-plus proches voisins (kNNq). Ces deux techniques, comme les requêtes traditionnelles, peuvent être accélérées par des structures d'indexation des Systèmes de Gestion de Base de Données (SGBDs).Une autre façon d'accélérer les requêtes est d'exécuter le procédé d'optimisation des requêtes. Dans ce procédé les données métriques sont recueillies et utilisées afin d'ajuster les paramètres des algorithmes de recherche lors de chaque exécution de la requête. Cependant, bien que l'intégration de la recherche de similarités dans le SGBD ait commencé à être étudiée en profondeur récemment, le procédé d'optimisation des requêtes a été développé et utilisé pour répondre à des requêtes traditionnelles. L'exécution des requêtes de similarité a tendance à présenter un coût informatique plus important que l'exécution des requêtes traditionnelles et ce même en utilisant des structures d'indexation efficaces. Deux stratégies peuvent être appliquées pour accélérer l'execution de quelques requêtes, et peuvent également être employées pour répondre aux requêtes de similarité. La première stratégie est la réécriture de requêtes basées sur les propriétés algébriques et les fonctions de coût. La deuxième stratégie est l'utilisation des facteurs externes de la requête, tels que la sémantique attendue par les usagers, pour réduire le nombre des résultats potentiels. Cette thèse vise à contribuer au développement des techniques afin d'améliorer le procédé d'optimisation des requêtes de similarité, tout en exploitant les propriétés algébriques et les restrictions sémantiques pour affiner les requêtes.
163

Algebraic certificates for Budan's theorem

Bembé, Daniel 02 August 2011 (has links) (PDF)
In this work we present two algebraic certificates for Budan's theorem. Budan's theorem claims the following. Let R be an ordered field, f in R[X] of degree n and a,b in R with a
164

Méthodes variationnelles : Applications à l'analyse d'image et au modèle de Frenkel-Kontorova

Issa, Samar 19 December 2011 (has links) (PDF)
Cette thèse est décomposée en deux parties. La première est consacrée à l'étude de la restauration d'image et la seconde partie est consacrée à l'étude d'un modèle de Frenkel-Kontorova par des méthodes issues du calcul variationnel et des équations aux dérivées partielles. Au chapitre 1, nous présentons les questions essentielles que nous traiterons dans cette thèse, puis on fait des rappels sur les définitions et quelques propriétés d'espace des fonctions à variations bornées BV , l'espace d'Orlicz et le modèle de Frenkel-Kontorova. Au chapitre 2, nous montrons que les problèmes de minimisation non convexe (restauration d'image) contenant des termes de régularisation sous-linéaires sont mal posés. Au chapitre 3, nous étudions un modèle de restauration avec un terme de régularisation à croissance non standard, proposé par Blomgren et al. : le module du gradient est élevé a une puissance qui dépend elle même du gradient. On montre qu'elle est semi-continue inférieurement pour la topologie faible d'un certain espace d'Orlicz-Sobolev qui lui est associé, ce qui permet un résultat d'existence de la solution. Au chapitre 4, nous étudions un modèle de Frenkel-Kontorova, dont on montre l'existence d'au moins une solution de type travelling wave, u.
165

Modélisation 3D à partir d'images : contributions en reconstruction photométrique à l'aide de maillages déformables

Delaunoy, Amael 02 December 2011 (has links) (PDF)
Comprendre, analyser et modéliser l'environment 3D à partir d'images provenant de caméras et d'appareils photos est l'un des défis majeurs actuel de recherche en vision par ordinateur. Cette thèse s'interesse à plusieurs aspects géométriques et photometriques liés à la reconstruction de surface à partir de plusieurs caméras calibrées. La reconstruction 3D est vue comme un problème de rendu inverse, et vise à minimiser une fonctionnelle d'énergie afin d'optimiser un maillage triangulaire représentant la surface à reconstruire. L'énergie est définie via un modèle génératif faisant naturellement apparaître des attributs tels que la visibilité ou la photométrie. Ainsi, l'approche présentée peut indifférement s'adapter à divers cas d'application tels que la stéréovision multi-vues, la stéréo photométrique multi-vues ou encore le "shape from shading" multi-vues. Plusieurs approches sont proposées afin de résoudre les problèmes de correspondances de l'apparence pour des scènes non Lambertiennes, dont l'apparence varie en fonction du point de vue. La segmentation, la stéréo photométrique ou encore la réciprocité d'Helmholtz sont des éléments étudiés afin de contraindre la reconstruction. L'exploitation de ces contraintes dans le cadre de reconstruction multi-vues permet de reconstruire des modèles complets 3D avec une meilleure qualité.
166

Trois problèmes géométriques d'hyperbolicité complexe et presque complexe.

Saleur, Benoit 22 November 2011 (has links) (PDF)
Cette thèse est consacrée à l'étude de trois problèmes d'hyperbolicité complexe et presque complexe. La première partie est dédiée à la recherche d'une conséquence quantitative de l'hyperbolicité au sens de Kobayashi, qui est une propriété qualitative. Le résultat obtenu prend la forme d'une inégalité isopérimétrique qui évoque l'inégalité d'Ahlfors relative aux recouvrements des surfaces de surfaces. Sa démonstration est purement riemannienne.La deuxième partie de la thèse est consacrée à la démonstration d'une version presque complexe du théorème de Borel, qui affirme que les courbes entières dans le plan projectif complexe évitant quatre droites en position générale sont linéairement dégénérées. Dans un plan projectif presque complexe, les J-droites substituent aux droites projectives et nous disposons d'un énoncé analogue pour les J-courbes entières. La démonstration de ce résultat repose sur l'utilisation de projections centrales et sur la théorie de recouvrement des surfaces d'Ahlfors.La dernière partie est consacrée à la démonstration d'une version presque complexe du théorème de Bloch, qui affirme qu'une suite non normale de disques holomorphes du plan projectif évitant quatre droites en position générale converge, en un certain sens, vers une réunion de trois droites. Notre résultat implique en particulier l'hyperbolicité du complémentaire dans le plan projectif presque complexe de quatre J-droites modulo trois J-droites.
167

Mathematical analysis of models of non-homogeneous fluids and of hyperbolic equations with low regularity coefficients

Fanelli, Francesco 28 May 2012 (has links) (PDF)
The present thesis is devoted both to the study of strictly hyperbolic operators with low regularity coefficients and of the density-dependent incompressible Euler system. On the one hand, we show a priori estimates for a second order strictly hyperbolic operator whose highest order coefficients satisfy a log-Zygmund continuity condition in time and a log-Lipschitz continuity condition with respect to space. Such an estimate involves a time increasing loss of derivatives. Nevertheless, this is enough to recover well-posedness for the associated Cauchy problem in the space $H^infty$ (for suitably smooth second order coefficients).In a first time, we consider acomplete operator in space dimension $1$, whose first order coefficients were assumed Hölder continuous and that of order $0$only bounded. Then, we deal with the general case of any space dimension, focusing on a homogeneous second order operator: the step to higher dimension requires a really different approach. On the other hand, we consider the density-dependent incompressible Euler system. We show its well-posedness in endpoint Besov spaces embedded in the class of globally Lipschitz functions, producing also lower bounds for the lifespan of the solution in terms of initial data only. This having been done, we prove persistence of geometric structures, such as striated and conormal regularity, for solutions to this system. In contrast with the classical case of constant density, even in dimension $2$ the vorticity is not transported by the velocity field. Hence, a priori one can expect to get only local in time results. For the same reason, we also have to dismiss the vortex patch structure. Littlewood-Paley theory and paradifferential calculus allow us to handle these two different problems .A new version of paradifferential calculus, depending on a parameter $ggeq1$, is also needed in dealing with hyperbolic operators with nonregular coefficients. The general framework is that of Besov spaces, which includes in particular Sobolev and Hölder sets. Intermediate classes of functions, of logaritmic type, come into play as well
168

Estimations a posteriori pour l'équation de convection-diffusion-réaction instationnaire et applications aux volumes finis

Chalhoub, Nancy 17 December 2012 (has links) (PDF)
On considère l'équation de convection-diffusion-réaction instationnaire. On s'intéresse à la dérivation d'estimations d'erreur a posteriori pour la discrétisation de cette équation par la méthode des volumes finis centrés par mailles en espace et un schéma d'Euler implicite en temps. Les estimations, qui sont établies dans la norme d'énergie, bornent l'erreur entre la solution exacte et une solution post-traitée à l'aide de reconstructions H(div, Ω)-conformes du flux diffusif et du flux convectif, et d'une reconstruction H_0^1(Ω)-conforme du potentiel. On propose un algorithme adaptatif qui permet d'atteindre une précision relative fixée par l'utilisateur en raffinant les maillages adaptativement et en équilibrant les contributions en espace et en temps de l'erreur. On présente également des essais numériques. Enfin, on dérive une estimation d'erreur a posteriori dans la norme d'énergie augmentée d'une norme duale de la dérivée en temps et de la partie antisymétrique de l'opérateur différentiel. Cette nouvelle estimation est robuste dans des régimes dominés par la convection et des bornes inférieures locales en temps et globales en espace sont également obtenues.
169

Méthodes de Galerkin stochastiques adaptatives pour la propagation d'incertitudes paramétriques dans les modèles hyperboliques

Tryoen, Julie 21 November 2011 (has links) (PDF)
On considère des méthodes de Galerkin stochastiques pour des systèmes hyperboliques faisant intervenir des données en entrée incertaines de lois de distribution connues paramétrées par des variables aléatoires. On s'intéresse à des problèmes où un choc apparaît presque sûrement en temps fini. Dans ce cas, la solution peut développer des discontinuités dans les domaines spatial et stochastique. On utilise un schéma de Volumes Finis pour la discrétisation spatiale et une projection de Galerkin basée sur une approximation polynomiale par morceaux pour la discrétisation stochastique. On propose un solveur de type Roe avec correcteur entropique pour le système de Galerkin, utilisant une technique originale pour approcher la valeur absolue de la matrice de Roe et une adaptation du correcteur entropique de Dubois et Mehlmann. La méthode proposée reste coûteuse car une discrétisation stochastique très fine est nécessaire pour représenter la solution au voisinage des discontinuités. Il est donc nécessaire de faire appel à des stratégies adaptatives. Comme les discontinuités sont localisées en espace et évoluent en temps, on propose des représentations stochastiques dépendant de l'espace et du temps. On formule cette méthodologie dans un contexte multi-résolution basé sur le concept d'arbres binaires pour décrire la discrétisation stochastique. Les étapes d'enrichissement et d'élagage adaptatifs sont réalisées en utilisant des critères d'analyse multi-résolution. Dans le cas multidimensionnel, une anisotropie de la procédure adaptative est proposée. La méthodologie est évaluée sur le système des équations d'Euler dans un tube à choc et sur l'équation de Burgers en une et deux dimensions stochastiques
170

Contributions à la localisation intra-muros. De la modélisation à la calibration théorique et pratique d'estimateurs

Dumont, Thierry 13 December 2012 (has links) (PDF)
Préfigurant la prochaine grande étape dans le domaine de la navigation, la géolocalisation intra-muros est un domaine de recherche très actif depuis quelques années. Alors que la géolocalisation est entrée dans le quotidien de nombreux professionnels et particuliers avec, notamment, le guidage routier assisté, les besoins d'étendre les applications à l'intérieur se font de plus en plus pressants. Cependant, les systèmes existants se heurtent à des contraintes techniques bien supérieures à celles rencontrées à l'extérieur, la faute, notamment, à la propagation chaotique des ondes électromagnétiques dans les environnements confinés et inhomogènes. Nous proposons dans ce manuscrit une approche statistique du problème de géolocalisation d'un mobile à l'intérieur d'un bâtiment utilisant les ondes WiFi environnantes. Ce manuscrit s'articule autour de deux questions centrales : celle de la détermination des cartes de propagation des ondes WiFi dans un bâtiment donné et celle de la construction d'estimateurs des positions du mobile à l'aide de ces cartes de propagation. Le cadre statistique utilisé dans cette thèse afin de répondre à ces questions est celui des modèles de Markov cachés. Nous proposons notamment, dans un cadre paramétrique, une méthode d'inférence permettant l'estimation en ligne des cartes de propagation, sur la base des informations relevées par le mobile. Dans un cadre non-paramétrique, nous avons étudié la possibilité d'estimer les cartes de propagation considérées comme simple fonction régulière sur l'environnement à géolocaliser. Nos résultats sur l'estimation non paramétrique dans les modèles de Markov cachés permettent d'exhiber un estimateur des fonctions de propagation dont la consistance est établie dans un cadre général. La dernière partie du manuscrit porte sur l'estimation de l'arbre de contextes dans les modèles de Markov cachés à longueur variable.

Page generated in 0.1328 seconds