• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 299
  • 105
  • 46
  • 3
  • Tagged with
  • 443
  • 162
  • 102
  • 95
  • 90
  • 79
  • 77
  • 68
  • 57
  • 57
  • 53
  • 49
  • 43
  • 42
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Tatouage robuste par étalement de spectre avec prise en compte de l'information adjacente

Le Guelvouit, Gaëtan 24 November 2003 (has links) (PDF)
La technologie numérique rend la transmission, le stockage et la modification de documents multimedia beaucoup plus aisés qu'auparavant. Mais du fait de cette facilité, l'authentification et la gestion des droits d'auteur deviennent difficiles. Le tatouage robuste est une solution qui s'est beaucoup développée depuis une dizaine d'années. Il permet d'insérer au sein d'un document multimedia (document hôte) un message (identifiant d'auteur, signature numérique, . . .). Cette modification est peu perceptible afin de ne pas gêner l'exploitation normale du document marqué. De plus, l'algorithme d'extraction doit pouvoir retrouver le message malgré d'éventuelles modifications de l'hôte (attaques). Alors que les premières études sur ce domaine étaient empiriques, il est apparu rapidement que le tatouage était assimilable à un problème de communication. Nous faisons le choix d'utiliser une technique de transmission particulièrement adaptée aux canaux fortement bruités, appelée étalement de spectre, et nous considérons des attaques SAWGN (scaling and additive white Gaussian noise). L'interaction entre tatouage et attaques est modélisée par un jeu entre un attaquant et un défenseur. Une optimisation de type max-min donne la forme de l'attaque optimale, qui va le plus réduire la performance de la transmission, et de la stratégie qui permet de s'en protéger au mieux. L'application de ces résultats sur des signaux issus de la transformée en ondelettes d'images confirme le bien-fondé de notre approche : l'attaque obtenue est la plus efficace, et la stratégie d'insertion est bien plus performante que les techniques testées issues de l'état de l'art. Le canal de tatouage est un canal avec information adjacente : une partie du bruit (le signal hôte) est connue au moment de l'insertion de la marque. Les travaux sur ces canaux promettent des performances théoriques bien supérieures aux canaux gaussiens classiques. Dans la troisième partie de ce manuscrit, nous reprenons l'optimisation par théorie des jeux en incluant une mesure de performance prenant en compte l'information adjacente. Nous détaillons ensuite la construction d'un dictionnaire structuré adapté à ces canaux. Les expérimentations nous indiquent de forts gains de performance. Enfin, le dernier chapitre améliore le jeu : l'étude de l'influence de désynchronisations géométriques sur les performances, et la définition d'une attaque informée prenant en compte la réalisation du signal reçu.
362

Constance de largeur et désocclusion dans les images digitales

Villéger, Emmanuel 06 December 2005 (has links) (PDF)
L'école Gestaltiste s'intéresse à la vision, leur point de vue est que<br />nous regroupons des points lumineux et/ou des objets selon certaines<br />règles pour former des objets plus gros, des Gestalts.<br /><br />La première partie de cette thèse est consacrée à la constance de<br />largeur. La Gestalt constance de largeur regroupe des points situés<br />entre deux bords qui restent parallèles. Nous cherchons donc dans les<br />images des courbes ``parallèles.'' Nous voulons faire une détection<br />a contrario, nous proposons donc une quantification du ``non<br />parallélisme'' de deux courbes par trois méthodes. La première méthode<br />utilise un modèle de génération de courbes régulières et nous<br />calculons une probabilité. La deuxième méthode est une méthode de<br />simulation de type Monte-Carlo pour estimer cette probabilité. Enfin<br />la troisième méthode correspond à un développement limité de la<br />première en faisant tendre un paramètre vers 0 sous certaines<br />contraintes. Ceci conduit à une équation aux dérivées partielles<br />(EDP). Parmi ces trois méthodes la méthode de type Monte-Carlo est<br />plus robuste et plus rapide.<br /><br />L'EDP obtenue est très similaire à celles utilisées pour la<br />désocclusion d'images. C'est pourquoi dans la deuxième partie de cette<br />thèse nous nous intéressons au problème de la désocclusion. Nous<br />présentons les méthodes existantes puis une nouvelle méthode basée sur<br />un système de deux EDPs dont l'une est inspirée de celle de la<br />première partie. Nous introduisons la probabilité de l'orientation du<br />gradient de l'image. Nous prenons ainsi en compte l'incertitude sur<br />l'orientation calculée du gradient de l'image. Cette incertitude est<br />quantifiée en relation avec la norme du gradient.<br /><br />Avec la quantification du non parallélisme de deux courbes, l'étape<br />suivante est la détection de la constance de largeur dans<br />les images. Il faut alors définir un seuil pour sélectionner les<br />bonnes réponses du détecteur et surtout parmi les réponses définir<br />des réponses ``maximales.'' Le système d'EDPs pour<br />la désocclusion dépend de beaucoup de paramètres, il faut trouver une<br />méthode de calibration des paramètres pour obtenir de bons résultats<br />adaptés à chaque image.
363

Estimation dans des modèles à variables cachées

Matias, Catherine 21 December 2001 (has links) (PDF)
Cette thèse porte sur des problèmes d'estimation dans des modèles à variables cachées. Le Chapitre 1 est consacré à l'étude d'un modèle de Markov caché où la chaîne de Markov, non-nécessairement stationnaire, est supposée à valeurs dans un espace d'états compact et les observations dans un espace métrique séparable complet. La loi de la chaîne cachée ainsi que la loi conditionnelle dépendent d'un paramètre. Nous prouvons que l'estimateur du maximum de vraisemblance du paramètre est consistant, asymptotiquement normal et efficace. Le Chapitre 2 porte sur l'étude du modèle de convolution. Les observations sont issues d'un signal composé de variables aléatoires i.i.d. de densité inconnue g et d'un bruit blanc Gaussien centré de variance inconnue \sigma. Nous montrons que la non-connaissance de \sigma dégrade nettement la vitesse d'estimation de g : dans la plupart des cas ``réguliers'' cette vitesse est toujours plus lente que (log n)^(-1/2). Nous proposons alors un estimateur de \sigma qui est presque minimax lorsque g possède un support inclus dans un compact fixé. Nous construisons également un estimateur consistant universel de \sigma (i.e. sans contrainte sur g autre que celle d'identifiabilité du modèle). Dans le Chapitre 3, nous considérons ce même modèle de convolution mais lorsque le bruit possède une variance connue (fixée égale à 1) et nous nous intéressons aux propriétés d'estimation de fonctionnelles linéaires intégrales de de la forme \int f(x)\Phi_1(y-x) g(x)dx où \Phi_1 désigne la densité du bruit et f est une fonction connue. Nous étendons les résultats de Taupin dans le cas où la fonction f est soit une fonction polynomiale, soit un polynôme trigonométrique, en établissant des minorations du risque quadratique ponctuel et du risque par rapport à la norme infinie, ainsi que des majorations et minorations du risque par rapport à la norme p (1 \geq p <\infty). Nous montrons que l'estimateur proposé par Taupin atteint les vitesses optimales dans le cas où f est un polynôme et est presque minimax dans le cas où f est un polynôme trigonométrique, avec une perte pour le risque quadratique et pour le risque en norme infinie.
364

Reconnaissance d'Objets Polyédriques à partir d'une image vidéo pour la téléopération

Shaheen, Mudar 18 March 1999 (has links) (PDF)
Notre laboratoire travaille sur la conception et le développement de Modules de Contrôle et d'Interface pour la Téléopération (MCIT). Le but de MCIT est de fournir à l'opérateur une aide pour la perception et pour la commande du site téléopéré. L'aide visuelle consiste en la mise à jour et la superposition de la BD3D sur l'image vidéo. Afin d'automatiser cette aide, un système de reconnaissance de polyèdres à partir d'une image de luminance a été développé et intégré à MCIT dans le cadre de cette thèse. Ce système est constitué d'un module de traitement d'images et d'un module d'appariement 2D/3D. Le 1er module est basé sur la modélisation orientée objet. La transformée de Hough, dont une amélioration est apportée, est utilisée pour extraire les segments de droite de l'image. L'organisation perceptive est appliquée pour trouver un modèle 2D de l'image. Le 2nd module est constitué de deux étapes. La 1ère étape concerne la prédiction d'hypothèses, elle utilise 2 méthodes d'appariement : la méthode des graphes qui donne un nombre d'hypothèses très réduit grâce à l'utilisation des invariants topologiques et projectifs mais, elle échoue en présence de défauts du traitement d'images. Dans ce cas, nous appliquons la méthode du hachage géométrique qui donne toujours une solution. Deux méthodes d'extraction de graphes d'aspects applicables aux polyèdres ont été également développées. La première est destinée à l'appariement par graphes, la seconde est utilisée par le hachage géométrique. La 2nde étape concerne la vérification de l'appariement, nous avons mis en oeuvre des méthodes existantes de recalage et avons développé une méthode hybride qui donne une meilleure précision. Le développement de la calibration automatique de la caméra à l'aide d'un robot a permis également d'augmenter la précision et l'autonomie du système.
365

Analyse non-linéaire matérielle et géométrique des structures coques en béton armé sous chargements statiques et dynamiques

Aouameur-Mesbah, Amel 15 September 1998 (has links) (PDF)
Les éléments de coques multicouches ont montré une grande efficacité dans l'analyse non linéaire des structures. A l'origine, ces éléments avaient été développés pour des lois de comportement spécifiques au béton et à l'acier. Leur généralisation à l'analyse des structures dont le comportement est régi par des lois de comportement à variables internes (plasticité, élasto-visco-plasticité, endommagement) constitue le propos de ce travail de thèse. Issus de l'approche semi-globale, les éléments de coques multicouches permettent de rendre compte des phénomènes non-linéaires tant matériels que géométriques pour l'analyse des structures constituées de coques, sous divers chargements, avec un temps de calcul raisonnable. Dans une première partie, nous développons ces éléments dans le cadre de l'hypothèse des petites perturbations. Une extension est ensuite présentée en intégrant les effets non-linéaires géométriques. Une description lagrangienne actualisée avec un traitement semi-tangentiel des paramètres de rotation est utilisée à cet effet. Dans une seconde partie, nous présentons dans un cadre général, l'aspect théorique ainsi que le traitement numérique des lois de comportement à variables internes. A partir de là, un ensemble de lois de comportement à variables internes permettant la modélisation des comportements de l'acier et du béton sous divers chargements, est présenté. Le but étant d'utiliser ces modèles au sein des éléments finis de coques multicouches, pour le calcul de structures coques en béton armé soumises à des chargements statiques et dynamiques. Une attention particulière est portée sur la condition de contraintes planes d'une part dans le schéma d'intégration des contraintes, et d'autre part dans le calcul du tenseur de comportement tangent. Enfin, les développements effectués sont implantés dans le code de calcul par éléments finis CESAR-LCPC. Au travers d'exemples d'applications numériques, nous précisons le domaine d'application ainsi que les limites des outils proposés.
366

Communications entre les systèmes de CAO et les systèmes experts à bases de connaissances en bâtiment dans un environnement d'intelligence artificielle

Sarkis, Georges 10 February 1992 (has links) (PDF)
Le problème de conception dans le domaine du bâtiment est pluridisciplinaire. Plusieurs experts (architectes, ingénieurs, techniciens, ...) doivent coopérer et négocier afin de produire un résultat cohérent. Pour développer un outil informatique d'aide à la conception en bâtiment, on utilise un environnement avancé d'intelligence artificielle alliant une puissante représentation orientée objet à des mécanismes d'organisation et de contrôle du raisonnement. Le travail porte surtout sur le couplage de systèmes experts à base de connaissance en bâtiment (pour le raisonnement) avec des outils de CAO (pour la saisie et l'interaction graphique). La thèse consiste en une contribution à la spécification des éléments de base d'un prototype de cet outil. La spécification est concrétisée par une maquette logicielle.
367

Transport Laplacien aux interfaces irrégulière : Etude théorique, numérique et expérimentale.

Grebenkov, Denis 02 July 2004 (has links) (PDF)
L'objectif premier de cette thèse est le développement d'une approche théorique des divers phénomènes de transport laplacien aux interfaces irrégulières: diffusion stationnaire à travers des membranes semi-perméables, transport électrique vers une électrode non bloquante dans un électrolyte, catalyse hétérogène sur une surface catalytique. L'influence de l'irrégularité géométrique, qui joue un rôle primordial dans ces phénomènes, peut être intégralement prise en compte à l'aide d'un opérateur purement mathématique, dit opérateur de Dirichlet-Neumann. Ses propriétés spectrales déterminent complètement la réponse linéaire d'un système considéré. Une étude numérique approfondie des différents aspects du transport laplacien aux interfaces irrégulières, modélisées ici par des frontières de Von Koch déterministes ou stochastiques, a apporté de nombreux résultats dont les plus importants sont: mise en évidence de la très faible proportion de modes propres de l'opérateur de Dirichlet-Neumann contribuant à l'impédance de la frontière, interprétation des valeurs propres de cet opérateur comme inverses des longueurs caractéristiques de l'interface, déduction d'un modèle analytique de l'impédance. En particulier, le modèle mathématique développé, qui exploite la hiérarchie des échelles caractéristiques, permet d'étudier des préfractales d'ordre très élevé. L'étude numérique de la mesure harmonique, dont la densité représente les probabilités de premier contact (analogue du courant primaire en électrochimie), a d'ailleurs permis de mettre au point une méthode de marches aléatoires rapides adaptées aux frontières de Von Koch considérées et de déterminer les dimensions multifractales avec une très bonne précision. Enfin, l'étude expérimentale avec une électrode de Von Koch a montré que cette approche théorique permet de prendre en compte l'irrégularité géométrique sans connaître le mécanisme de transport microscopique, ce qui ouvre toute une nouvelle branche d'applications possibles en électrochimie ou dans d'autres domaines.
368

Topics in convex optimization: interior-point methods, conic duality and approximations

Glineur, Francois 26 January 2001 (has links)
Optimization is a scientific discipline that lies at the boundary between pure and applied mathematics. Indeed, while on the one hand some of its developments involve rather theoretical concepts, its most successful algorithms are on the other hand heavily used by numerous companies to solve scheduling and design problems on a daily basis. Our research started with the study of the conic formulation for convex optimization problems. This approach was already studied in the seventies but has recently gained a lot of interest due to development of a new class of algorithms called interior-point methods. This setting is able to exploit the two most important characteristics of convexity: - a very rich duality theory (existence of a dual problem that is strongly related to the primal problem, with a very symmetric formulation), - the ability to solve these problems efficiently, both from the theoretical (polynomial algorithmic complexity) and practical (implementations allowing the resolution of large-scale problems) point of views. Most of the research in this area involved so-called self-dual cones, where the dual problem has exactly the same structure as the primal: the most famous classes of convex optimization problems (linear optimization, convex quadratic optimization and semidefinite optimization) belong to this category. We brought some contributions in this field: - a survey of interior-point methods for linear optimization, with an emphasis on the fundamental principles that lie behind the design of these algorithms, - a computational study of a method of linear approximation of convex quadratic optimization (more precisely, the second-order cone that can be used in the formulation of quadratic problems is replaced by a polyhedral approximation whose accuracy that can be guaranteed a priori), - an application of semidefinite optimization to classification, whose principle consists in separating different classes of patterns using ellipsoids defined in the feature space (this approach was successfully applied to the prediction of student grades). However, our research focussed on a much less studied category of convex problems which does not rely on self-dual cones, i.e. structured problems whose dual is formulated very differently from the primal. We studied in particular - geometric optimization, developed in the late sixties, which possesses numerous application in the field of engineering (entropy optimization, used in information theory, also belongs to this class of problems) - l_p-norm optimization, a generalization of linear and convex quadratic optimization, which allows the formulation of constraints built around expressions of the form |ax+b|^p (where p is a fixed exponent strictly greater than 1). For each of these classes of problems, we introduced a new type of convex cone that made their formulation as standard conic problems possible. This allowed us to derive very simplified proofs of the classical duality results pertaining to these problems, notably weak duality (a mere consequence of convexity) and the absence of a duality gap (strong duality property without any constraint qualification, which does not hold in the general convex case). We also uncovered a very surprising result that stipulates that geometric optimization can be viewed as a limit case of l_p-norm optimization. Encouraged by the similarities we observed, we developed a general framework that encompasses these two classes of problems and unifies all the previously obtained conic formulations. We also brought our attention to the design of interior-point methods to solve these problems. The theory of polynomial algorithms for convex optimization developed by Nesterov and Nemirovsky asserts that the main ingredient for these methods is a computable self-concordant barrier function for the corresponding cones. We were able to define such a barrier function in the case of l_p-norm optimization (whose parameter, which is the main determining factor in the algorithmic complexity of the method, is proportional to the number of variables in the formulation and independent from p) as well as in the case of the general framework mentioned above. Finally, we contributed a survey of the self-concordancy property, improving some useful results about the value of the complexity parameter for certain categories of barrier functions and providing some insight on the reason why the most commonly adopted definition for self-concordant functions is the best possible.
369

Définition d'une méthodologie de détection de phénomènes dynamiques dans une chronique d'images et son application à quelques études

Moussu, Guy 07 December 1988 (has links) (PDF)
Des chroniques d'images sont utilisées pour la mise en évidence de phénomènes dynamiques. Trois applications ont été abordées dans un cadre opérationnel et ont permis de définir une méthodologie générale dont les étapes sont : 1) une mise en coïncidence géométrique des images, 2) un traitement des images pour l'obtention de luminances normalisées, 3) un filtrage spécifique prenant en compte le caractère spatial ou temporel du processus étudié. La comparaison et le traitement automatique d'images représentant une même scène nécessitent d'une part la mise en coïncidence géométrique des images. Pour cela, différentes méthodes de corrélation entre images sont établies puis comparées. D'autre part, les luminances doivent être normalisées afin de corriger leurs variations au cours du temps. La normalisation est effectuée soit par un ajustement du codage sur la dynamique des valeurs, soit par une modélisation de l'évolution temporelle de la luminance en chaque point. La première étude concerne la détection et le suivi de phénomènes météorologiques sur des images de la Terre, fournies par des satellites météorologiques, et affichées sur un écran couleur. On a développé une méthode d'animation de ces images en vue d'une aide à la prévision météorologique. Si l'objet de la première étude résidait dans le suivi des nuages, le but de la seconde est la construction d'une image sans nuage grâce à un filtrage adaptatif et itératif, afin d'obtenir une image du sol vu par ciel clair. La troisième étude concerne la détection précoce de fumées d'incendie de forêt. Quelques expériences ont permis de définir des caractéristiques spatiales et temporelles des fumées qui ont fourni les critères de détection.
370

Traitement d'images satellitaires appliqué à la cartographie numérique quantitative de la circulation océanique superficielle

Bianchi, Brigitte 22 April 1988 (has links) (PDF)
A partir d'une analyse diachronique de thermographies satellitaires, il est possible de calculer le courant à la surface de l'océan en faisant appel à l'équation de conservation de la chaleur, réduite à une équation d'advection instationnaire. Les thermographies sont issues des données des satellites de la série NOAA, équipés d'un capteur AVHRR. La résolution de l'équation passe par plusieurs étapes de traitement numérique. L'obtention des températures réelles de la mer requiert un étalonnage du capteur satellitaire ainsi qu'une correction des effets atmosphériques. Les thermographies sont rectifiées géométriquement afin de les rendre superposables. Elles sont ensuite filtrées afin d'éliminer les fréquences indésirables. La moyenne des deux thermographies fournira le gradient horizontal et leur différence, la dérivée temporelle. L'interpolation des isothermes en prenant appui sur une transformée en distance permettra d'augmenter le nombre de points de résolution de l'équation pour obtenir une meilleure cartographie du courant. Le champ de courant sera déterminé le long des isothermes interceptant un ensemble de points pour lesquels la fonction de courant est connue. La détermination automatique de la précision du modèle sera faite en parcourant de manière opposée la démarche utilisée pour calculer la fonction de courant. L'analyse d'un tourbillon issu du Gulf Stream et du courant dans le golfe du Lion illustre les différentes étapes de ce calcul du courant superficiel. Cette méthode de détermination du courant marin de surface est délicate à mettre en oeuvre car le nombre de points de résolution de l''équation est souvent très faible et il en résulte une cartographie du vecteur courant difficile à réaliser.

Page generated in 0.1127 seconds