Spelling suggestions: "subject:"deneral mathematics"" "subject:"deneral amathematics""
371 |
Classification d'images et localisation d'objets par des méthodes de type noyau de FisherCinbis, Ramazan Gokberk 22 July 2014 (has links) (PDF)
Dans cette thèse, nous proposons des modèles et des méthodes dédiés à des taches de compréhension de l'image. En particulier, nous nous penchons sur des approches de type noyau de Fisher pour la classification d'images et la localisation d'objets. Nos études se répartissent en trois chapitres. En premier lieu, nous proposons de nouveaux descripteurs d'images construits sur des modèles non-iid de l'image. Notre point de départ est l'observation que les régions locales d'une image sont souvent supposées indépendentes et identiquement distribuées (iid) dans les modèles de type sacs-de-mots (SdM). Nous introduisons des modèles non-iid en traitant les paramètres du SdM comme des variables latentes, ce qui rend interdépendantes toutes les régions locales. En utilisant le noyau de Fisher, nous encodons une image par le gradient de sa log-vraisemblance par rapport aux hyper-paramètres du modèle. Notre représentation implique naturellement une invariance à certaines transformations, ce qui explique pourquoi de telles approches ont été courronnées de succès. En utilisant l'inférence variationnelle, nous étendons le modèle de base pour inclure un mélange de gaussiennes sur les descripteurs locaux, et un modèle latent de sujets pour capturer la structure co-occurente des mots visuels. Dans un second temps, nous présentons un système de détection d'objet reposant sur la représentation haute-dimension d'images par le vecteur de Fisher. Pour des raisons de complexité en temps et en espace, nous utilisons une méthode récente à base de segmentation pour engendrer des hypothèses de détection indépendantes des classes, ainsi que des techniques de compression. Notre principale contribution est une méthode pour produire des masques de segmentation potentiels, afin de supprimer le bruit du descripteur dû à l'arrière plan. Nous montrons que repondérer les descripteurs locaux de l'image en fonction de ces masques améliore significativement la performance en détection. Troisièmement, nous proposons une approche semi-supervisée pour la localisation d'objets. L'entrainement supervisé usuel de détecteurs d'objets nécessite l'annotation de boites englobantes des instances de ces objets. Ce processus coûteux est évité en apprentissage semi-supervisé, lequel ne nécessite que des étiquettes binaires indiquant la présence ou l'absence des objets. Nous suivons une approche d'apprentissage à instance multiple en alterne itérativement entre entrainer un détecteur et inférer les positions des objets. Notre contribution principale est une procédure multi-état d'apprentissage à instance multiple, qui évite à l'apprentissage de se focaliser prématurément sur des positions d'objets erronnées. Nous montrons que cette procédure est particulièrement importante lorsque des représentations haute-dimensions comme le vecteur de Fisher sont utilisées. Pour finir, nous présentons dans l'appendice de cette thèse notre travail sur l'identification de personnes dans des vidéos télévision non-contrôlées. Nous montrons qu'une distance adaptée au casting peut être apprise sans étiqueter d'exemple d'apprentissage, mais en utilisant des paires de visages au sein d'un même chemin et sur plusieurs chemins se chevauchant temporellement. Nous montrons que la métrique apprise améliore l'identification de chemins de visages, la reconnaissance et les performances en regroupement.
|
372 |
Couches initiales et limites de relaxation aux systèmes d'Euler-Poisson et d'Euler-MaxwellHajjej, Mohamed Lasmer, Hajjej, Mohamed Lasmer 29 March 2012 (has links) (PDF)
Mes travaux concernent deux systèmes d'équations utilisés dans la modélisation mathématique de semi-conducteurs et de plasmas : le système d'Euler-Poisson et le système d'Euler-Maxwell. Le premier système est constitué des équations d'Euler pour la conservation de la masse et de la quantité de mouvement couplées à l'équation de Poisson pour le potentiel électrostatique. Le second système décrit le phénomène d'électro-magnétisme. C'est un système couplé, qui est constitué des équations d'Euler pour la conservation de la masse et de la quantité de mouvement et les équations de Maxwell, aussi appelées équations de Maxwell-Lorentz. Les équations de Maxwell sont dues aux lois fondamentales de la physique. Elles constituent les postulats de base de l'électromagnétisme, avec l'expression de la force électromagnétique de Lorentz. En utilisant une technique de développement asymptotique, nous étudions les limites en zéro du système d'Euler-Poisson dans les modèles unipolaire et bipolaire. Il est bien connu que la limite formelle du système d'Euler-Poisson est gouvernée par les équations de dérive-diffusion lorsque le temps de relaxation tend vers zéro. Par des estimations d'énergie aux systèmes hyperboliques symétriques, nous justifions rigoureusement cette limite lorsque les conditions initiales sont bien préparées. Le phénomène des conditions initiales mal préparées est interprété par l'apparition de couches initiales. Dans ce cas, nous faisons une analyse mathématique de ces couches initiales en ajoutant des termes de correction dans le développement asymptotique. En utilisant les techniques itératives des systèmes hyperboliques symétrisables et la technique de développement asymptotique, nous étudions la limite de relaxation en zéro du système d'Euler-Maxwell, avec des conditions initiales bien préparées ainsi que l'étude des couches initiales, dans le modèle évolutif bipolaire et unipolaire.
|
373 |
Des coordonnées de décalage sur le super espace de TeichmüllerBouschbacher, Fabien 25 June 2013 (has links) (PDF)
Dans cette thèse nous étudions un super-analogue de l'espace de Teichmüller des surfaces à trous. Le but de notre étude est la construction sur cet espace de coordonnées analogues aux coordonnées de décalage de Thurston-Bonahon-Fock-Penner. Ces coordonnées dépendent du choix d'une triangulation idéale de la surface de départ. Nous étudions les changements de coordonnées lorsque l'on change cette triangulation de la surface. Nous démontrons également que cet espace possède une structure de Poisson canonique et que cette structure est indépendante du choix de la triangulation.
|
374 |
Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructifMorard, Vincent 22 October 2012 (has links) (PDF)
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d'images pourextraire ou rehausser les éléments fins d'une image. Pour ces opérateurs, issus de la morphologie mathématique,l'accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d'extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d'opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd'analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d'analyse statistique en introduisantune nouvelle pénalisation adaptative. L'objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d'images et l'analyse statistique. L'association de ces deux disciplines permet d'améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d'images alliés à un apprentissagesupervisé ou non supervisé, permettent d'adapter le traitement à chaque application.Mots clés : Traitement d'images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage.
|
375 |
Développement et analyse de schémas volumes finis motivés par la présentation de comportements asymptotiques. Application à des modèles issus de la physique et de la biologieBessemoulin-Chatard, Marianne 30 November 2012 (has links) (PDF)
Cette thèse est dédiée au développement et à l'analyse de schémas numériques de type volumes finis pour des équations de convection-diffusion, qui apparaissent notamment dans des modèles issus de la physique ou de la biologie. Nous nous intéressons plus particulièrement à la préservation de comportements asymptotiques au niveau discret. Ce travail s'articule en trois parties, composées chacune de deux chapitres. Dans la première partie, nous considérons la discrétisation du système de dérive diffusion linéaire pour les semi-conducteurs par le schéma de Scharfetter-Gummel implicite en temps. Nous nous intéressons à la préservation par ce schéma de deux types d'asymptotiques : l'asymptotique en temps long et la limite quasi-neutre. Nous démontrons des estimations d'énergie-dissipation d'énergie discrètes qui permettent de prouver d'une part la convergence en temps long de la solution approchée vers une approximation de l'équilibre thermique, d'autre part la stabilité à la limite quasi-neutre du schéma. Dans la deuxième partie, nous nous intéressons à des schémas volumes finis préservant l'asymptotique en temps long dans un cadre plus général. Plus précisément, nous considérons des équations de type convection-diffusion non linéaires qui apparaissent dans plusieurs contextes physiques : équations des milieux poreux, système de dérive-diffusion pour les semi-conducteurs... Nous proposons deux discrétisations en espace permettant de préserver le comportement en temps long des solutions approchées. Dans un premier temps, nous étendons la définition du flux de Scharfetter-Gummel pour une diffusion non linéaire. Ce schéma fournit des résultats numériques satisfaisants si la diffusion ne dégénère pas. Dans un second temps, nous proposons une discrétisation dans laquelle nous prenons en compte ensemble les termes de convection et de diffusion, en réécrivant le flux sous la forme d'un flux d'advection. Le flux numérique est défini de telle sorte que les états d'équilibre soient préservés, et nous utilisons une méthode de limiteurs de pente pour obtenir un schéma précis à l'ordre deux en espace, même dans le cas dégénéré. Enfin, la troisième et dernière partie est consacrée à l'étude d'un schéma numérique pour un modèle de chimiotactisme avec diffusion croisée pour lequel les solutions n'explosent pas en temps fini, quelles que soient les données initiales. L'étude de la convergence du schéma repose sur une estimation d'entropie discrète nécessitant l'utilisation de versions discrètes d'inégalités fonctionnelles telles que les inégalités de Poincaré-Sobolev et de Gagliardo-Nirenberg-Sobolev. La démonstration de ces inégalités fait l'objet d'un chapitre indépendant dans lequel nous proposons leur étude dans un contexte assez général, incluant notamment le cas de conditions aux limites mixtes et une généralisation au cadre des schémas DDFV.
|
376 |
Estimation du risque aux intersections pour applications sécuritaires avec véhicules communicantsLefèvre, Stéphanie 22 October 2012 (has links) (PDF)
Les intersections sont les zones les plus dangereuses du réseau routier. Les statistiques montrent que la plupart des accidents aux intersections sont causés par des erreurs des conducteurs, et que la plupart pourraient être évités à l'aide de systèmes d'aide à la conduite. En particulier, les communications inter-véhiculaires ouvrent de nouvelles opportunités pour les applications sécuritaires aux intersections. Le partage d'informations entre les véhicules via des liens sans fil permet aux véhicules de percevoir leur environnement au-delà des limites du champ de vision des capteurs embarqués. Grâce à cette représentation élargie de l'environnement dans l'espace et dans le temps, la compréhension de situation est améliorée et les situations dangereuses peuvent être détectées plus tôt. Cette thèse aborde le problème de l'estimation du risque aux intersections d'un nouveau point de vue : une structure de raisonnement est proposée pour analyser les situations routières et le risque de collision à un niveau sémantique plutôt qu'au niveau des trajectoires. Le risque est déterminé en estimant les intentions des conducteurs et en identifiant les potentiels conflits, sans avoir à prédire les futures trajectoires des véhicules. L'approche proposée a été validée par des expérimentations en environnement réel à l'aide de véhicules équipés de modems de communication véhicule-véhicule, ainsi qu'en simulation. Les résultats montrent que l'algorithme permet de détecter les situations dangereuses à l'avance et qu'il respecte les contraintes temps-réel des applications sécuritaires. Il y a deux différences principales entre l'approche proposée et les travaux existants. Premièrement, l'étape de prédiction de trajectoire est évitée. Les situations dangereuses sont identifiées en comparant ce que les conducteurs ont l'intention de faire avec ce qui est attendu d'eux d'après les règles de la circulation et le contexte. Le raisonnement sur les intentions et les attentes est réalisé de manière probabiliste afin de prendre en compte les incertitudes des mesures capteur et les ambiguïtés sur l'interprétation. Deuxièmement, le modèle proposé prend en compte les informations sur le contexte situationnel, c'est-à-dire que l'influence de la géométrie de l'intersection et des actions des autres véhicules est prise en compte lors de l'analyse du comportement d'un véhicule.
|
377 |
Étude de la conjecture de Seymour sur le second voisinageGhazal, Salman 15 December 2011 (has links) (PDF)
Soit D un digraphe simple (sans cycle orienté de longueur 2 ). En 1990, P. Seymour a conjecturé que D a un sommet v avec un second voisinage extérieur au moins aussi grand que son (premier) voisinage extérieur [1]. Cette conjecture est connue sous le nom de la conjecture du second voisinage du Seymour (SNC). Cette conjecture, si elle est vraie, impliquerait, un cas spécial plus faible (mais important) de la conjecture de Caccetta et Häggkvist [2] proposé en 1978 : tout digraphe D avec un degré extérieur minimum au moins égale à jV (D)j=k a un cycle orienté de longueur au plus k. Le cas particulier est k = 3, et le cas faible exige les deux : le degré extérieur minimum et le degré intérieur minimum de D sont au moins égaux à jV (D)j=k. La conjecture de Seymour restreinte au tournoi est connue sous le nom de conjecture de Dean [1]. En 1996, Fisher [3] a prouvé la conjecture de Dean en utilisant un argument de probabilité. En 2003, Chen, Shen et Yuster [4] ont démontré que tout digraphe a un sommet v tel que d+(v) _ d++(v) où =0.657298..... est l'unique racine de l'équation 2x3 + x2 - 1 = 0. En 2000, Havet et Thomassé [5] ont donné une preuve combinatoire de la conjecture de Dean, en utilisant un outil appelé l'ordre médian. Ils ont démontré que le dernier sommet d'un tel ordre a toujours un second voisinage extérieur au moins aussi grand que son voisinage extérieur. En 2007, Fidler et Yuster [6] ont utilisé l'ordre médian et un autre outil qui s'appelle le digraphe de dépendance afin de prouver la conjecture de Seymour pour tout digraphe D ayant un degré minimum jV (D)j 2. Ils l'ont montré pour tout tournoi où manque un autre sous-tournoi. El Sahili a conjecturé que pour tout D, il existe un completion T de D et un ordre médian de T tel que le denier sommet a un second voisinage extérieur au moins aussi grand que son voisinage extérieur (EC). Il est clair que, EC implique SNC. Cependant, EC propose une méthode afin de résoudre la SNC. En général, on oriente les non arcs de D de manière appropriée, afin d'obtenir un tournoi T et on essaie de trouver un sommet particulier (le denier sommet d'un ordre médian) avec la propriété désirée. Clairement, grâce aux résultats de [5] et [6], la EC est valable pour tournoi, et tout tournoi où manque un autre sous-tournoi. Nous allons vérifier EC pour tout digraphe D ayant un degré minimum jV (D)j 2. Alors, EC est vraie pour tout digraphe où la SNC est déjà connue d'être vraie non trivialement. Nous sommes aussi intéressés à la version pondérée de SNC et EC. En réalité, Fidler et Yuster [6] ont utilisé les digraphes de dépendance comme un outil supplémentaire et le fait que la SNC pondérée est vraie pour les tournois afin de prouver la SNC pour tout digraphe D ayant un degré minimum1 jV (D)j 2. Nous allons définir le digraphe de dépendance de façon plus générale et qui convient à n'importe quel digraphe. Nous allons utiliser le digraphe de dépendance et l'ordre médian comme des outils dans nos contributions à cette conjecture. Suivant la méthode proposée par la EC, nous démontrons la version pondérée de EC, et par conséquent la SNC, pour les classes des digraphes suivants : Digraphes où manque une étoile généralisée, soleil, étoile, ou un graphe complété. En outre, nous prouvons la EC, et par conséquent la SNC, pour digraphes où manque un peigne et digraphe où manque un graphe complet moins 2 arêtes indépendantes ou moins les arêtes d'une cycle de longueur 5. Par ailleurs, nous prouvons la EC, et par conséquent la SNC, pour les digraphes où manque n étoiles disjointes, sous certaines conditions sur les deux degrés minimum du digraphe de dépendance. Des conditions plus faible sont exigées dans le cas n = 1; 2; 3. Dans certains cas, on trouve au moins deux sommets avec la propriété désirée.
|
378 |
Étude de quelques modèles cinétiques décrivant le phénomène d'évaporation en gravitationCarcaud, Pierre 02 June 2014 (has links) (PDF)
L'étude de l'évolution de galaxies, et tout particulièrement du phénomène d'évaporation, a été pour la première fois menée à l'aide de modèles physiques, par Chandrasekhar notamment, dans les années 40. Depuis, de nouveaux modèles plus sophistiqués ont été introduits par les physiciens. Ces modèles d'évolution des galaxies sont des modèles cinétiques; bien connus et bien étudiés par les mathématiciens. Cependant, l'aspect évaporation (le fait que des étoiles sortent du système étudié) n'avait pas encore été étudié mathématiquement, à ma connaissance. La galaxie est vue comme un gaz constitué d'étoiles et le modèle consiste en une équation de Vlasov-Poisson, l'interaction étant la gravitation universelle, couplée avec au second membre un terme de collision de type Landau. On rajoute à ce modèle une condition d'évaporation qui consiste à dire que les étoiles dont l'énergie cinétique est suffisamment élevée pour quitter le système sont exclues. Ce modèle étant trop compliqué à étudier tel quel, je propose dans cette thèse plusieurs modèles simplifiés qui sont des premières étapes nécessaires à l'étude du modèle général et qui permettent de mieux comprendre les difficultés à surmonter. Dans une première partie, je m'intéresse au cas homogène en espace, pour lequel le terme de Vlasov-Poisson est remplacé par une simple dérivée en temps. Je fais une étude précise du cas à symétrie radiale en vitesse avec un potentiel Maxwellien, le terme de Landau étant alors remplacé par un terme de type Fokker-Planck, et je montre dans ce cas l'existence et l'unicité d'une solution régulière et l'existence d'un profil asymptotique des solutions. Dans le cas homogène général, je montre l'existence et l'unicité d'une solution régulière tout pendant que la masse ne s'est pas totalement évaporée. J'illustre ces résultats théoriques par des simulations numériques réalisés à l'aide de schéma numériques conservateurs. Dans une seconde partie, je m'intéresse au cas non homogène en espace en dérivant un modèle hydrodynamique pour un modèle de type Vlasov-BGK (plus simple que le modèle Vlasov-Poisson-Landau) avec évaporation.
|
379 |
Fusion de données multi capteurs pour la détection et le suivi d'objets mobiles à partir d'un véhicule autonomeBaig, Qadeer 29 February 2012 (has links) (PDF)
La perception est un point clé pour le fonctionnement d'un véhicule autonome ou même pour un véhicule fournissant des fonctions d'assistance. Un véhicule observe le monde externe à l'aide de capteurs et construit un modèle interne de l'environnement extérieur. Il met à jour en continu ce modèle de l'environnement en utilisant les dernières données des capteurs. Dans ce cadre, la perception peut être divisée en deux étapes : la première partie, appelée SLAM (Simultaneous Localization And Mapping) s'intéresse à la construction d'une carte de l'environnement extérieur et à la localisation du véhicule hôte dans cette carte, et deuxième partie traite de la détection et du suivi des objets mobiles dans l'environnement (DATMO pour Detection And Tracking of Moving Objects). En utilisant des capteurs laser de grande précision, des résultats importants ont été obtenus par les chercheurs. Cependant, avec des capteurs laser de faible résolution et des données bruitées, le problème est toujours ouvert, en particulier le problème du DATMO. Dans cette thèse nous proposons d'utiliser la vision (mono ou stéréo) couplée à un capteur laser pour résoudre ce problème. La première contribution de cette thèse porte sur l'identification et le développement de trois niveaux de fusion. En fonction du niveau de traitement de l'information capteur avant le processus de fusion, nous les appelons "fusion bas niveau", "fusion au niveau de la détection" et "fusion au niveau du suivi". Pour la fusion bas niveau, nous avons utilisé les grilles d'occupations. Pour la fusion au niveau de la détection, les objets détectés par chaque capteur sont fusionnés pour avoir une liste d'objets fusionnés. La fusion au niveau du suivi requiert le suivi des objets pour chaque capteur et ensuite on réalise la fusion entre les listes d'objets suivis. La deuxième contribution de cette thèse est le développement d'une technique rapide pour trouver les bords de route à partir des données du laser et en utilisant cette information nous supprimons de nombreuses fausses alarmes. Nous avons en effet observé que beaucoup de fausses alarmes apparaissent sur le bord de la route. La troisième contribution de cette thèse est le développement d'une solution complète pour la perception avec un capteur laser et des caméras stéréo-vision et son intégration sur un démonstrateur du projet européen Intersafe-2. Ce projet s'intéresse à la sécurité aux intersections et vise à y réduire les blessures et les accidents mortels. Dans ce projet, nous avons travaillé en collaboration avec Volkswagen, l'Université Technique de Cluj-Napoca, en Roumanie et l'INRIA Paris pour fournir une solution complète de perception et d'évaluation des risques pour le démonstrateur de Volkswagen.
|
380 |
Localisation et reconstruction du réseau routier par vectorisation d'image THR et approximation des contraintes de type "NURBS"Naouai, Mohamed 20 July 2013 (has links) (PDF)
Ce travail de thèse vise à mettre en place un système d'extraction de réseau routier en milieu urbain à partir d'image satellite à très haute résolution. Dans ce contexte, nous avons proposé deux méthodes de localisation de routes. La première approche est fondée sur la procédure de conversion de l'image vers un format vectoriel. L'originalité de cette approche réside dans l'utilisation d'une méthode géométrique pour assurer le passage vers une représentation vectorielle de l'image d'origine et la mise en place d'un formalisme logique fondé sur un ensemble de critères perceptifs permettant le filtrage de l'information inutile et l'extraction des structures linéaires. Dans la deuxième approche, nous avons proposé un algorithme fondé sur la théorie des ondelettes, il met particulièrement en évidence les deux volets multi-résolution et multi-direction. Nous proposons donc une approche de localisation des routes mettant en jeux l'information fréquentielle multi directionnelle issue de la transformée en ondelette Log-Gabor. Dans l'étape de localisation, nous avons présenté deux détecteurs de routes qui exploitent l'information radiométrique, géométrique et fréquentielle. Cependant, ces informations ne permettent pas un résultat exact et précis. Pour remédier à ce problème, un algorithme de suivi s'avère nécessaire. Nous proposons la reconstruction de réseaux routiers par des courbes NURBS. Cette approche est basée sur un ensemble de points de repères identifiés dans la phase de localisation. Elle propose un nouveau concept, que nous avons désigné par NURBSC, basé sur les contraintes géométriques des formes à approximer. Nous connectons les segments de route identifiés afin d'obtenir des tracés continus propres aux routes.
|
Page generated in 0.0905 seconds