• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 286
  • 255
  • 81
  • 1
  • Tagged with
  • 623
  • 623
  • 623
  • 623
  • 623
  • 623
  • 114
  • 77
  • 67
  • 64
  • 48
  • 47
  • 39
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Calibration par programmation linéaire et reconstruction spatio-temporelle à partir de réseaux d'images

Courchay, Jérôme 05 January 2011 (has links) (PDF)
Le problème de la stéréovision à partir de caméras multiples calibrées capturant une scène fixe est étudié depuis plusieurs décennies. Les résultats présentés dans le benchmark de stéréovision proposé par Strecha et al., attestent de la qualité des reconstructions obtenues. En particulier, les travaux du laboratoire IMAGINE, mènent à des résultats visuellement impressionnant. Aussi, il devient intéressant de calibrer des scènes de plus en plus vastes, afin d'appliquer ces algorithmes de stéréovision de façon optimale. Trois objectifs essentiels apparaissent : - La précision de la calibration doit être améliorée. En effet comme pointé par Yasutaka Furukawa, même les benchmarks de stéréovision fournissent parfois des caméras bruitées à la précision imparfaite. Un des moyen d'améliorer les résultats de stéréovision est d'augmenter la précision de la calibration. - Il est important de pouvoir prendre en compte les cycles dans le graphe des caméras de façon globale. En effet la plupart des méthodes actuelles sont séquentielles, et dérivent. Ainsi ces méthodes ne garantissent pas, pour une très grande boucle, de retrouver cette configuration cyclique, mais peuvent plutôt retrouver une configuration des caméras en spirale. Comme on calibre des réseaux d'images, de plus en plus grand, ce point est donc crucial. - Pour calibrer des réseaux d'images très grands, il convient d'avoir des algorithmes rapides. Les méthodes de calibration que nous proposons dans la première partie, permettent de calibrer des réseaux avec une précision très proche de l'état de l'art. D'autre part elle permettent de gérer les contraintes de cyclicité par le biais d'optimisations linéaires sous contraintes linéaires. Ainsi ces méthodes permettent de prendre en compte les cycles et bénéficient de la rapidité de la programmation linéaire. Enfin, la recherche en stéréovision étant arrivée à maturité, il convient de s'intéresser à l'étape suivante, à savoir la reconstruction spatio-temporelle. La méthode du laboratoire IMAGINE représentant l'état de l'art en stéréovision, il est intéressant de développer cette méthode et de l'étendre à la reconstruction spatio-temporelle, c'est-à-dire la reconstruction d'une scène dynamique capturée par un dôme de caméras. Nous verrons cette méthode dans la seconde partie de ce manuscrit
172

Squelettes algorithmiques méta-programmés : implantations, performances et sémantique

Javed, Noman 21 October 2011 (has links) (PDF)
Les approches de parallélisme structuré sont un compromis entre la parallélisation automatique et la programmation concurrentes et réparties telle qu'offerte par MPI ou les Pthreads. Le parallélisme à squelettes est l'une de ces approches. Un squelette algorithmique peut être vu comme une fonction d'ordre supérieur qui capture un algorithme parallèle classique tel qu'un pipeline ou une réduction parallèle. Souvent la sémantique des squelettes est simple et correspondant à celle de fonctions d'ordre supérieur similaire dans les langages de programmation fonctionnels. L'utilisation combine les squelettes disponibles pour construire son application parallèle. Lorsqu'un programme parallèle est conçu, les performances sont bien sûr importantes. Il est ainsi très intéressant pour le programmeur de disposer d'un modèle de performance, simple mais réaliste. Le parallélisme quasi-synchrone (BSP) offre un tel modèle. Le parallélisme étant présent maintenant dans toutes les machines, du téléphone au super-calculateur, il est important que les modèles de programmation s'appuient sur des sémantiques formelles pour permettre la vérification de programmes. Les travaux menés on conduit à la conception et au développement de la bibliothèque Orléans Skeleton Library ou OSL. OSL fournit un ensemble de squelettes algorithmiques data-parallèles quasi-synchrones. OSL est une bibliothèque pour le langage C++ et utilise des techniques de programmation avancées pour atteindre une bonne efficacité. Les communications se basent sur la bibliothèque MPI. OSL étant basée sur le modèle BSP, il est possible non seulement de prévoir les performances des programmes OSL mais également de fournir une portabilité des performances. Le modèle de programmation d'OSL a été formalisé dans l'assistant de preuve Coq. L'utilisation de cette sémantique pour la preuve de programmes est illustrée par un exemple.
173

Qualification et amélioration de la précision de systèmes de balayage laser mobiles par extraction d'arêtes

Poreba, Martyna 18 June 2014 (has links) (PDF)
Au cours de ces dernières décennies, le développement de Systèmes Mobiles de Cartographie, soutenu par un progrès technologique important, est devenu plus apparent. Il a été stimulé par le besoin grandissant de collecte d'informations géographiques précises sur l'environnement. Nous considérons, au sein de cette thèse, des solutions pour l'acquisition des nuages de points mobiles de qualité topographique (précision centimétrique). Il s'agit, dans cette tâche, de mettre au point des méthodes de qualification des données, et d'en améliorer sur les erreurs systématiques par des techniques d'étalonnage et de recalage adéquates.Nous décrivons une démarche innovante d'évaluation de l'exactitude et/ou de la précision des relevés laser mobiles. Celle-ci repose sur l'extraction et la comparaison des entités linéaires de la scène urbaine. La distance moyenne calculée entre les segments appariés, étant la distance modifiée de Hausdorff, sert à noter les nuages par rapport à des références existantes. Pour l'extraction des arêtes, nous proposons une méthode de détection d'intersections entre segments plans retrouvés via un algorithme de RANSAC enrichi d'une analyse de composantes connexes. Nous envisageons également une démarche de correction de relevés laser mobiles à travers un recalage rigide fondé, lui aussi, sur les éléments linéaires. Enfin, nous étudions la pertinence des segments pour en déduire les paramètres de l'étalonnage extrinsèque du système mobile. Nous testons nos méthodes sur des données simulées et des données réelles acquises dans le cadre du projet TerraMobilita.
174

Détection de rails, caractérisation de croisements et localisation de trains sur la trajectoire d'un métro automatique

Corsino Espino, Jorge 13 June 2014 (has links) (PDF)
Cette thèse porte sur la fonction de détection d'obstacles dans le domaine ferroviaire à partir de la vision par ordinateur. Il s'agit d'assurer une perception de l'environnement situé à l'avant du train afin de détecter et d'évaluer les distances des obstacles situés sur la voie.Nous avons donc proposé un module détection de rails à partir des images à niveaux de gris, pour déterminer une zone libre d'obstacles à l'avant du train. Cette détection est basée dans l'algorithme de RANSAC et une estimation de la voie par un polynôme de degré 2. Elle s'est montrée robuste à notre base de données et a permis de détecter les rails à des distances supérieures à la distance d'arrêt. Aussi, un algorithme d'étalonnage des caméras installées dans le train a été proposé à partir de la morphologie de la voie.Comme support de la reconnaissance de rails, nous présentons un module de détection et classification des appareils de voie basé dans le descripteur HOG extrait des images IPM (Inverse Perspective Mapping). Un classifieur SVM (Support Vector Machines) binaire a été utilisé pour la détection et un SVM multi-classe pour différencier les appareils de voie existants sur la ligne.Après avoir élaboré le module de détection des rails, nous avons implémenté un détecteur de trains. À partir d'un échantillon des images de trains de la ligne en question et des images négatives comme des voitures ou des bus, nous avons créé une base de données d'obstacles pour trouver un descripteur robuste qui arrive à décrire la forme des trains et permet à un classifieur SVM de discriminer les images et détecter les trains. Par la suite, ce classifieur est utilisé par le système global pour déterminer la présence d'un train au-delà de la détection de la voie. À la distance maximale de détection, un rectangle de la taille d'un train est extrait de l'image pour vérifier la présence d'un train. Ces rectangles font l'objet d'une classification au moyen de descripteurs globaux de type HOG et une structure SVM binaire.Cette étude permettra non seulement de déboucher sur des applications concrètes, mais surtout d'évaluer la maturité des technologies de traitements d'images pour réaliser des fonctions sûres appliquées aux systèmes ferroviaires.
175

Analyses de performance et de stabilité des réseaux de télécommunication

Junier, Aurore 16 December 2013 (has links) (PDF)
Dans cette thèse nous avons tout d'abord abordé le problème de la stabilité des réseaux. Dans ce but, nous avons premièrement développé une méthode temps-réelle définissant des indicateurs de stabilités pour un flux quelconque de messages observé. Puis, nous nous sommes intéressé au cas particulier des flux d'alarmes, qui constituent actuellement un enjeu pour les réseaux du futur. Une méthode créant un graphe statistique de corrélation des alarmes fut développée. Nous avons montré que l'utilisation de la méthode précédente est très utile. Dans un second temps nous avons abordé les problèmes de paramétrisation des réseaux. Nous avons exploré une piste visant à représenter le comportement du protocole OSPF par un réseau de Petri temporisé. Alors, une heuristique à été crée afin de définir, le mieux possible certains paramètres du protocole modulant les arrivées de messages dans le réseau. Nous avons utilisé la simulation de réseau de Petri afin d'observer l'effet de l'heuristique sur le comportement du protocole OSPF. Finalement, nous avons étudié, à l'aide de la théorie du Network Calculus, les politiques de services à priorités fixes. Nous avons défini un programme linéaire, qui étant donné une paramétrisation des arrivées de message et des services, calcule une borne maximale du délai d'un flux observé dans un réseau de topologie quelconque.
176

Répondre à des questions à réponses multiples sur le Web

Falco, Mathieu-Henri 22 May 2014 (has links) (PDF)
Les systèmes de question-réponse renvoient une réponse précise à une question formulée en langue naturelle. Les systèmes de question-réponse actuels, ainsi que les campagnes d'évaluation les évaluant, font en général l'hypothèse qu'une seule réponse est attendue pour une question. Or nous avons constaté que, souvent, ce n'était pas le cas, surtout quand on cherche les réponses sur le Web et non dans une collection finie de documents.Nous nous sommes donc intéressés au traitement des questions attendant plusieurs réponses à travers un système de question-réponse sur le Web en français. Pour cela, nous avons développé le système Citron capable d'extraire des réponses multiples différentes à des questions factuelles en domaine ouvert, ainsi que de repérer et d'extraire le critère variant (date, lieu) source de la multiplicité des réponses. Nous avons montré grâce à notre étude de différents corpus que les réponses à de telles questions se trouvaient souvent dans des tableaux ou des listes mais que ces structures sont difficilement analysables automatiquement sans prétraitement. C'est pourquoi, nous avons également développé l'outil Kitten qui permet d'extraire le contenu des documents HTML sous forme de texte et aussi de repérer, analyser et formater ces structures. Enfin, nous avons réalisé deux expériences avec des utilisateurs. La première expérience évaluait Citron et les êtres humains sur la tâche d'extraction de réponse multiples : les résultats ont montré que Citron était plus rapide que les êtres humains et que l'écart entre la qualité des réponses de Citron et celle des utilisateurs était raisonnable. La seconde expérience a évalué la satisfaction des utilisateurs concernant la présentation de réponses multiples : les résultats ont montré que les utilisateurs préféraient la présentation de Citron agrégeant les réponses et y ajoutant un critère variant (lorsqu'il existe) par rapport à la présentation utilisée lors des campagnes d'évaluation.
177

Contribution aux méthodes hybrides d'optimisation heuristique : Distribution et application à l'interopérabilité des systèmes d'information

El Hami, Norelislam 23 June 2012 (has links) (PDF)
Les travaux présentés dans ce mémoire proposent une nouvelle méthode d'optimisation globale dénommée MPSO-SA. Cette méthode hybride est le résultat d'un couplage d'une variante d'algorithme par Essaim de particules nommé MPSO (Particle Swarm Optimization) avec la méthode du recuit simulé nommé SA (Simulted Annealing). Les méthodes stochastiques ont connu une progression considérable pour la résolution de problèmes d'optimisation. Parmi ces méthodes, il y a la méthode Essaim de particules (PSO° qui est développée par [Eberhart et Kennedy (1995)]. Quant à la méthode recuit simulé (SA), elle provient du processus physique qui consiste à ordonner les atomes d'un cristal afin de former une structure cristalline parfaite. Pour illustrer les performances de la méthode MPSO-SA proposée, une comparaison avec MPSO et SA est effectuée sur des fonctions tests connues dans la littérature. La métode MPSO-SA est utilisée pour la résolution des problèmes réels interopérabilité des systèmes d'information, ainsi qu'aux problèmes d'optimisation et de fiabilité des structures mécaniques.
178

Classification de bases de données déséquilibrées par des règles de décomposition

D'ambrosio, Roberto 07 March 2014 (has links) (PDF)
Le déséquilibre entre la distribution des a priori est rencontré dans un nombre très large de domaines. Les algorithmes d'apprentissage conventionnels sont moins efficaces dans la prévision d'échantillons appartenant aux classes minoritaires. Notre but est de développer une règle de reconstruction adaptée aux catégories de données biaisées. Nous proposons une nouvelle règle, la Reconstruction Rule par sélection, qui, dans le schéma 'One-per-Class', utilise la fiabilité, des étiquettes et des distributions a priori pour permettre de calculer une décision finale. Les tests démontrent que la performance du système s'améliore en utilisant cette règle plutôt que des règles classiques. Nous étudions également les règles dans l' 'Error Correcting Output Code' (ECOC) décomposition. Inspiré par une règle de reconstitution de données statistiques conçue pour le 'One-per-Class' et 'Pair-Wise Coupling' des approches sur la décomposition, nous avons développé une règle qui s'applique à la régression 'softmax' sur la fiabilité afin d'évaluer la classification finale. Les résultats montrent que ce choix améliore les performances avec respect de la règle statistique existante et des règles de reconstructions classiques. Sur ce thème d'estimation fiable nous remarquons que peu de travaux ont porté sur l'efficacité de l'estimation postérieure dans le cadre de boosting. Suivant ce raisonnement, nous développons une estimation postérieure efficace en boosting Nearest Neighbors. Utilisant Universal Nearest Neighbours classification nous prouvons qu'il existe une sous-catégorie de fonctions, dont la minimisation apporte statistiquement de simples et efficaces estimateurs de Bayes postérieurs.
179

Exploitation des antennes multiples pour l'optimisation dans les réseaux sans fil

Chahbi, Ismehene 25 February 2011 (has links) (PDF)
Les récentes avancées dans le domaine du traitement d'antennes et dans la microélectronique ont fait naître la technologie des antennes intelligentes connue sous le nom de "smart antennas". Considérée comme rupture technologique pour les réseaux sans fil, les systèmes d'antennes intelligentes pourraient répondre aux exigences de plus en plus fortes des applications et services en termes de débit, de capacité et de connectivité. Aujourd'hui, les smart antennas sont exploitées pour développer plusieurs technologies incluant les systèmes de commutation de faisceaux, les antennes adaptatives et les systèmes MIMO (Multiple Input Multiple Output). L'utilisation des antennes MIMO a été reconnue comme une technologie-clé, capable d'accroître considérablement la capacité des réseaux sans fil en exploitant différemment et mieux le spectre radio. Elle fait partie des récents et futurs standards tels que le 3GPP-LTE et le IEEE-802.11n. Dans cette thèse, nous nous sommes intéressés à l'exploitation des techniques multi-antennes dans le contexte des réseaux mobiles. Nous nous sommes focalisés principalement sur deux axes de recherche : la formation de faisceaux et le multiplexage spatial. Dans une première étude, nous avons proposé un schéma de formation de faisceaux, basé sur la technique LCMV (Linearly Constrained Minimum Variance) et permettant de former des faisceaux plus adaptés en cas de mobilité. Dans cette solution, l'incertitude sur la localisation des nœuds est compensée par des faisceaux de largeurs adaptées. De plus, dans le cas où les paramètres (vitesse et direction) de mouvement des nœuds sont connus, nous avons proposé d'exploiter des techniques simples d'extrapolation afin de limiter les calculs complexes des méthodes de poursuite continue (tracking), très consommatrices en ressources. Dans une seconde étude, nous avons proposé une solution d'ordonnancement basée sur la technique du multiplexage spatial qui est une caractéristique fondamentale des systèmes MIMO. L'algorithme proposé (SCLS : Stream-Controlled Multiple Access) exploite les informations inter-couches (cross-layer) : environnement radio de la couche PHY et charge de trafic de la couche LIEN. Il permet de choisir l'ensemble des liens à activer simultanément et détermine sur chacun de ces liens, le nombre d'antennes à utiliser pour transmettre des flux parallèles. SCLS permet ainsi de minimiser le temps nécessaire pour satisfaire les demandes de trafic et de maximiser le débit global utilisé à chaque instant. Dans la troisième étude, nous avons considéré la problématique d'estimation des directions d'arrivée et de départ. Nous avons proposé un algorithme (E-Capon) d'estimation conjointe de ces directions ainsi que du retard de propagation des trajets multiples dans un canal MIMO. Nous nous sommes basés sur la méthode de Capon qui permet de réduire la complexité de traitement pour offrir une estimation rapide et robuste des informations relatives à la localisation des nœuds. Notre objectif est de concevoir une technique mieux adaptée aux changements dynamiques de topologie que l'on peut observer dans les réseaux sans fil.
180

Mesures de similarité pour cartes généralisées

Combier, Camille 28 November 2012 (has links) (PDF)
Une carte généralisée est un modèle topologique permettant de représenter implicitementun ensemble de cellules (sommets, arêtes, faces , volumes, . . .) ainsi que l'ensemblede leurs relations d'incidence et d'adjacence au moyen de brins et d'involutions. Les cartes généralisées sont notamment utilisées pour modéliser des images et objets3D. A ce jour il existe peu d'outils permettant l'analyse et la comparaison de cartes généralisées.Notre objectif est de définir un ensemble d'outils permettant la comparaisonde cartes généralisées.Nous définissons tout d'abord une mesure de similarité basée sur la taille de la partiecommune entre deux cartes généralisées, appelée plus grande sous-carte commune.Nous définissons deux types de sous-cartes, partielles et induites, la sous-carte induitedoit conserver toutes les involutions tandis que la sous-carte partielle autorise certaines involutions à ne pas être conservées. La sous-carte partielle autorise que les involutionsne soient pas toutes conservées en analogie au sous-graphe partiel pour lequelles arêtes peuvent ne pas être toutes présentes. Ensuite nous définissons un ensembled'opérations de modification de brins et de coutures pour les cartes généralisées ainsiqu'une distance d'édition. La distance d'édition est égale au coût minimal engendrépar toutes les successions d'opérations transformant une carte généralisée en une autrecarte généralisée. Cette distance permet la prise en compte d'étiquettes, grâce à l'opérationde substitution. Les étiquettes sont posées sur les brins et permettent d'ajouter del'information aux cartes généralisées. Nous montrons ensuite, que pour certains coûtsnotre distance d'édition peut être calculée directement à partir de la plus grande souscartecommune.Le calcul de la distance d'édition est un problème NP-difficile. Nous proposons unalgorithme glouton permettant de calculer en temps polynomial une approximation denotre distance d'édition de cartes. Nous proposons un ensemble d'heuristiques baséessur des descripteurs du voisinage des brins de la carte généralisée permettant de guiderl'algorithme glouton, et nous évaluons ces heuristiques sur des jeux de test générésaléatoirement, pour lesquels nous connaissons une borne de la distance.Nous proposons des pistes d'utilisation de nos mesures de similarités dans le domainede l'analyse d'image et de maillages. Nous comparons notre distance d'éditionde cartes généralisées avec la distance d'édition de graphes, souvent utilisée en reconnaissancede formes structurelles. Nous définissons également un ensemble d'heuristiquesprenant en compte les étiquettes de cartes généralisées modélisant des images etdes maillages. Nous mettons en évidence l'aspect qualitatif de notre appariement, permettantde mettre en correspondance des zones de l'image et des points du maillages.

Page generated in 0.077 seconds