• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 7
  • 5
  • Tagged with
  • 32
  • 32
  • 11
  • 10
  • 9
  • 7
  • 7
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation et reconnaissance active d'objets 3D de forme libre par vision en robotique

Trujillo-Romero, Felipe De Jesus 10 December 2008 (has links) (PDF)
Cette thèse concerne la robotique au service de l'Homme. Un robot compagnon de l'Homme devra manipuler des objets 3D courants (bouteille, verre...), reconnus et localisés à partir de données acquises depuis des capteurs embarqués sur le robot. Nous exploitons la Vision, monoculaire ou stéréo. Pour traiter de la manipulation à partir de données visuelles, il faut au préalable construire deux représentations pour chaque objet : un modèle géométrique 3D, indispensable pour contrôler la saisie, et un modèle d'apparence visuelle, nécessaire pour la reconnaissance. Cette thèse traite donc de l'apprentissage de ces représentations, puis propose une approche active de reconnaissance d'objets depuis des images acquises par les caméras embarquées. La modélisation est traitée sur un objet 3D isolé posé sur une table, ; nous exploitons des données 3D acquises depuis un capteur stéréo monté sur un bras manipulateur; le capteur est déplacé par le bras autour de l'objet pour acquérir N images, exploitées pour construire un modèle de type maillage triangulaire. Nous proposons d'abord une approche originale de recalage des vues partielles de l'objet, fondée sur des informations de pseudo-couleur générées à partir des points 3D acquis sur l'objet à apprendre ; puis une méthode simple et rapide, fondée sur la paramétrisation sphérique, est proposée pour construire un maillage triangulaire à partir des vues recalées fusionnées dans un nuage de points 3D. Pour la reconnaissance active, nous exploitons une simple caméra. L'apprentissage du modèle d'apparence pour chaque objet, se fait aussi en déplaçant ce capteur autour de l'objet isolé posé sur une table. Ce modèle est donc fait de plusieurs vues ; dans chacune, (1) la silhouette de l'objet est extraite par un contour actif, puis (2) plusieurs descripteurs sont extraits, globaux (couleur, signature de la silhouette, shape context calculés) ou locaux (points d'intérêt, couleur ou shape context dans des régions). Pendant la reconnaissance, la scène peut contenir un objet isolé, ou plusieurs en vrac, avec éventuellement des objets non appris ; nous proposons une approche active, approche incrémentale qui met à jour un ensemble de probabilités P(Obji), i=1 à N+1 si N objets ont été appris ; les objets inconnus sont affectés à la classe N+1 ; P(Obji) donne la probabilité qu'un objet de la classe i soit présent dans la scène. A chaque étape la meilleure position du capteur est sélectionnée en exploitant la maximisation de l'information mutuelle. De nombreux résultats en images de synthèse ou en images réelles ont permis de valider cette approche.
12

Développement de Graphe de Connectivité Différentiel pour Caractérisation des Régions Cérébrales Impliquées dans l'Epilepsie

Amini, Ladan 21 December 2010 (has links) (PDF)
Les patients pharmaco-résistants sont des candidats pour la chirurgie de l'épilepsie. Le but de cette chirurgie est d'enlever les zones à l'origine de la crise (SOZ) sans créer de nouveaux déficits neurologiques. Pour localiser les SOZs, une des meilleures approches consiste à analyser des électroencéphalogrammes intracérébraux (iEEG). Toutefois, l'enregistrement des crises, qui sont des événements rares et critiques, est compliqué contrairement à l'enregistrement de décharges épileptiques intercritiques (IED), qui sont généralement très fréquentes et anodines. La prévision des SOZs, par estimation des régions à l'origine des IEDs, est donc une alternative très intéressante, et la question de savoir si l'estimation des régions IED peut être utile pour prédire les SOZs, a été au coeur de plusieurs études. Malgré des résultats intéressants, la question reste ouverte, notamment en raison du manque de fiabilité des résultats fournis par ces méthodes. L'objectif de cette thèse est de proposer une méthode robuste d'estimation des régions à l'origine des IEDs (notées LIED) par analyse d'enregistrements intracérébraux iEEG. Le point essentiel de cette nouvelle méthode repose sur la détermination d'un graphe de connectivité différentiel (DCG), qui ne conserve que les noeuds (électrodes) associées aux signaux iEEG qui changent de façon significative selon la présence ou l'absence d'IEDs. En fait, on construit plusieurs DCGs, chacun étant caractéristique d'une échelle obtenue après transformée en ondelettes. La fiabilitié statistiques des DCGs est obtenue à l'aide des tests de permutation. L'étape suivante consiste à mesurer les quantités d'information émise par chaque noeud, et d'associer à chaque connexion (arête) du graphe une orientation qui indique le transfert d'information du noeud source vers le noeud cible. Pour celà, nous avons introduit une nouvelle mesure nommée Local Information (LI), que nous avons comparée à des mesures classiques de graphes, et qui permet de définir de façon robuste les noeuds sources pour les graphes de chaque échelle. Les LIEDs sont finalement estimées selon une méthode d'optimisation multi-objectifs (de type Pareto, peu utilisée dans la communauté signal-image) construite à partir des valeurs des LI des DCG dans les différentes bandes de fréquences. La méthode proposée a été validée sur cinq patients épileptiques, qui ont subi une chirurgie d'exérèse et sont déclarés guéris. L'estimation des régions LIED a été comparée avec les SOZs détectées visuellement par l'épileptologue et celles détectées automatiquement par une méthode utilisant une stimulation destinée à provoquer des crises. La comparaison révèle des résultats congruents entre les SOZs et les régions LIED estimées. Ainsi, cette approche fournit des LIED qui devraient être des indications précieuses pour l'évaluation préopératoire en chirugie de l'épilepsie.
13

Méthode unifiée de suivi et d'asservissement visuels basée sur l'information mutuelle

Dame, A. 23 December 2010 (has links) (PDF)
Dans cette thèse, nous traitons les problèmes d'asservissement et de suivi visuel, qui sont essentiels dans le domaine de la vision robotique. Leur robustesse ainsi que leur précision deviennent des enjeux majeurs. Les techniques classiques sont principalement basées sur l'observation de primitives géométriques dans l'image. Ces primitives ne prennent néanmoins pas compte de toute l'information présente dans les images. C'est pour cette raison que de nouvelles approches, dites approches directes, ont vu le jour. Un inconvénient des méthodes directes actuelles vient du fait qu'elles sont centrées sur l'observation des intensités lumineuses des images qui sont fortement sensibles aux changements d'apparence qui peuvent survenir, par exemple, lors de modification de l'illumination ou occultation. Ceci a pour effet de rendre l'application de ces techniques limitée à des conditions nominales d'utilisation. Pour régler ce problème, nous proposons une solution qui n'est plus directement basée sur les intensités lumineuses mais sur l'information contenue dans les images. Nous montrons que la maximisation de cette information permet de créer une solution unifiée pour résoudre des tâches de suivi et d'asservissement visuel. De nombreuses expériences de suivi valident la robustesse et la précision de la technique proposée dans des applications variées en passant par le suivi de visages, la localisation, la construction de mosaïques et la réalité augmentée. La méthode d'asservissement visuel reposant sur l'information mutuelle est également validée à l'aide d'une plateforme contenant un robot cartésien à six degrés de liberté ainsi qu'un véhicule autonome non-holonome.
14

Interaction robot/environnement dans le cadre de la psychologie éco logique. Implémentation des affordances

Hazan, Aurélien 11 December 2007 (has links) (PDF)
Comment un robot peut-il estimer si une tâche est réalisable ou pas dans un envi ronnement donné ? De nombreux travaux en robotique s'appuient pour répondre sur les affordances de la psychologie écologique. Apprendre quelles sont les actions permises nécessite selon nous d'apprendre les relations de dépendances locales et globales entre capteurs et effecteurs au cours de l'action.<br />Pour cela nous assimilons le robot à un réseau sensorimoteur aléatoire, et pour représenter son activité nous introduisons des mesures de dépendance probabilist es et statistiques. Celles-ci nous permettent de construire des matrices, graphes et complexes simpliciaux aléatoires dont nous étudions les propriétés spectrales, topologiques et homologiques.<br />Puis nous vérifions expérimentalement l'intérêt des outils proposés à l'aide d'un robot mobile simulé, autour de la capacité de pousser les objets de l'environnement, dans le cadre de tâches de classification supervisée et non supervisée.
15

Séparation de sources convolutives

Akil, Moussa 22 April 2008 (has links) (PDF)
La séparation de sources consiste à extraire des signaux appelés sources à partir seulement de mélanges observés de ces signaux appelés observations. De nombreuses approches ont été brièvement présentées dans ce manuscrit. La plupart de ces approches exploite l'hypothèse d'indépendance des sources.<br />Dans cette thèse, nous avons considéré le cas des mélanges linéaires convolutifs. Nous proposons de calculer les contributions des sources sur les capteurs afin d'optimiser la procédure de séparation.<br />L'estimation des contributions dans les observations est réalisée grâce à un critère quadratique optimisé par un filtre de Wiener. Ensuite, nous étudions deux approches de séparation de sources. <br />La première utilise l'information mutuelle comme critère d'indépendance et la seconde dite fonction de contraste est basée sur les statistiques d'ordre quatre. L'utilisation des contributions des sources sur les capteurs dans la phase de séparation nous permet de proposer deux algorithmes de séparation, qui constituent deux généralisations d'algorithmes classiques.
16

Le signal complexe de la diffusion collective de la lumière et les écoulements turbulents

Honoré, Cyrille 05 June 1996 (has links) (PDF)
La diffusion collective de la lumière est un moyen d'observation des gaz turbulents. Un laser éclaire le volume étudié. Le champ diffusé par les molécules du gaz est détecté, sous un angle proche de la direction de propagation avant. L'information recueillie est proportionnelle à la transformée de Fourier spatiale de la densité du gaz, sur le volume d'observation, suivant le vecteur d'onde de diffusion. La détection hétérodyne permet d'avoir accès au module et à la phase de ce signal complexe.<br /> L'effet Doppler implique qu'il est possible de mesurer la vitesse de l'écoulement: à travers le spectre du signal, on retrouve, sous certaines conditions, la distribution de probabilité de la vitesse moyenne sur le volume observé. De manière instantanée, on a étudié la dérivée de la phase du signal pour déterminer sous quelles conditions, cette dérivée approche la vitesse instantanée moyenne sur le volume. L'évolution temporelle de la vitesse moyenne sur le volume est alors connue. Son spectre peut être calculé. Un coefficient de diffusion turbulente peut être établi. Les expériences liées à cette étude, ont été faites sur une couche de mélange supersonique, dans la soufflerie S150 du LÉA de Poitiers.<br /> La diffusion a aussi la propriété de sélectionner une longueur d'onde, donc une échelle du milieu observé. Cette information est présente dans le module du signal. Un dispositif permettant d'observer simultanément deux diffusions à des échelles différentes a été monté. L'expérience a porté sur un jet à symétrie axiale. L'étude des auto- et intercorrélations entre signaux à échelles différentes laisse apparaitre deux échelles de temps distinctes: un temps court, visible uniquement sur l'autocorrélation, propre à l'échelle observée, et un temps plus long, observable dans tous les cas. Ce dernier ne dépend que de l'échelle de production et de la vitesse moyenne. On a montré que ce temps long est propre aux grandes structures de la turbulence.
17

EXPLORATION PAR DES INTERFACES HYBRIDES DU CODE NEURONAL ET DES MÉCANISMES DE RÉGULATION DE L'INFORMATION SENSORIELLE DANS LE SYSTÈME VISUEL

Béhuret, Sébastien 14 May 2012 (has links) (PDF)
L'identification du codage neuronal dans le thalamus et le cortex cérébral, et en particulier dans l'aire visuelle primaire, se heurte à la complexité du réseau neuronal qui repose sur une diversité étonnante des neurones, sur les plans morphologique, biochimique et électrique, et de leurs connexions synaptiques. À cela s'ajoute une importante diversité des propriétés fonctionnelles de ces neurones reflétant en grande partie la forte récurrence des connexions synaptiques au sein des réseaux corticaux ainsi que la boucle cortico-thalamo-corticale. En d'autres termes, le calcul global effectué dans le réseau thalamo-cortical influence, via des milliers de connexions synaptiques excitatrices et inhibitrices, la spécificité de la réponse de chaque neurone. Dans une première partie, nous avons développé un modèle de bombardement synaptique contextuel reproduisant la dynamique de milliers de synapses excitatrices et inhibitrices convergeant vers un neurone cortical avec l'avantage de pouvoir paramétrer le niveau de synchronisation des synapses afférentes. Nous montrons que le niveau de synchronisation synaptique est relié au taux de corrélation de l'activité neuronale sous-liminaire dans le cortex visuel du chat, avec d'une part un régime où le codage neuronal est très redondant pour des stimulations artificielles classiquement utilisées du type réseau de luminance sinusoïdale, et d'autre part un régime où le codage neuronal est beaucoup plus riche présentant moins de corrélation neuronale pour des stimulations naturelles. Ces résultats indiquent que le taux de corrélation de l'activité neuronale sous-liminaire est un indicateur fonctionnel du régime de codage dans lequel est engagé le cortex cérébral. Dans une seconde partie, nous avons étendu l'exploration du codage neuronal au thalamus, passerelle principale qui transmet les informations sensorielles en provenance de la périphérie vers le cortex cérébral. Le thalamus reçoit un fort retour cortico-thalamique qui résulte du calcul global effectué par les aires corticales. Nous avons étudié son influence en modélisant une voie retino-thalamo-corticale mixant neurones artificiels et neurones biologiques in vitro dans laquelle un bombardement synaptique d'origine corticale est mimé via l'injection de conductances stochastiques excitatrices et inhibitrices en clamp dynamique. Cette approche confère l'avantage de pouvoir contrôller individuellement chacun des neurones thalamiques dans la voie artificielle. Nous montrons qu'un processus de facilitation stochastique à l'échelle de la population s'adjoint au gain cellulaire classique pour contrôler le transfert de l'information sensorielle de la rétine au cortex visuel primaire. Ce processus de facilitation stochastique, qui n'aurait pas pu être discerné à l'échelle de la cellule individuelle, est gouverné par le taux de corrélation inter-neuronale de l'activité neuronale dans le thalamus. À l'inverse des conceptions classiques, -un fort taux de décorrélation- optimise le transfert sensoriel de la rétine au cortex en favorisant la synchronisation des afférences synaptiques. Nous suggérons qu'une décorrélation induite par les aires corticales pourrait augmenter l'efficacité du transfert pour certaines assemblées cellulaires dans le thalamus, constituant ainsi un mécanisme attentionnel à l'échelle des circuits thalamo-corticaux. En parallèle, nous avons développé une méthode d'extraction des fluctuations des conductances synaptiques des neurones à partir d'enregistrements intracellulaires unitaires. Cette méthode devrait permettre de raffiner nos connaissances sur la nature des contextes synaptiques dans lesquels sont immergés les neurones avec des retombées potentielles sur le développement de nouveaux modèles de bombardements synaptiques. En conclusion, nos travaux confirment l'hypothèse d'un codage neuronal basé sur la synchronisation synaptique conditionnée par le niveau de corrélation de l'activité neuronale. Nos travaux sont cohérents avec de nombreuses études sur les processus attentionnels et suggèrent que des mécanismes de corrélation et décorrélation actives, ainsi que des activités oscillatoires, pourraient réguler le transfert de l'information entre les organes sensoriels et les aires corticales.
18

Fluctuations de fonctionnelles spectrales de grandes matrices aléatoires et applications aux communications numériques

Kharouf, Malika 19 June 2010 (has links) (PDF)
La théorie des matrices aléatoires présente un ensemble d'outils mathématiques efficaces pour l'étude de performances des systèmes de communications numériques. L'objectif de cette thèse est de développer des résultats analytique basés sur la théorie des matrices aléatoires pour étudier les fluctuations de quelques indices de performances pour les systèmes de communications sans fil. Nous étudions dans un premier temps, les fluctuations du rapport signal sur bruit (SINR), indice de performance mesuré à la sortie d'un récepteur linéaire de Wiener, récepteur minimisant l'erreur quadratique des symboles estimés (LMMSE) pour les transmissions par la technique CDMA. Basés sur la méthode REFORM, nous montrons le comportement gaussien asymptotique pour le SINR. L'étude du SINR permet la compréhension de comportements d'autres indices de performances comme l'erreur binaire et la probabilité de dépassement. Basés sur la nature gaussienne des entrées de la matrice canal, nous utilisons des outils mathématiques dédiés aux variables gaussiennes pour évaluer ces deux indices de performances. Des simulations montrent bien la pertinence de cette approche. Il est bien connu que l'information mutuelle entre le signal émis et le signal reçu augmente avec l'utilisation des techniques de transmission multi-antennes. Nous nous intéressons à l'étude des fluctuations de cette statistique pour un modèle séparable non centré, cas Rice. Nous développons des outils mathématiques basés sur la théorie des matrices aléatoires permettant de montrer la nature gaussienne des fluctuations de l'information mutuelle.
19

Recalage non linéaire d'images TDM et TEP dans les régions thoraciques et abdominales: etude méthodologique et application en routine clinique

Camara-Rey, Oscar 12 1900 (has links) (PDF)
Le but de ces travaux est de proposer une contribution au recalage d'images TDM-TEP dans les régions thoraciques et abdominales. Notre méthodologie est fondée sur l'introduction de contraintes anatomiques au recalage non linéaire appliqué sur les intensités. Cette introduction est faite d'une manière explicite, en divisant la procédure en une phase d'initialisation recalant les structures segmentées dans les deux images, et une deuxième phase de recalage à niveaux de gris, raffinant l'étape précédente de l'algorithme. Les transformations sont modélisées dans les deux étapes à partir de Free Form Deformations (FFD). La segmentation est réalisée selon une procédure hiérarchique de reconnaissance de formes. La mesure fournie par le protocole d'évaluation que nous avons développé indique une erreur inférieure à 1cm pour les structures les plus significatives (poumons, foie, reins, coeur), sauf pour le stomach (erreur d'1.5cm).
20

Plans prédictifs à taille fixe et séquentiels pour le krigeage / Fixed-size and sequential designs for kriging

Abtini, Mona 30 August 2018 (has links)
La simulation numérique est devenue une alternative à l’expérimentation réelle pour étudier des phénomènes physiques. Cependant, les phénomènes complexes requièrent en général un nombre important de simulations, chaque simulation étant très coûteuse en temps de calcul. Une approche basée sur la théorie des plans d’expériences est souvent utilisée en vue de réduire ce coût de calcul. Elle consiste à partir d’un nombre réduit de simulations, organisées selon un plan d’expériences numériques, à construire un modèle d’approximation souvent appelé métamodèle, alors beaucoup plus rapide à évaluer que le code lui-même. Traditionnellement, les plans utilisés sont des plans de type Space-Filling Design (SFD). La première partie de la thèse concerne la construction de plans d’expériences SFD à taille fixe adaptés à l’identification d’un modèle de krigeage car le krigeage est un des métamodèles les plus populaires. Nous étudions l’impact de la contrainte Hypercube Latin (qui est le type de plans les plus utilisés en pratique avec le modèle de krigeage) sur des plans maximin-optimaux. Nous montrons que cette contrainte largement utilisée en pratique est bénéfique quand le nombre de points est peu élevé car elle atténue les défauts de la configuration maximin-optimal (majorité des points du plan aux bords du domaine). Un critère d’uniformité appelé discrépance radiale est proposé dans le but d’étudier l’uniformité des points selon leur position par rapport aux bords du domaine. Ensuite, nous introduisons un proxy pour le plan minimax-optimal qui est le plan le plus proche du plan IMSE (plan adapté à la prédiction par krigeage) et qui est coûteux en temps de calcul, ce proxy est basé sur les plans maximin-optimaux. Enfin, nous présentons une procédure bien réglée de l’optimisation par recuit simulé pour trouver les plans maximin-optimaux. Il s’agit ici de réduire au plus la probabilité de tomber dans un optimum local. La deuxième partie de la thèse porte sur un problème légèrement différent. Si un plan est construit de sorte à être SFD pour N points, il n’y a aucune garantie qu’un sous-plan à n points (n 6 N) soit SFD. Or en pratique le plan peut être arrêté avant sa réalisation complète. La deuxième partie est donc dédiée au développement de méthodes de planification séquentielle pour bâtir un ensemble d’expériences de type SFD pour tout n compris entre 1 et N qui soient toutes adaptées à la prédiction par krigeage. Nous proposons une méthode pour générer des plans séquentiellement ou encore emboités (l’un est inclus dans l’autre) basée sur des critères d’information, notamment le critère d’Information Mutuelle qui mesure la réduction de l’incertitude de la prédiction en tout point du domaine entre avant et après l’observation de la réponse aux points du plan. Cette approche assure la qualité des plans obtenus pour toutes les valeurs de n, 1 6 n 6 N. La difficulté est le calcul du critère et notamment la génération de plans en grande dimension. Pour pallier ce problème une solution a été présentée. Cette solution propose une implémentation astucieuse de la méthode basée sur le découpage par blocs des matrices de covariances ce qui la rend numériquement efficace. / In recent years, computer simulation models are increasingly used to study complex phenomena. Such problems usually rely on very large sophisticated simulation codes that are very expensive in computing time. The exploitation of these codes becomes a problem, especially when the objective requires a significant number of evaluations of the code. In practice, the code is replaced by global approximation models, often called metamodels, most commonly a Gaussian Process (kriging) adjusted to a design of experiments, i.e. on observations of the model output obtained on a small number of simulations. Space-Filling-Designs which have the design points evenly spread over the entire feasible input region, are the most used designs. This thesis consists of two parts. The main focus of both parts is on construction of designs of experiments that are adapted to kriging, which is one of the most popular metamodels. Part I considers the construction of space-fillingdesigns of fixed size which are adapted to kriging prediction. This part was started by studying the effect of Latin Hypercube constraint (the most used design in practice with the kriging) on maximin-optimal designs. This study shows that when the design has a small number of points, the addition of the Latin Hypercube constraint will be useful because it mitigates the drawbacks of maximin-optimal configurations (the position of the majority of points at the boundary of the input space). Following this study, an uniformity criterion called Radial discrepancy has been proposed in order to measure the uniformity of the points of the design according to their distance to the boundary of the input space. Then we show that the minimax-optimal design is the closest design to IMSE design (design which is adapted to prediction by kriging) but is also very difficult to evaluate. We then introduce a proxy for the minimax-optimal design based on the maximin-optimal design. Finally, we present an optimised implementation of the simulated annealing algorithm in order to find maximin-optimal designs. Our aim here is to minimize the probability of falling in a local minimum configuration of the simulated annealing. The second part of the thesis concerns a slightly different problem. If XN is space-filling-design of N points, there is no guarantee that any n points of XN (1 6 n 6 N) constitute a space-filling-design. In practice, however, we may have to stop the simulations before the full realization of design. The aim of this part is therefore to propose a new methodology to construct sequential of space-filling-designs (nested designs) of experiments Xn for any n between 1 and N that are all adapted to kriging prediction. We introduce a method to generate nested designs based on information criteria, particularly the Mutual Information criterion. This method ensures a good quality forall the designs generated, 1 6 n 6 N. A key difficulty of this method is that the time needed to generate a MI-sequential design in the highdimension case is very larg. To address this issue a particular implementation, which calculates the determinant of a given matrix by partitioning it into blocks. This implementation allows a significant reduction of the computational cost of MI-sequential designs, has been proposed.

Page generated in 0.3728 seconds