• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 35
  • 27
  • 9
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 318
  • 318
  • 171
  • 130
  • 78
  • 71
  • 52
  • 50
  • 48
  • 48
  • 44
  • 41
  • 38
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Analyse conjointe texte et image pour la caractérisation de films d'animation

Grégory, Païs 06 April 2010 (has links) (PDF)
Le développement rapide des nouvelles technologies de l'information a provoqué ces dernières années une augmentation considérable de la masse de données à disposition de l'utilisateur. Afin d'exploiter de manière rationnelle et efficace l'ensemble de ces données la solution passe par l'indexation de ces documents multimédia. C'est dans ce contexte que ce situe cette thèse et plus spécifiquement dans celui de l'indexation d'une base numérique de films d'animation, telle que celle mise en place par la CITIA (Cité de l'image en mouvement). L'objectif principal de cette thèse est de proposer une méthodologie permettant de prendre en compte des informations issues de l'analyse de l'image et celles issues des péri-textes (synopsis, critiques, analyses, etc.). Ces deux sources d'information sont de niveau sémantique très différent et leur utilisation conjointe permet une caractérisation riche et sémantique des séquences vidéo. L'extraction automatique de descripteurs images est abordée dans ces travaux à travers la caractérisation des couleurs et de l'activité du film. L'analyse automatique des synopsis permet quant à elle de caractériser la thématique du film et permet, grâce au scénario actanciel, la caractérisation de l'action de la séquence. Finalement ces informations sont utilisées conjointement pour retrouver et décrire localement les passages d'action et permettent d'obtenir l'atmosphère du film grâce à leur fusion floue.
312

Coopération et Compétition dans les Réseaux sans Fils

Lasaulce, Samson 07 October 2010 (has links) (PDF)
Le premier chapitre de ce manuscrit correspond au CV long de l'auteur (établi en mai 2010). Le second chapitre décrit ses contributions scientifiques pour les réseaux sans fils équipés de terminaux multi-dimensionnels. Le troisième chapitre est dédié aux contributions de l'auteur aux réseaux sans fils équipés de terminaux-relais. Le quatrième chapitre correspond lui aux réseaux sans fils équipés de terminaux autonomes décisionnellement (réseaux sans fils distribués). Le manuscrit est conclu par les perspectives de l'auteur.
313

Reconnaissance des entités nommées par exploration de règles d'annotation - Interpréter les marqueurs d'annotation comme instructions de structuration locale

Nouvel, Damien 20 November 2012 (has links) (PDF)
Ces dernières décennies, le développement considérable des technologies de l'information et de la communication a modifié en profondeur la manière dont nous avons accès aux connaissances. Face à l'afflux de données et à leur diversité, il est nécessaire de mettre au point des technologies performantes et robustes pour y rechercher des informations. Les entités nommées (personnes, lieux, organisations, dates, expressions numériques, marques, fonctions, etc.) sont sollicitées afin de catégoriser, indexer ou, plus généralement, manipuler des contenus. Notre travail porte sur leur reconnaissance et leur annotation au sein de transcriptions d'émissions radiodiffusées ou télévisuelles, dans le cadre des campagnes d'évaluation Ester2 et Etape. En première partie, nous abordons la problématique de la reconnaissance automatique des entités nommées. Nous y décrivons les analyses généralement conduites pour traiter le langage naturel, discutons diverses considérations à propos des entités nommées (rétrospective des notions couvertes, typologies, évaluation et annotation) et faisons un état de l'art des approches automatiques pour les reconnaître. A travers la caractérisation de leur nature linguistique et l'interprétation de l'annotation comme structuration locale, nous proposons une approche par instructions, fondée sur les marqueurs (balises) d'annotation, dont l'originalité consiste à considérer ces éléments isolément (début ou fin d'une annotation). En seconde partie, nous faisons état des travaux en fouille de données dont nous nous inspirons et présentons un cadre formel pour explorer les données. Les énoncés sont représentés comme séquences d'items enrichies (morpho-syntaxe, lexiques), tout en préservant les ambigüités à ce stade. Nous proposons une formulation alternative par segments, qui permet de limiter la combinatoire lors de l'exploration. Les motifs corrélés à un ou plusieurs marqueurs d'annotation sont extraits comme règles d'annotation. Celles-ci peuvent alors être utilisées par des modèles afin d'annoter des textes. La dernière partie décrit le cadre expérimental, quelques spécificités de l'implémentation du système (mXS) et les résultats obtenus. Nous montrons l'intérêt d'extraire largement les règles d'annotation, même celles qui présentent une moindre confiance. Nous expérimentons les motifs de segments, qui donnent de bonnes performances lorsqu'il s'agit de structurer les données en profondeur. Plus généralement, nous fournissons des résultats chiffrés relatifs aux performances du système à divers point de vue et dans diverses configurations. Ils montrent que l'approche que nous proposons est compétitive et qu'elle ouvre des perspectives dans le cadre de l'observation des langues naturelles et de l'annotation automatique à l'aide de techniques de fouille de données.
314

Systèmes hertziens à forte efficacité spectrale pour les communications mobiles multi-antennes et multi-porteuses de 4° génération

Portier, Fabrice 11 July 2007 (has links) (PDF)
Les travaux présentés dans cette thèse proposent des solutions à forte efficacité spectrale pour les communications mobiles multi-antennes et multiporteuses, particulièrement optimisées pour la voie descendante des systèmes hertziens. Cette étude s'inscrit dans un contexte fortement concurrentiel pour l'accès de masse au haut-débit sans fil, et contribue à l'effort collectivement mené au sein des projets européens sur les systèmes dits de 4e génération (4G). La première partie du document cadre l'étude en identifiant les contraintes physiques, technologiques et financières, ainsi que les exigences des systèmes 4G en termes de services, débit et mobilité. En particulier, une complexité raisonnable au récepteur mobile est requise en voie descendante pour honorer coût et consommation. Dans un souci de réalisme, le canal de propagation radio-mobile large-bande MIMO est caractérisé. Les corrélations en temps/fréquence/espace induisent le dimensionnement du système de communication numérique proposé. La deuxième partie du document est consacrée à l'étude des systèmes multi-porteuses, multi-utilisateurs, et multi-antennes, afin d'unifier l'approche et d'explorer plusieurs axes en utilisant au mieux les propriétés du canal. Tout d'abord, le choix de l'accès large-bande multi-utilisateurs s'est porté sur la combinaison de l'OFDM et d'étalement en accès multiple CDMA, afin de discuter du compromis diversité/orthogonalité suivant les algorithmes de chip-mapping et de détection employés. Ensuite, pour exploiter les gains de réseau d'antennes, diversité et multiplexage offerts par le canal MIMO en fonction du contexte, un état de l'art des techniques multi-antennes est dressé. La classification proposée permet d'établir une stratégie tout en conservant une faible complexité de détection. Nous détaillons les systèmes les plus réalistes en contexte mobile et en voie descendante, n'ayant pas connaissance du canal en émission. La chaîne de communication MIMO-OFDM-CDMA complète est finalement présentée en insistant sur la flexibilité des algorithmes linéaires adoptés. La troisième partie du document s'attache à optimiser les combinaisons précédentes en contexte réaliste, et propose des techniques de codage et d'estimation temps/fréquence/espace innovantes. Tout d'abord, une approche pragmatique amène à considérer des solutions exploitant la diversité qui assurent robustesse, détection simple et compatibilité avec l'ensemble des terminaux. Nous privilégions un codage spatial de rendement unitaire, et proposons d'agir sur les trajets multiples grâce aux antennes supplémentaires. Des axes d'optimisation sont fournis au niveau codage, chip-mapping, détection et propagation de fiabilités. Comparé aux méthodes OSTBC ou CDD, des gains sont illustrés en performance, répartition de puissance, potentiel d'adaptabilité et de robustesse... Ensuite, en relâchant légèrement les contraintes de complexité et d'orthogonalité spatiale, nous proposons de nouvelles solutions en contexte plus favorable. Même avec une simple détection linéaire MMSE, ces techniques offrent un potentiel supérieur en haut-débit mobile dès que le nombre d'antennes augmente. Enfin, nous introduisons des méthodes d'estimation du canal MIMO adaptées aux systèmes précédents, utilisant des symboles pilotes répartis et éventuellement les données décodées de manière itérative afin de répondre à un ensemble de compromis sur des récepteurs variés. Les nombreux résultats obtenus démontrent la pertinence des solutions développées.
315

Vers une solution réaliste de décodage source-canal conjoint de contenus multimédia.

Marin, Cédric 27 March 2009 (has links) (PDF)
Lors d'une transmission vidéo sur les réseaux mobiles, les données doivent être efficacement comprimées pour s'adapter à la bande-passante réduite. Cependant, plus les données multimédia sont comprimées, plus le flux est sensible aux erreurs de transmission. Lors du décodage vidéo, une simple erreur binaire peut entraîner la perte totale d'une séquence d'images. Par conséquent, le flux encodé entrant dans le décodeur vidéo du récepteur ne doit pas être dégradé. Afin que le décodeur vidéo reçoive des informations exemptes d'erreurs, plusieurs mécanismes sont implémentés. Ces mécanismes classiques consistent à retransmettre les paquets erronés et/ou à rajouter de la redondance aux données transmises (à l'aide de codes correcteurs d'erreurs) pour garantir une certaine capacité de correction. Ces méthodes sont efficaces, mais entraînent une consommation excessive des ressources. Par ailleurs, des mécanismes de détection d'erreurs sont effectués dans chaque couche protocolaire et permettent d'effacer les paquets corrompus. Récemment, le concept de décodage conjoint a été proposé. Il consiste à utiliser les redondances inhérentes contenues dans les informations transmises pour améliorer le décodage de la vidéo. Ces redondances résiduelles peuvent être de natures différentes (informations souples, sémantique et syntaxe du train binaire, propriétés de paquétisation, etc) et ces informations ont un impact variable sur les performances obtenues. Durant cette thése, nous avons introduit une nouvelle méthode de décodage conjoint exploitant à la fois les propriétés sémantiques et syntaxiques du flux vidéo ainsi que le code de détection d'erreurs (CRC) de la couche Liaison. Cette technique a ensuite été testée sur le dernier standard de compression vidéo : le H.264 ou MPEG4-AVC. Parallèlement, pour pouvoir intégrer ces outils robustes dans le récepteur, de nombreuses modifications sont nécessaires. Il faut notamment pouvoir faire remonter des paquets contenant des erreurs au niveau du décodeur vidéo (étant donné que les traitements robustes sont implémentés au niveau du décodeur vidéo). Or, comme nous l'avons souligné précédemment, les paquets erronés sont effacés par les mécanismes de protection avant d'avoir atteint le décodeur vidéo. Durant cette thése, nous avons développé un principe universel permettant de résoudre simplement ce problème. Cette méthode est implémentée dans chaque couche protocolaire et consiste à désactiver la détection d'erreurs sur les données du paquet. A la place, le code de détection d'erreurs est utilisé comme un code de correction d'erreurs pour corriger les champs importants contenus dans l'entête du paquet. Une fois l'entête du paquet corrigée, les données transportées (correctes ou incorrectes) peuvent être transmises à la couche supérieure sans risque de perte. En intégrant ce mécanisme dans chaque couche protocolaire du récepteur, on aboutit à une pile protocolaire totalement perméable et les données vidéo peuvent arriver à l'entrée du décodeur vidéo robuste.
316

Régularisations de Faible Complexité pour les Problèmes Inverses

Vaiter, Samuel 10 July 2014 (has links) (PDF)
Cette thèse se consacre aux garanties de reconstruction et de l'analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s'agit d'un problème d'optimisation convexe combinant un terme d'attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l'étude d'une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l'antiparcimonie et la structure de faible rang. Nous analysons tout d'abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l'objet original, ainsi que la stabilité de l'espace modèle promu. Ensuite, nous étudions la stabilité de ces problèmes d'optimisation à des perturbations des observations. À partir d'observations aléatoires, nous construisons un estimateur non biaisé du risque afin d'obtenir un schéma de sélection de paramètre.
317

Détection statistique d'informations cachées dans une image naturelle à partir d'un modèle physique

Cogranne, Rémi 02 December 2012 (has links) (PDF)
Avec l'avènement de l'informatique grand public, du réseau Internet et de la photographie numérique, de nombreuses images naturelles (acquises par un appareil photographique) circulent un peu partout dans le monde. Les images sont parfois modi- fiées de façon légitime ou illicite pour transmettre une information confidentielle ou secrète. Dans ce contexte, la sténographie constitue une méthode de choix pour trans- mettre et dissimuler de l'information. Par conséquent, il est nécessaire de détecter la présence d'informations cachées dans des images naturelles. L'objectif de cette thèse est de développer une nouvelle approche statistique pour effectuer cette détection avec la meilleure fiabilité possible. Dans le cadre de ces travaux, le principal enjeu est la maîtrise des probabilités d'erreur de détection. Pour cela, un modèle paramétrique localement non-linéaire d'une image naturelle est développé. Ce modèle est construit à partir de la physique du système optique d'acquisition et de la scène imagée. Quand les paramètres de ce modèle sont connus, un test statistique théorique est proposé et ses propriétés d'optimalité sont établies. La difficulté principale de la construction de ce test repose sur le fait que les pixels de l'image sont toujours quantifiés. Lorsqu'aucune information sur l'image n'est disponible, il est proposé de linéariser le modèle tout en respectant la contrainte sur la probabilité de fausse alarme et en garantissant une perte d'optimalité bornée. De nombreuses expérimentations sur des images réelles ont confirmé la pertinence de cette nouvelle approche.
318

Apprentissage de nouveaux comportements: vers le développement épigénétique d'un robot autonome.

Lagarde, Matthieu, Gaussier, Philippe, Andry, Pierre 13 July 2010 (has links) (PDF)
La problématique de l'apprentissage de comportements sur un robot autonome soulève de nombreuses questions liées au contrôle moteur, à l'encodage du comportement, aux stratégies comportementales et à la sélection de l'action. Utiliser une approche développementale présente un intérêt tout particulier dans le cadre de la robotique autonome. Le comportement du robot repose sur des mécanismes de bas niveau dont les interactions permettent de faire émerger des comportements plus complexes. Le robot ne possède pas d'informations a priori sur ses caractéristiques physiques ou sur l'environnement, il doit apprendre sa propre dynamique sensori-motrice. J'ai débuté ma thèse par l'étude d'un modèle d'imitation bas niveau. Du point de vue du développement, l'imitation est présente dès la naissance et accompagne, sous de multiples formes, le développement du jeune enfant. Elle présente une fonction d'apprentissage et se révèle alors être un atout en terme de temps d'acquisition de comportements, ainsi qu'une fonction de communication participant à l'amorce et au maintien d'interactions non verbales et naturelles. De plus, même s'il n'y a pas de réelle intention d'imiter, l'observation d'un autre agent permet d'extraire suffisamment d'informations pour être capable de reproduire la tâche. Mon travail a donc dans un premier temps consisté à appliquer et tester un modèle développemental qui permet l'émergence de comportements d'imitation de bas niveau sur un robot autonome. Ce modèle est construit comme un homéostat qui tend à équilibrer par l'action ses informations perceptives frustres (détection du mouvement, détection de couleur, informations sur les angles des articulations d'un bras de robot). Ainsi, lorsqu'un humain bouge sa main dans le champ visuel du robot, l'ambigüité de la perception de ce dernier lui fait confondre la main de l'humain avec l'extrémité de son bras. De l'erreur qui en résulte émerge un comportement d'imitation immédiate des gestes de l'humain par action de l'homéostat. Bien sûr, un tel modèle implique que le robot soit capable d'associer au préalable les positions visuelles de son effecteur avec les informations proprioceptives de ses moteurs. Grace au comportement d'imitation, le robot réalise des mouvements qu'il peut ensuite apprendre pour construire des comportements plus complexes. Comment alors passer d'un simple mouvement à un geste plus complexe pouvant impliquer un objet ou un lieu ? Je propose une architecture qui permet à un robot d'apprendre un comportement sous forme de séquences temporelles complexes (avec répétition d'éléments) de mouvements. Deux modèles différents permettant l'apprentissage de séquences ont été développés et testés. Le premier apprend en ligne le timing de séquences temporelles simples. Ce modèle ne permettant pas d'apprendre des séquences complexes, le second modèle testé repose sur les propriétés d'un réservoir de dynamiques, il apprend en ligne des séquences complexes. A l'issue de ces travaux, une architecture apprenant le timing d'une séquence complexe a été proposée. Les tests en simulation et sur robot ont montré la nécessité d'ajouter un mécanisme de resynchronisation permettant de retrouver les bons états cachés pour permettre d'amorcer une séquence complexe par un état intermédiaire. Dans un troisième temps, mes travaux ont consisté à étudier comment deux stratégies sensorimotrices peuvent cohabiter dans le cadre d'une tâche de navigation. La première stratégie encode le comportement à partir d'informations spatiales alors que la seconde utilise des informations temporelles. Les deux architectures ont été testées indépendamment sur une même tâche. Ces deux stratégies ont ensuite été fusionnées et exécutées en parallèle. La fusion des réponses délivrées par les deux stratégies a été réalisée avec l'utilisation de champs de neurones dynamiques. Un mécanisme de "chunking" représentant l'état instantané du robot (le lieu courant avec l'action courante) permet de resynchroniser les dynamiques des séquences temporelles. En parallèle, un certain nombre de problème de programmation et de conception des réseaux de neurones sont apparus. En effet, nos réseaux peuvent compter plusieurs centaines de milliers de neurones. Il devient alors difficile de les exécuter sur une seule unité de calcul. Comment concevoir des architectures neuronales avec des contraintes de répartition de calcul, de communications réseau et de temps réel ? Une autre partie de mon travail a consisté à apporter des outils permettant la modélisation, la communication et l'exécution en temps réel d'architecture distribuées. Pour finir, dans le cadre du projet européen Feelix Growing, j'ai également participé à l'intégration de mes travaux avec ceux du laboratoire LASA de l'EPFL pour l'apprentissage de comportements complexes mêlant la navigation, le geste et l'objet. En conclusion, cette thèse m'a permis de développer à la fois de nouveaux modèles pour l'apprentissage de comportements - dans le temps et dans l'espace, de nouveaux outils pour maîtriser des réseaux de neurones de très grande taille et de discuter à travers les limitations du système actuel, les éléments importants pour un système de sélection de l'action.

Page generated in 0.1321 seconds