• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 35
  • 27
  • 9
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 318
  • 318
  • 171
  • 130
  • 78
  • 71
  • 52
  • 50
  • 48
  • 48
  • 44
  • 41
  • 38
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Codes AL-FEC et protocoles de diffusion robuste de contenus : composants pour des services performants et passant à l'échelle

Roca, Vincent 01 April 2014 (has links) (PDF)
Ce document discute de la fourniture de services de diffusion où des contenus de toute nature doivent être transmis efficacement à un ensemble de récepteurs. Plusieurs problèmes se posent : - la robustesse face aux problèmes de transmission, qu'il s'agisse d'erreurs (inversion de bits) ou de pertes (de paquets); - l'efficacité du service fourni, en termes de performances de correction d'erreurs et/ou effacements, et de faible complexité algorithmique; - le respect d'éventuelles contraintes temps réelles de certains contenus; - et enfin le passage à l'échelle lorsque le nombre de récepteur augmente significativement. La problématique est assez large et nous nous "limitons" à deux aspects et composants essentiels que sont : - les codes correcteurs de niveau applicatif, ou AL-FEC, pour le canal à effacements, sans lesquels l'efficacité du service serait fortement compromise, et - les protocoles de transport qui définissent les règles d'échanges d'informations entre soure(s) et récep- teur(s) et garantissent le niveau de fiabilité nécessaire. Tout au long de ce document, nous détaillons ces deux axes et positionnons nos contributions et leur usage effectif dans le panorama actuel.
302

Développement de méthodes de tatouage sûres pour le traçage de contenus multimédia

Mathon, Benjamin 16 September 2011 (has links) (PDF)
Dans cette thèse, nous étudions dans une première partie l'impact de la contrainte de sécurité en tatouage. Dans le contexte WOA (Watermarked contents Only Attack), un adversaire possède plusieurs contenus tatoués et cherche à estimer la clé secrète d'insertion afin d'accéder aux messages cachés. Une nouvelle manière de tatouer en étalement de spectre est présentée ici. Celle-ci est basée sur la construction de distributions circulaires dans le sous-espace secret de tatouage. Cette technique permet de minimiser la distorsion en moyenne provoquée par l'ajout de la marque dans le contexte WOA en utilisant l'algorithme d'optimisation des Hongrois et la théorie du transport. Nous vérifions ensuite qu'un tatouage sûr est utilisable en pratique en prenant comme exemple le tatouage d'images naturelles. Dans une seconde partie, nous nous intéressons au cadre de l'estampillage d'oe uvres numériques permettant de tracer les redistributeurs de copies illégales. Les codes traçants utilisés sont ceux proposés par Gabor Tardos et sont résistants aux attaques de coalition, c'est-à-dire au groupement d'adversaires mettant en commun leurs contenus numériques afin de forger une version pirate. Puisque les techniques de tatouage permettent l'insertion de codes traçants dans un contenu numérique, nous avons conçu une attaque "au pire cas" qui dépend du niveau de sécurité et qui permet, pour les adversaires, de baisser leur accusation. Nous montrons que pour le cas particulier de l'estampillage un tatouage sûr sera plus efficace qu'un tatouage non-sûr (à robustesse équivalente). Finalement, une implantation des codes traçants dans un contenu vidéo utilisant des méthodes sûres par étalement de spectre est proposée. Nous montrons alors l'efficacité de l'accusation des adversaires dans ce cadre pratique.
303

Fouille de Textes : de l'extraction des descripteurs linguistiques à leur induction

Roche, Mathieu 09 December 2011 (has links) (PDF)
Les masses de données textuelles aujourd'hui disponibles engendrent un problème difficile lié à leur traitement automatique. Dans ce cadre, des méthodes de Fouille de Textes (FT) et de Traitement Automatique du Langage (TAL) peuvent, en partie, répondre à une telle problématique. Elles consistent à modéliser puis mettre en œuvre des méthodologies appliquées aux données textuelles afin d'en déterminer le sens et/ou découvrir des connaissances nouvelles. Dans ce processus, le descripteur linguistique constitue un élément pivot. Après une présentation des méthodes de traitement des descripteurs en eux-mêmes, ces derniers seront étudiés en contexte, c'est-à-dire en corpus. L'identification des descripteurs est souvent difficile à partir de corpus bruités et à faible contenu textuel sur lesquels nous concentrons nos efforts (par exemple, corpus issus du Web 2.0 ou du traitement OCR). Outre les mots considérés comme des descripteurs linguistiques pertinents en FT, nous nous sommes également intéressés à l'étude des syntagmes complexes à partir de corpus classiques puis d'une terminologie classique à partir de corpus complexes (par exemple, données logs ou corpus en français médiéval). Dans la suite, les syntagmes étudiés ne se situent plus à proprement parler dans les textes mais ils seront induits à partir des mots issus des corpus. Les méthodes proposées permettent de mettre en relief des syntagmes originaux tout à fait utiles pour l'identification d'Entités Nommées, le titrage automatique ou la construction de classes conceptuelles. Contrairement au raisonnement déductif, le raisonnement inductif est dit hypothétique. Dans ce cadre, l'utilisation de méthodes de validation automatique des relations induites par le biais d'approches de Fouille du Web se révèle déterminant. Les perspectives à ce travail se concentreront sur l'extraction de nouveaux descripteurs. Ces derniers seront associés à de nouvelles représentations sous forme d'entrepôts de données textuelles. Enfin, les travaux que nous souhaitons développer se focaliseront sur l'analyse des textes dans un contexte plus vaste lié au multimédia que le paradigme du Web 2.0 a mis en exergue ces dernières années.
304

Les ontologies comme support à l'interaction et à la personnalisation dans un processus décisionnel. Exploitation de la sémantique pour favoriser l'automatisation cognitive

Ranwez, Sylvie 11 July 2013 (has links) (PDF)
Impliqué dans un processus décisionnel, l'opérateur humain est souvent confronté à un trop grand nombre d'informations, qu'il doit analyser, synthétiser et exploiter parfois dans un contexte de crise où le facteur temps est décisif. Il est alors nécessaire d'automatiser certaines tâches à haute valeur cognitive ajoutée pour optimiser ce processus décisionnel. Les ontologies de domaine peuvent être utilisées lors de différentes phases de celui-ci. Les travaux de recherche décrits dans ce mémoire concernent l'instrumentation de l'automatisation cognitive lors de différents traitements de l'information, en exploitant des ontologies. Ces recherches ont été menées au sein de l'équipe KID (Knowledge and Image analysis for Decision making) du centre de recherche LGI2P de l'école des mines d'Alès (EMA), de 2001 à 2013. Une première partie détaille mes différentes activités sous la forme d'un curriculum vitae étendu. La deuxième partie constitue le cœur de ce mémoire et détaille mes contributions en matière d'indexation, de recherche d'information conceptuelle et de visualisation de cartes de connaissances. Le premier chapitre pose les définitions des ontologies, leur application en particulier pour la recherche d'information et argumente notre positionnement. Le deuxième chapitre détaille notre vision de l'indexation, des qualités que l'on peut en attendre et de la pertinence des applications qui l'utilisent. Plusieurs stratégies d'indexation sont évoquées, dont une, l'indexation par propagation, constitue notre principale contribution et la piste privilégiés de nos perspectives à court terme. Le troisième chapitre présente nos contributions en recherche d'information (RI) conceptuelle. Disposant d'un ensemble de ressources indexées à l'aide de concepts issus d'une ontologie de domaine, des techniques de requêtage performantes en termes de rappel et de précision, peuvent être mises en place. Nos travaux s'intègrent dans un processus décisionnel : il faut non seulement fournir un résultat pertinent par rapport à une requête d'un utilisateur, mais également être à même de lui justifier ce résultat. Pour cela nous avons choisi d'utiliser des opérateurs d'agrégation issus du domaine de l'aide à la décision pour déterminer la pertinence d'un document. La reformulation de requête, quant à elle, est envisagée dans ces travaux comme l'optimisation d'une fonction objectif dans un processus de RI itératif. Nos perspectives dans ce domaine concernent la RI complémentaire, où les ressources sélectionnées doivent non seulement être pertinentes par rapport à la requête, mais encore se compléter les unes les autres vis-à-vis de cette requête. La RI nécessitant des méthodes de calcul de similarité sémantique, une partie de nos contributions concerne ces mesures. Un cadre abstrait unificateur a été proposé et une librairie dédiée développée. Pour favoriser l'automatisation cognitive, les techniques de visualisation et d'interaction jouent un rôle majeur. Le quatrième chapitre synthétise nos contributions dans le domaine, en particulier concernant les cartes de connaissances interactives, où les ontologies de domaine sont utilisées pour structurer la carte. Ainsi, la proximité physique des entités représentées tient compte de leur proximité sémantique. Différentes techniques peuvent être employées pour mettre en relief certaines caractéristiques de ces entités, différentes vues pouvant être proposées en fonction du contexte d'utilisation (indexation, navigation, recherche d'information, etc.) Un dernier chapitre conclut ce manuscrit en synthétisant nos contributions et en présentant nos perspectives concernant les différentes thématiques abordées dans ce manuscrit. Un positionnement de ce travail par rapport à l'EMA et plus globalement au sein de l'Institut Mines-Télécom est également proposé, ainsi que mes perspectives en matière d'enseignement.
305

Méthodes Computationnelles en Géométrie de l'Information et Applications Temps Réel au Traitement du Signal Audio

Dessein, Arnaud 13 December 2012 (has links) (PDF)
Cette thèse propose des méthodes computationnelles nouvelles en géométrie de l'information, avec des applications temps réel au traitement du signal audio. Dans ce contexte, nous traitons en parallèle les problèmes applicatifs de la segmentation audio en temps réel, et de la transcription de musique polyphonique en temps réel. Nous abordons ces applications par le développement respectif de cadres théoriques pour la détection séquentielle de ruptures dans les familles exponentielles, et pour la factorisation en matrices non négatives avec des divergences convexes-concaves. D'une part, la détection séquentielle de ruptures est étudiée par l'intermédiaire de la géométrie de l'information dualement plate liée aux familles exponentielles. Nous développons notamment un cadre statistique générique et unificateur, reposant sur des tests d'hypothèses multiples à l'aide de rapports de vraisemblance généralisés exacts. Nous appliquons ce cadre à la conception d'un système modulaire pour la segmentation audio temps réel avec des types de signaux et de critères d'homogénéité arbitraires. Le système proposé contrôle le flux d'information audio au fur et à mesure qu'il se déroule dans le temps pour détecter des changements. D'autre part, nous étudions la factorisation en matrices non négatives avec des divergences convexes-concaves sur l'espace des mesures discrètes positives. En particulier, nous formulons un cadre d'optimisation générique et unificateur pour la factorisation en matrices non négatives, utilisant des bornes variationnelles par le biais de fonctions auxiliaires. Nous mettons ce cadre à profit en concevant un système temps réel de transcription de musique polyphonique avec un contrôle explicite du compromis fréquentiel pendant l'analyse. Le système développé décompose le signal musical arrivant au cours du temps sur un dictionnaire de modèles spectraux de notes. Ces contributions apportent des pistes de réflexion et des perspectives de recherche intéressantes dans le domaine du traitement du signal audio, et plus généralement de l'apprentissage automatique et du traitement du signal, dans le champ relativement jeune mais néanmoins fécond de la géométrie de l'information computationnelle.
306

Motifs spatio-temporels de trajectoires d'objets mobiles, de l'extraction à la détection de comportements inhabituels. Application au trafic maritime.

Etienne, Laurent 08 December 2011 (has links) (PDF)
Les systèmes de géolocalisation permettent la surveillance en temps réel des déplacements d'objets mobiles. Aujourd'hui, les données produites par ces capteurs sont reçues et stockées dans des bases de données spatio-temporelles. Un processus de fouille de données appliqué sur ces bases de données spatio-temporelles permet d'extraire le comportement des objets mobiles (patrons spatio-temporels) et d'analyser en temps réel les trajectoires d'objets mobiles suivant un même itinéraire. En utilisant ces modèles, des situations inhabituelles peuvent être détectés. Cette thèse définit à la fois des patrons spatio-temporels ainsi que des outils de comparaison et de qualification de trajectoires en utilisant un indice de similarité basée sur des mesures spatiales et temporelles et la logique floue. Ces outils peuvent être utilisés pour faciliter la surveillance du trafic maritime.
307

Partage de secret et théorie algorithmique de l'information

Kaced, Tarik 04 December 2012 (has links) (PDF)
Notre travail sur le partage de secret se base sur les points de vue de la Théorie de l'Information de Shannon et de la Complexité de Kolmogorov. Nous allons expliquer comment ces trois sujets sont intimement liés. Les inégalités d'information jouent un rôle central dans cette thèse: ce sont les inégalités pour l'entropie de Shannon, qui correspondent également aux inégalités valides pour la complexité de Kolmogorov. La Théorie Algorithmique de l'Information introduite par Kolmogorov formalise l'idée d'aléatoire pour les chaînes de caractères. Ce sont là deux raisons justifiant à elles seules la notion de partage de secret algorithmique dans le cadre de la Théorie Algorithmique de l'information (si l'on sait partager un secret aléatoire, on peut partager n'importe quel secret). Originalement étudié par sa définition combinatoire, le partage de secret a été plus tard généralisé par une formulation dans le langage de la théorie de l'information. Cette étape a permis l'utilisation des inégalités d'information, et s'est révélée très importante dans la caractérisation de l'efficacité des schémas de partage de secret. L'étude de ces inégalités n'en est qu'à ses débuts. Nous y contribuons en introduisant la notion d'inégalité essentiellement conditionnelle, qui montre une fois de plus que ces inégalités ne sont pas encore complètement comprises.
308

Métrologie des graphes de terrain, application à la construction de ressources lexicales et à la recherche d'information

Navarro, Emmanuel 04 November 2013 (has links) (PDF)
Cette thèse s'organise en deux parties : une première partie s'intéresse aux mesures de similarité (ou de proximité) définies entre les sommets d'un graphe, une seconde aux méthodes de clustering de graphe biparti. Une nouvelle mesure de similarité entre sommets basée sur des marches aléatoires en temps courts est introduite. Cette méthode a l'avantage, en particulier, d'être insensible à la densité du graphe. Il est ensuite proposé un large état de l'art des similarités entre sommets, ainsi qu'une comparaison expérimentale de ces différentes mesures. Cette première partie se poursuit par la proposition d'une méthode robuste de comparaison de graphes partageant le même ensemble de sommets. Cette méthode est mise en application pour comparer et fusionner des graphes de synonymie. Enfin une application d'aide à la construction de ressources lexicales est présentée. Elle consiste à proposer de nouvelles relations de synonymie à partir de l'ensemble des relations de synonymie déjà existantes. Dans une seconde partie, un parallèle entre l'analyse formelle de concepts et le clustering de graphe biparti est établi. Ce parallèle conduit à l'étude d'un cas particulier pour lequel une partition d'un des groupes de sommets d'un graphe biparti peut-être déterminée alors qu'il n'existe pas de partitionnement correspondant sur l'autre type de sommets. Une méthode simple qui répond à ce problème est proposée et évaluée. Enfin Kodex, un système de classification automatique des résultats d'une recherche d'information est présenté. Ce système est une application en RI des méthodes de clustering vues précédemment. Une évaluation sur une collection de deux millions de pages web montre les avantages de l'approche et permet en outre de mieux comprendre certaines différences entre méthodes de clustering.
309

Reconnaissance des sons de l'environnement dans un contexte domotique

SEHILI, Mohamed El Amine 05 July 2013 (has links) (PDF)
Dans beaucoup de pays du monde, on observe une importante augmentation du nombre de personnes âgées vivant seules. Depuis quelques années, un nombre significatif de projets de recherche sur l'assistance aux personnes âgées ont vu le jour. La plupart de ces projets utilisent plusieurs modalités (vidéo, son, détection de chute, etc.) pour surveiller l'activité de la personne et lui permettre de communiquer naturellement avec sa maison "intelligente", et, en cas de danger, lui venir en aide au plus vite. Ce travail a été réalisé dans le cadre du projet ANR VERSO de recherche industrielle, Sweet-Home. Les objectifs du projet sont de proposer un système domotique permettant une interaction naturelle (par commande vocale et tactile) avec la maison, et procurant plus de sécurité à l'habitant par la détection des situations de détresse. Dans ce cadre, l'objectif de ce travail est de proposer des solutions pour la reconnaissance des sons de la vie courante dans un contexte réaliste. La reconnaissance du son fonctionnera en amont d'un système de Reconnaissance Automatique de la Parole. Les performances de celui-ci dépendent donc de la fiabilité de la séparation entre la parole et les autres sons. Par ailleurs, une bonne reconnaissance de certains sons, complétée par d'autres sources informations (détection de présence, détection de chute, etc.) permettrait de bien suivre les activités de la personne et de détecter ainsi les situations de danger. Dans un premier temps, nous nous sommes intéressés aux méthodes en provenance de la Reconnaissance et Vérification du Locuteur. Dans cet esprit, nous avons testé des méthodes basées sur GMM et SVM. Nous avons, en particulier, testé le noyau SVM-GSL (SVM GMM Supervector Linear Kernel) utilisé pour la classification de séquences. SVM-GSL est une combinaison de SVM et GMM et consiste à transformer une séquence de vecteurs de longueur arbitraire en un seul vecteur de très grande taille, appelé Super Vecteur, et utilisé en entrée d'un SVM. Les expérimentations ont été menées en utilisant une base de données créée localement (18 classes de sons, plus de 1000 enregistrements), puis le corpus du projet Sweet-Home, en intégrant notre système dans un système plus complet incluant la détection multi-canaux du son et la reconnaissance de la parole. Ces premières expérimentations ont toutes été réalisées en utilisant un seul type de coefficients acoustiques, les MFCC. Par la suite, nous nous sommes penchés sur l'étude d'autres familles de coefficients en vue d'en évaluer l'utilisabilité en reconnaissance des sons de l'environnement. Notre motivation fut de trouver des représentations plus simples et/ou plus efficaces que les MFCC. En utilisant 15 familles différentes de coefficients, nous avons également expérimenté deux approches pour transformer une séquence de vecteurs en un seul vecteur, à utiliser avec un SVM linéaire. Dans le première approche, on calcule un nombre fixe de coefficients statistiques qui remplaceront toute la séquence de vecteurs. La seconde approche (une des contributions de ce travail) utilise une méthode de discrétisation pour trouver, pour chaque caractéristique d'un vecteur acoustique, les meilleurs points de découpage permettant d'associer une classe donnée à un ou plusieurs intervalles de valeurs. La probabilité de la séquence est estimée par rapport à chaque intervalle. Les probabilités obtenues ainsi sont utilisées pour construire un seul vecteur qui remplacera la séquence de vecteurs acoustiques. Les résultats obtenus montrent que certaines familles de coefficients sont effectivement plus adaptées pour reconnaître certaines classes de sons. En effet, pour la plupart des classes, les meilleurs taux de reconnaissance ont été observés avec une ou plusieurs familles de coefficients différentes des MFCC. Certaines familles sont, de surcroît, moins complexes et comptent une seule caractéristique par fenêtre d'analyse contre 16 caractéristiques pour les MFCC
310

Approche informée pour l'analyse du son et de la musique

Fourer, Dominique 11 December 2013 (has links) (PDF)
En traitement du signal audio, l'analyse est une étape essentielle permettant de comprendre et d'interagir avec les signaux existants. En effet, la qualité des signaux obtenus par transformation ou par synthèse des paramètres estimés dépend de la précision des estimateurs utilisés. Cependant, des limitations théoriques existent et démontrent que la qualité maximale pouvant être atteinte avec une approche classique peut s'avérer insuffisante dans les applications les plus exigeantes (e.g. écoute active de la musique). Le travail présenté dans cette thèse revisite certains problèmes d'analyse usuels tels que l'analyse spectrale, la transcription automatique et la séparation de sources en utilisant une approche dite "informée". Cette nouvelle approche exploite la configuration des studios de musique actuels qui maîtrisent la chaîne de traitement avant l'étape de création du mélange. Dans les solutions proposées, de l'information complémentaire minimale calculée est transmise en même temps que le signal de mélange afin de permettre certaines transformations sur celui-ci tout en garantissant le niveau de qualité. Lorsqu'une compatibilité avec les formats audio existants est nécessaire, cette information est cachée à l'intérieur du mélange lui-même de manière inaudible grâce au tatouage audionumérique. Ce travail de thèse présente de nombreux aspects théoriques et pratiques dans lesquels nous montrons que la combinaison d'un estimateur avec de l'information complémentaire permet d'améliorer les performances des approches usuelles telles que l'estimation non informée ou le codage pur.

Page generated in 0.0838 seconds