• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 203
  • 138
  • 29
  • 2
  • Tagged with
  • 369
  • 122
  • 91
  • 91
  • 90
  • 78
  • 64
  • 60
  • 59
  • 50
  • 49
  • 49
  • 48
  • 45
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Codes robustes et codes joints source-canal pour transmission multimédia sur canaux mobiles

Jégou, Hervé Guillemot, Christine January 2005 (has links) (PDF)
Thèse doctorat : Informatique : Rennes 1 : 2005. / La première partie est en français, la deuxième partie est en anglais. Bibliogr. p. 183-196.
22

Codage audio à bas débit avec synthèse sinusoïdale

Coulibaly, Patrice Yefoungnigui. January 2001 (has links)
Thèses (M.Sc.A.)--Université de Sherbrooke (Canada), 2001. / Titre de l'écran-titre (visionné le 20 juin 2006). Publié aussi en version papier.
23

Conception des mailles basée sur une segmentation d'image pour l'estimation des mouvements Segmentation-based mesh design for motion estimation.

Chen, Lijun. January 1999 (has links)
Thèses (M.Sc.A.)--Université de Sherbrooke (Canada), 1999. / Titre de l'écran-titre (visionné le 20 juin 2006). Publié aussi en version papier.
24

Théorie de l’information et méthodes statistiques pour l’analyse des systèmes d’authentification utilisant des codes graphiques / Information-theoretic and statistical approaches to the problem of authentication using graphical codes

Phan Ho, Anh Thu 18 December 2014 (has links)
Le problème de l'authentification est approché par le biais de la théorie de l'information et le modèle d'authentification est analysé sous deux angles différents: soit en utilisant un code graphique brut, soit en utilisant un code graphique codé par codage canal.La première approche permet de proposer un système d'authentification basé sur le test de Neyman–Pearson. Afin de calculer la probabilité de fausse alarme et non-détection, nous avons d'une part utilisé le théorème de Sanov, d'autre part des méthodes de Monte-Carlo basées sur l'échantillonnage d'importance, et avons ainsi réussi à estimer précisément ces probabilités lorsqu'elles sont très faibles. Nous avons ensuite pu optimiser le modèle d'impression acquisition afin de maximiser les performances d'authentification.La deuxième approche propose d'utiliser un code graphique structuré via l'utilisation d'un codage déterministe. Nous montrons qu'il est possible de trouver des codes authentifiants pour lesquels les probabilité de fausse alarme et de non-détection seront conjointement très faibles. Dans le cas de l'authentification, nous avons cependant analyser un codage inadapté car le décodeur permet une transmission à la capacité du canal principal, mais devient inadapté au canal de l'adversaire. Nous avons donc du dans un premier temps calculer la capacité inadaptée liée au canal de l'adversaire, puis ensuite bornée la probabilité d'erreur de décodage liée à cette capacité. Ces résultats théoriques ont été confirmés par l'utilisation du codage Turbo. Nous montrons que pratiquement les performances des systèmes utilisant le codage canal sont supérieures aux performance liées au codage brut. / The problem of authentication is investigated from an information theoretic security point of view. An authentication model is analyzed using two settings, namely non-channel coding and channel coding based authentication. In the former, a reliable performance measurements of an authentication system relying on a Neyman–Pearson test is provided. Specifically, an asymptotic expression using Sanov's theorem is first proposed to compute the probabilities of false alarm and non-detection, then a practical method based on Monte-Carlo using importance sampling is given to estimate these small probabilities. Thanks to these accurate computation of probabilities, we show that it is possible to optimize the authentication performance when the model of the print and scan channel is known. In the latter, we study the setup where the authentication message is coded by the deterministic channel codes. We show that using channel coding is possible to enhance the authentication performance. Precisely, it is possible to find codes making the two error probabilities simultaneously arbitrarily small. Such codes have rates between the capacity of main channel and that of the opponent channel. It should be noted that the legitimate receiver does not know whether the observed message comes from the legitimate or from the opponent. Therefore it is the objective of the legitimate receiver to use a decoding rule matching with the distribution law of the main channel but mismatching with the opponent channel. Finally, a practical scheme Turbo codes is proposed. The analysis of the EXIT chart is discussed to choose channel parameters so that the authentication performance is optimized.
25

Incrustation d'un logo dans un ficher vidéo codé avec le standard MPEG-2

Keroulas, Patrick January 2009 (has links)
Ce mémoire constitue l'aboutissement du projet de recherche de Patrick Keroulas et aborde la notion de compression vidéo, domaine en pleine ébullition avec la démocratisation de l'équipement vidéo et des réseaux de télécommunication. La question initiale est de savoir s'il est possible de modifier le contenu de l'image directement dans un flux binaire provenant d'une séquence vidéo compressée. Un tel dispositif permettrait d'ajouter des modifications en n'importe quel point d'un réseau en évitant le décodage et recodage du flux de données, ces deux processus étant très coûteux en termes de calcul. Brièvement présentés dans la première partie, plusieurs travaux ont déjà proposé une gamme assez large de méthodes de filtrage, de débruitage, de redimensionnement de l'image, etc. Toutes les publications rencontrées à ce sujet se concentrent sur la transposition des traitements de l'image du domaine spatial vers le domaine fréquentiel. Il a été convenu de centrer la problématique sur une application potentiellement exploitable dans le domaine de la télédiffusion. Il s'agit d'incruster un logo ajustable en position et en opacité dans un fichier vidéo codé avec la norme MPEG-2, encore couramment utilisée. La transformée appliquée par cet algorithme de compression est la DCT (Discrete Cosine Transform). Un article publié en 1995 traitant de la composition vidéo en général est plus détaillé car il sert de base à cette étude. Certains outils proposés qui reposent sur la linéarité et l'orthogonalité de la transformée seront repris dans le cadre de ce projet, mais la démarche proposée pour résoudre les problèmes temporels est différente. Ensuite, les éléments essentiels de la norme MPEG-2 sont présentés pour en comprendre les mécanismes et également pour exposer la structure d'un fichier codé car, en pratique, ce serait la seule donnée accessible. Le quatrième chapitre de l'étude présente la solution technique mise en oeuvre via un article soumis à IEEE Transactions on Broadcasting. C'est dans cette partie que toutes les subtilités liées au codage sont traitées : la structure en blocs de pixel, la prédiction spatiale, la compensation de mouvement au demi-pixel près, la nécessité ou non de la quantification inverse. À la vue des résultats satisfaisants, la discussion finale porte sur la limite du système : le compromis entre son efficacité, ses degrés de liberté et le degré de décodage du flux.
26

Codage des automates asynchrones

Saucier Schnebelen, Gabrièle 16 November 1970 (has links) (PDF)
.
27

Représentation structurelle d'images par transformées locales en ondelettes orientées et codage

Jeannic, Guillaume 05 November 2008 (has links) (PDF)
Dans un contexte de compression d'images fixes, de nouvelles représentations implantées par des techniques de redressement (lifting) orienté ont été imaginées. Pour ce travail de thèse, trois variantes de ces transformées sont évaluées comparativement selon un critère de minimisation de l'énergie des hautes fréquences reconstruites et selon la direction de régularité locale. Cette direction de régularité est estimée par des approches basées extraction de contours ou minimisation d'une fonction de coût. Les deux approches proposées permettent de plus une classification de l'activité directionnelle des blocs de l'image. Ces représentations des caractéristiques géométriques de l'image utilisées pour guider le filtrage en ondelettes orientées, est codé pour être transmis au décodeur. Les coûts de ces différentes représentations sont comparés. Finalement une quantification adaptée est proposée pour tenir compte à la fois des différentes classes structurelles et de l'anisotropie de la représentation.
28

Codage multi-couches pour systèmes de communication par satellites

Cantillo, Juan 19 May 2008 (has links) (PDF)
Les architectures satellitaires actuelles pour distribution de services interactifs IP et la connectivité large bande sont basées sur les principes en couches du modèle de référence OSI. Il ne fait aucun doute que l'approche classique basée sur la résolution de problèmes spécifiques à chaque couche dans le cadre du modèle de référence a été très fructueuse jusqu'à aujourd'hui. De nombreux protocoles ont été adaptés aux environnements satellite, et les couches physiques actuelles opèrent près de leurs limites théoriques de performance grâce à l'état très avancé des techniques de modulation et de codage. Cependant, les caractéristiques uniques des transmissions par satellite font que de nombreux et importants problèmes tels que la transparence de la mobilité, le respect des niveaux de services négociés ou la fiabilisation à grande échelle des communications point à multipoint n'ont pas encore trouvé de solutions satisfaisantes dans le cadre de l'approche traditionnelle en couches. L'approche modulaire n'appréhende que moyennement les interactions complexes qui existent entre les couches ainsi que celles avec le médium sans fil, et de ce fait le design actuel fait apparaître des redondances et inefficacités affectant les performances globales. De nombreux chercheurs ont donc commencé à aborder ces différents problèmes de manière holistique, en mettant l'accent sur les avantages potentiels d'une collaboration entre couches au-delà du modèle de référence. La flexibilité résultant d'échanges accrus entre les différentes couches offre en effet de riches possibilités d'optimisation globales, favorisant une meilleure intégration des satellites dans un environnement réseau de plus en plus hétérogène. Cette "optimisation multi-couches" apparaît aujourd'hui comme un domaine de recherche très prometteur pour les communications satellitaires et sans fil en général. Elle se caractérise par une approche pluridisciplinaire mêlant différents aspects de la théorie de l'information, du design de protocoles réseau et du traitement du signal avancé. Force est de constater que de nombreuses techniques multi-couches récemment proposées ont commencé à traiter avec succès quelques uns des problèmes énumérés auparavant, ce qui explique que nombreux protocoles, standards et systèmes de nouvelle génération ont déjà commencé à intégrer ces principes de facto. Cette thèse aborde les problèmes liés à la fiabilité des transmissions satellitaires depuis la perspective de l'optimisation multi-couches. S'agissant d'un aspect crucial des communications satellitaires ayant des implications à presque tous les niveaux de la communication - tels que la qualité de service, la complexité des terminaux ou l'utilisation du spectre - le contrôle des erreurs est sans doute l'une des thématiques satellite où les techniques multi-couche peuvent jouer un rôle important. Après une introduction dédiée aux techniques multi couche en général, la première partie de ce travail s'intéresse à la stratégie de contrôle des erreurs des satellites DVB de première génération, où sont identifiées des redondances liées à une gestion inefficace du problème par le décodeur canal et les couches d'adaptation. Une solution basée sur une approche multi-couche réduisant ces inefficacités et améliorant l'utilisation des ressources est alors proposée. Dans un deuxième temps, nous nous consacrons au standard satellite DVB de nouvelle génération et à la définition de GSE, sa nouvelle couche d'adaptation pour IP. Nous montrons comment GSE intègre de nombreux concepts multi-couches, parmi lesquels ceux liés à une gestion des erreurs basée sur les considérations de la première partie de ce travail. La troisième et dernière partie de ce travail présente HERACLES. Ce nouveau mécanisme multi-couches permet d'apporter des capacités accrues de correction d'erreurs et de synchronisation paquets à tout système de communication par paquets sans consommation supplémentaire de bande. HERACLES a été entièrement développé dans le cadre de cette thèse et a fait l'objet de deux brevets récents. Les résultats globaux de ce travail montrent les possibilités offertes par l'approche multi-couches au problème du contrôle des erreurs, et ouvrent d'excellentes perspectives de déploiement dans les réseaux futurs.
29

Streaming de Vidéos Encodées en Couches sur Internet avec Adaptation au Réseau et au Contenu

de Cuetos, Philippe January 2003 (has links) (PDF)
Dans cette thèse nous proposons de nouvelles techniques et de nouveaux algorithmes pour améliorer la qualité des applications de streaming vidéo sur Internet. Nous formulons des problèmes d'optimisation et obtenons des politiques de contrôle pour la transmission sur le réseau Internet actuel sans qualité de service. Cette thèse étudie des techniques qui adaptent la transmission à la fois aux conditions variables du réseau (adaptation au réseau) et aux caractéristiques des vidéos transmises (adaptation au contenu). Ces techniques sont associées au codage en couche de la vidéo et au stockage temporaire de la vidéo au client. Nous évaluons leurs performances à partir de simulations avec des traces réseau (connexions TCP) et à partir de vidéos encodées en MPEG-4 FGS. Nous considérons tout d'abord des vidéos stockées sur un serveur et transmises sur une connexion TCP-compatible sans perte. Nous comparons les mécanismes d'ajout/retranchement de couches et de changement de versions; nous montrons que la flexibilité du codage en couches ne peut pas compenser, en général, le surcoût en bande passante par rapport au codage vidéo conventionnel. Deuxièmement, nous nous concentrons sur une nouvelle technique de codage en couches, la scalabilité à granularité fine (dite FGS), qui a été conçue spécifiquement pour le streaming vidéo. Nous proposons un nouveau cadre d'étude pour le streaming de vidéos FGS et nous résolvons un problème d'optimisation pour un critère qui implique la qualité des images et les variations de qualité durant l'affichage. Notre problème d'optimisation suggère une heuristique en temps réel dont les performances sont évaluées sur des protocoles TCP-compatibles différents. Nous montrons que la transmission sur une connexion TCP-compatible très variable, telle que TCP, résulte en une qualité comparable à une transmission sur des connexions TCP-compatibles moins variables. Nous présentons l'implémentation de notre heuristique d'adaptation dans un système de streaming de vidéos MPEG-4. Troisièmement, nous considérons le cadre d'étude général du streaming optimisé suivant les caractéristiques débit-distorsion de la vidéo. Nous analysons des traces débit-distorsion de vidéos de longue durée encodées en MPEG-4 FGS, et nous observons que le contenu sémantique a un impact important sur les propriétés des vidéos encodées. A partir de nos traces, nous examinons le streaming optimal à différents niveaux d'agrégation (images, groupes d'images, scènes); nous préconisons l'adaptation optimale scène par scène, qui donne une bonne qualité pour une faible complexité de calcul. Finalement, nous proposons un cadre d'optimisation unifié pour la transmission de vidéos encodées en couches sur des canaux à pertes. Le cadre d'étude proposé combine l'ordonnancement, la protection contre les erreurs par les FEC et la dissimulation d'erreur au décodeur. Nous utilisons des résultats sur les Processus de Décision de Markov (MDPs) à horizon infini et gain moyen, pour trouver des politiques de transmission optimales avec une faible complexité et pour un large éventail de mesures de qualité. Nous montrons qu'il est crucial de considérer la dissimulation d'erreur au décodeur dans la procédure d'optimisation de l'ordonnancement et de la protection contre les erreurs afin d'obtenir une transmission optimale.
30

Adaptation de contenu multimédia avec MPEG 21 : conversion de ressources et adaptation sémantique de scènes /

Kimiaei Asadi, Mariam. January 1900 (has links)
Thèse de doctorat--Informatique et réseaux--Paris--ENST, 2005. / MPEG = Moving picture experts group. Bibliogr. p. 201-206. Résumé en anglais et en français.

Page generated in 0.0367 seconds