• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 15
  • 9
  • Tagged with
  • 66
  • 32
  • 31
  • 27
  • 18
  • 17
  • 15
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Codage à description multiple d'images et de vidéos pour des canaux bruités

Pereira, Manuela 18 June 2004 (has links) (PDF)
Les travaux développés dans cette thèse apportent un nouveau regard sur les techniques de codage par descriptions multiples (MDC). <br />Nous proposons une méthode (MDBA) de codage MDC source/canal conjoint robuste adaptée à la transmission d'images et de vidéos sur des canaux non stationnaires. Le principal avantage de cette méthode est qu'elle est bien adaptée pour des applications de transmission sur des canaux peu fiables et variables dans le temps. De plus, grâce à ses capacités de compression et de synchronisation, elle permet de faire de la transmission en temps réel. <br />Nous montrons que la méthode proposée présente les meilleurs résultats en terme de rapport signal à bruit et de qualité visuelle lorsqu'on la compare avec d'autres méthodes de descriptions multiples issues de l'état de l'art. De plus, elle s'avère bien adaptée pour des applications où les méthodes standard de contrôle d'erreur ne sont pas capables de s'adapter facilement aux caractéristiques du canal. <br />La méthode est validée sur différents modèles de canal (BSC, AWGN, Internet, UMTS, satellite) dans le cadre de la transmission d'images et de vidéos. <br />La méthode MDBA proposée est bien adaptée pour des applications qui ont besoin d'un codeur qui utilise l'information venant d'un canal de "feedback" comme par exemple "peer-to-peer video conferencing", vidéo sans fil, etc, mais s'avère insuffisante quand on veut faire du "streaming" vidéo. C'est pour cette raison que nous avons développé un système dédié au "streaming" de vidéo. Ainsi ce manuscrit termine avec une extension de la méthode pour faire du "streaming" vidéo robuste aux erreurs du canal. La méthode proposée permet à la fois de s'adapter à bande passante du canal (débit variable) et de s'adapter aux erreurs de transmission liés au niveau de bruit présent sur le canal.
12

Transport à fiabilité partielle d'images compressées<br />sur les réseaux à commutation de paquets

Holl, Thomas 13 July 2007 (has links) (PDF)
Bien que les données qui transitent sur l'Internet et les contraintes inhérentes à leur transmission soient de<br />natures variées, ces transmissions reposent presque toujours sur TCP ou UDP. L'adoption d'une approche de<br />bout en bout impose d'agir sur le service de transport pour s'adapter aux besoins des données en fonction<br />de la qualité de service offerte par le réseau. Les données multimédias en général sont tolérantes aux<br />pertes, elles peuvent alors faire l'objet d'une compression et d'un transport avec pertes tout en conservant une bonne qualité de l'information reconstruite si les informations perdues sont parfaitement contrôlées.<br />Cela suppose que les applications multimédias puissent compter sur un service de transport adapté à leurs<br />besoins, associant les principes de fiabilité partielle et le contrôle d'erreur déterministe.<br />Dans cette thèse, nous définissons un service de transport à fiabilité partielle de ce type, utilisé pour la<br />transmission d'images fixes compressées sur les réseaux de type « best-effort ». Les travaux portent sur<br />la conciliation du transport à fiabilité partielle avec les données compressées ainsi que la recherche d'un<br />gain de temps de service et d'une dégradation acceptable. Un protocole de transport appelé 2CP-ARQ est proposé à cet effet. Sa compatibilité avec le transport d'images codées selon le standard JPEG2000 est d'abord étudiée. Les résultats de cette étude nous conduisent à élaborer un schéma de compression et<br />d'organisation des données plus approprié à l'utilisation d'un système de transport à fiabilité partielle basé<br />sur 2CP-ARQ. Les résultats montrent que le réseau peut bénéficier de l'utilisation de ce service de transport,<br />qui se traduit par une moindre sollicitation des ressources du réseau, tout en satisfaisant les contraintes de l'application en termes de qualité des images reconstruites.
13

Information visuelle multirésolution pour l'estimation de la vitesse du trafic routier

Godin, Olivier January 2013 (has links)
La hausse du taux d'occupation des routes rend nécessaire l'utilisation de dispositifs visant à surveiller et analyser la circulation des utilisateurs du réseau routier. Bien souvent, des réseaux de surveillance par caméras sont déjà en place sur les routes. L'information visuelle est donc déjà disponible, mais est peu utilisée pour l'analyse automatisée du trafic. L'objectif de ce travail est de mettre au point une méthode automatisée basée sur l'information visuelle multirésolution permettant d'évaluer la fluidité de la circulation à plusieurs niveaux de précision. En effet, si une analyse manuelle de l'information visuelle peut permettre de dégager certaines tendances sur l'état du trafic routier, une approche automatisée permettra d'évaluer plus précisément plusieurs données sur le mouvement des véhicules. En tout temps, le déplacement moyen dans la scène sera évalué, afin d'obtenir un indice de fluidité global. Tant que la circulation demeure fluide, il n'est pas nécessaire d'estimer la vitesse du trafic avec plus de précision. Toutefois, si cet indice descend sous un certain seuil, l'analyse sera raffinée pour fournir le déplacement moyen par direction, en utilisant une résolution deux fois supérieure à la précédente. Finalement, à partir des images à pleine résolution, il sera possible d'obtenir une mesure du déplacement de chaque véhicule.
14

Analyse mustirésolution de données de classements / Multiresolution analysis of ranking data

Sibony, Eric 14 June 2016 (has links)
Cette thèse introduit un cadre d’analyse multirésolution pour les données de classements. Initiée au 18e siècle dans le contexte d’élections, l’analyse des données de classements a attiré un intérêt majeur dans de nombreux domaines de la littérature scientifique : psychométrie, statistiques, économie, recherche opérationnelle, apprentissage automatique ou choix social computationel entre autres. Elle a de plus été revitalisée par des applications modernes comme les systèmes de recommandation, où le but est d’inférer les préférences des utilisateurs pour leur proposer les meilleures suggestions personnalisées. Dans ces contextes, les utilisateurs expriment leurs préférences seulement sur des petits sous-ensembles d’objets variant au sein d’un large catalogue. L’analyse de tels classements incomplets pose cependant un défi important, tant du point de vue statistique que computationnel, poussant les acteurs industriels à utiliser des méthodes qui n’exploitent qu’une partie de l’information disponible. Cette thèse introduit une nouvelle représentation pour les données, qui surmonte par construction ce double défi. Bien qu’elle repose sur des résultats de combinatoire et de topologie algébrique, ses nombreuses analogies avec l’analyse multirésolution en font un cadre naturel et efficace pour l’analyse des classements incomplets. Ne faisant aucune hypothèse sur les données, elle mène déjà à des estimateurs au-delà de l’état-de-l’art pour des petits catalogues d’objets et peut être combinée avec de nombreuses procédures de régularisation pour des larges catalogues. Pour toutes ces raisons, nous croyons que cette représentation multirésolution ouvre la voie à de nombreux développements et applications futurs. / This thesis introduces a multiresolution analysis framework for ranking data. Initiated in the 18th century in the context of elections, the analysis of ranking data has attracted a major interest in many fields of the scientific literature : psychometry, statistics, economics, operations research, machine learning or computational social choice among others. It has been even more revitalized by modern applications such as recommender systems, where the goal is to infer users preferences in order to make them the best personalized suggestions. In these settings, users express their preferences only on small and varying subsets of a large catalog of items. The analysis of such incomplete rankings poses however both a great statistical and computational challenge, leading industrial actors to use methods that only exploit a fraction of available information. This thesis introduces a new representation for the data, which by construction overcomes the two aforementioned challenges. Though it relies on results from combinatorics and algebraic topology, it shares several analogies with multiresolution analysis, offering a natural and efficient framework for the analysis of incomplete rankings. As it does not involve any assumption on the data, it already leads to overperforming estimators in small-scale settings and can be combined with many regularization procedures for large-scale settings. For all those reasons, we believe that this multiresolution representation paves the way for a wide range of future developments and applications
15

Outils et méthodes d'analyse d'images 3D texturées : application à la segmentation des images échographiques

Paulhac, Ludovic 24 November 2009 (has links) (PDF)
Le travail présenté dans cette thèse s'inscrit dans le domaine de l'analyse d'images texturées et plus particulièrement d'images 3D (ensembles de voxels). Pour ces dernières, les difficultés d'analyse sont principalement dues à la très grande quantité d'informations à prendre en compte et à traiter, ce qui rend inefficaces les méthodes dédiées aux images 2D. De plus, outre le faible nombre de travaux proposant des méthodes réellement 3D, la majeure partie des méthodes d'analyse de textures existantes n'ont pas une applicabilité très étendue et sont incapables d'identifier certaines classes de textures. En comparaison, le système visuel humain s'adapte à tous types de textures, même en présence d'un contexte défavorable. Les textures sont donc facilement discernées par l'humain, mais très difficiles à définir sous forme d'un modèle mathématique unique offrant une description purement quantitative. Partant de l'hypothèse qu'il est plus pertinent de décrire une texture avec des adjectifs qualificatifs (description qualitative) plutôt qu'avec un modèle mathématique unique, nous avons choisi dans un premier temps de définir un nouvel ensemble de descripteurs de textures permettant une caractérisation qualitative des textures contenues dans les images 3D. Il est difficile de produire une définition consensuelle du terme "texture". Néanmoins, la première contribution de cette thèse est la proposition d'un nouvel ensemble de caractéristiques de textures solides construit à partir de propriétés de textures facilement appréhendable par l'utilisateur humain. Ces nouveaux descripteurs permettent entre autres de décrire des propriétés texturales telles que la directionnalité, la rugosité et le contraste. La deuxième contribution de cette thèse correspond aux techniques multi-résolutions que nous proposons d'exploiter pour extraire ces caractéristiques des images 3D, techniques basées sur une décomposition en ondelette couplée à une analyse des composantes géométriques contenues dans les représentations obtenues. Enfin, le système de segmentation interactif d'images échographiques 3D de la peau, intégrant nos descripteurs de textures solides, couplé à un mécanisme de clustering et à une interface homme-machine adaptée constitue, selon nous, une troisième contribution. Ce système nous a permis de valider expérimentalement la robustesse et la généricité de nos propositions, et intéresse aujourd'hui de nombreux acteurs du monde de la santé (médecins, dermatologues, industriels, ...).
16

Etude en vue de la multirésolution de l'apparence

Hadim, Julien 11 May 2009 (has links) (PDF)
Les fonctions de texture directionnelle (« Bidirectional Texture Function » ou BTF) ont rencontré un certain succès ces dernières années dans le contexte de la synthèse d'images en temps-réel grâce à la fois au réalisme qu'elles apportent et au faible coût de calcul nécessaire. Cependant, un inconvénient de cette approche reste la taille gigantesque des données et de nombreuses méthodes ont été proposées afin de les compresser. Dans ce document, nous proposons une nouvelle représentation des BTFs qui améliore la cohérence des données et qui permet ainsi une compression plus efficace de celles-ci. Dans un premier temps, nous étudions les méthodes d'acquisition et de génération des BTFs et plus particulièrement, les méthodes de compression adaptées à une utilisation sur cartes graphiques. Nous réalisons ensuite une étude à l'aide de notre logiciel BTFInspect afin de déterminer parmi les différents phénomènes visuels mesurés dans les BTFs, ceux qui influencent majoritairement la cohérence des données par pixel. Dans un deuxième temps, nous proposons une nouvelle représentation pour les BTFs, appelées « Flat Bidirectional Texture Function » Flat-BTFs, qui améliore la cohérence des données d'une BTF et synthétiques afin de valider sa mise en œuvre. Dans l'analyse des résultats obtenus, nous montrons statistiquement et visuellement le gain de cohérence obtenu ainsi que l'absence d'une perte significative de qualité en comparaison avec la représentation d'origine. Enfin, dans un troisième temps, nous validons l'utilisation de notre nouvelle représentation dans des applications de rendu en temps-réel sur cartes graphiques. Puis, nous proposons une compression de l'apparence grâce à une méthode de quantification adaptée et présentée dans le cadre d'une application de diffusion de données 3D entre un serveur contenant des modèles 3D et un client désirant visualiser ces données.
17

Reconstruction des fluctuations turbulentes par une approche hybride RANS/LES

labourasse, emmanuel 11 December 2002 (has links) (PDF)
Les méthodes actuelles de calcul instationnaire des équations de Navier-Stokes (Simulation Numérique Directe (SND), Simulation des Grandes Echelles (SGE)) demandent encore un temps de calcul excessif pour pouvoir être utilisées à des fins industrielles. D'autre part, les méthodes statistiques (RANS) moins coûteuses, ne permettent pas de rendre compte des phénomènes à large bande fréquentielle, qui sont à l'origine, par exemple, des ondes acoustiques. Le développement de méthodes localement couplées permet de concilier les avantages des deux types d'approches précités (SGE et RANS). Une méthode originale de ce type à été développée sur la base de la Non-Linear Disturbance Equations (NLDE). Elle consiste à résoudre l'intégralité du champ grâce à un calcul statistique. Ensuite, aux endroits critiques, le complément fréquentiel est calculé en SGE, de manière à enrichir le champ. Le code a été implanté sur le NEC SX5 de l'ONERA et testé sur plusieurs cas d'application en incompressible (canal plan bi-périodique) et en compressible (aube de turbomachine, aile hypersustentée). Ses possibilités ont été testées et des conditions limites spécifiques ont été développées. La méthode se comporte bien dans tous ces cas d'application et peut être utilisée de façon locale, permettant ainsi une nette réduction du temps de calcul.
18

Sculpture virtuelle

Ferley, Eric 18 September 2002 (has links) (PDF)
Cette thèse concerne la construction de formes tridimensionnelles. Nous utilisons une métaphore de sculpture virtuelle, c'est à dire une manipulation directe de la surface, sans structure de contrôle et où la représentation utilisée pour la surface demeure invisible. Notre travail est basé sur une représentation volumique. La surface modelée est représentée comme l'iso-surface d'un champ potentiel scalaire tridimensionnel échantillonné, qui permet de gérer de manière transparente les connexions et déconnexions. Un premier prototype, utilisant un échantillonnage régulier, nous a permis de valider les concepts d'interaction directe avec la surface via un outil contrôlé avec un périphérique d'entrée 3d. La surface évolue de manière indirecte à travers les modifications du champ potentiel induites par l'outil, mais du point de vue utilisateur, l'outil dépose ou repousse de la matière librement dans l'espace. Via la sélection et les opérations de copier/coller, il est possible de construire des outils de formes quelconques. Nous nous sommes également intéressés aux aspects importants de visualisation (stéréovision, reflets) et de retour haptique pour améliorer la perception, donc l'évaluation de la surface en cours de construction. Notre second prototype utilise une représentation hiérarchique adaptative permettant la construction de détails à différentes échelles et assurant l'interactivité de la mise à jour et de l'affichage. L'échantillonnage se raffine ou se simplifie dynamiquement et automatiquement, guidé par l'outil utilisé. La gestion proposée par file d'attente avec priorités autorise des extensions à plusieurs outils simultanés, éventuellement distribués sur des machines distantes.
19

Compression adaptative de surfaces par ondelettes géométriques.

Roudet, Céline 24 November 2008 (has links) (PDF)
L'évolution de l'infographie et des techniques de numérisation a récemment ouvert la voie à une modélisation tridimensionnelle du monde qui nous entoure. Afin de s'adapter à l'hétérogénéité des ressources et médias manipulant ces objets 3D, des techniques basées sur l'analyse multirésolution sont généralement utilisées car elles fournissent une représentation "scalable" de ces modèles géométriques. C'est dans ce cadre de compression et de transmission progressive d'objets 3D (modélisées sous forme de maillages surfaciques) que se situe ce travail de thèse, réalisé dans le cadre du projet "CoSurf" (collaboration entre le laboratoire LIRIS et France Télécom R&D Rennes). Nous proposons ainsi une nouvelle méthode de compression hiérarchique s'appuyant sur une décomposition en ondelettes, outil d'analyse performant et robuste qui a fait ses preuves en termes de compression d'images et de vidéos. Notre méthode se démarque des techniques existantes, puisqu'elle s'appuie sur une segmentation préalable de la surface en régions d'amplitudes fréquentielles variables. Les partitions résultantes peuvent ainsi être traitées indépendamment durant les phases d'analyse multirésolution, de quantification et d'allocation binaire, de façon à s'adapter aux caractéristiques surfaciques locales des maillages et ainsi réduire les informations à coder. La contribution visuelle de chacune des partitions à l'ensemble de la surface est également un point important à considérer dans la phase d'optimisation des bits alloués à celles-ci, notamment pour des applications comme la transmission et la visualisation sélectives. D'autres applications telles que le tatouage, le filtrage ou le débruitage adaptatifs, l'indexation ou enfin la correction d'erreurs après transmission sur un canal bruité, pourraient bénéficier de ce concept générique que nous avons proposé.
20

Méthodes de Galerkin stochastiques adaptatives pour la propagation d'incertitudes paramétriques dans les modèles hyperboliques

Tryoen, Julie 21 November 2011 (has links) (PDF)
On considère des méthodes de Galerkin stochastiques pour des systèmes hyperboliques faisant intervenir des données en entrée incertaines de lois de distribution connues paramétrées par des variables aléatoires. On s'intéresse à des problèmes où un choc apparaît presque sûrement en temps fini. Dans ce cas, la solution peut développer des discontinuités dans les domaines spatial et stochastique. On utilise un schéma de Volumes Finis pour la discrétisation spatiale et une projection de Galerkin basée sur une approximation polynomiale par morceaux pour la discrétisation stochastique. On propose un solveur de type Roe avec correcteur entropique pour le système de Galerkin, utilisant une technique originale pour approcher la valeur absolue de la matrice de Roe et une adaptation du correcteur entropique de Dubois et Mehlmann. La méthode proposée reste coûteuse car une discrétisation stochastique très fine est nécessaire pour représenter la solution au voisinage des discontinuités. Il est donc nécessaire de faire appel à des stratégies adaptatives. Comme les discontinuités sont localisées en espace et évoluent en temps, on propose des représentations stochastiques dépendant de l'espace et du temps. On formule cette méthodologie dans un contexte multi-résolution basé sur le concept d'arbres binaires pour décrire la discrétisation stochastique. Les étapes d'enrichissement et d'élagage adaptatifs sont réalisées en utilisant des critères d'analyse multi-résolution. Dans le cas multidimensionnel, une anisotropie de la procédure adaptative est proposée. La méthodologie est évaluée sur le système des équations d'Euler dans un tube à choc et sur l'équation de Burgers en une et deux dimensions stochastiques

Page generated in 0.068 seconds