Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
731 |
Vélocimétrie par images de particules (PIV) pour le diagnostic d'écoulements dans la boucle d'air automobileBonnet, Dimitri 07 December 2012 (has links) (PDF)
Dans le cadre des nouvelles normes concernant la consommation et la pollution liées aux véhicules auto- mobiles, le projet SIMBA réunit différents équipementiers de la boucle d'air automobile, et a pour objectif de développer un outil de simulation globale de cette dernière. Le but de cet outil est de prendre en compte les interactions entre les composants et ainsi pouvoir améliorer les performances de tout le système. La contribution de l'institut FEMTO-ST à ce projet est de réaliser des mesure fluidiques dans la boucle d'air : température, pression, vitesse ou encore concentration de gaz et taille de particules. Ces mesures alimentent une base de données donnant les conditions limites à injecter dans le code de calcul, et permettant aussi de réaliser des comparaisons avec les résultats du calcul numérique. Cette thèse porte plus spécifiquement sur la mesure de vitesses par PIV dans la boucle d'air en conditions réelles sur un banc moteur industriel. La première partie présente une solution versatile de mesure par PIV adaptée à des mesures dans les conduits d'admission, de retour EGR et d'échappement. Une solution spéci- fique a été développée afin de caractériser simultanément les huit tubulures du répartiteur d'admission. Cela a nécessité la mise en place de systèmes optiques relativement complexes pour la génération des nappes laser dans les tubulures, et aussi pour l'observation des champs de particules par deux caméras. La seconde partie porte sur le traitement des données et des images issues des essais. Un code de PIV développé en Python afin de s'adapter aux contraintes spécifiques des expériences réalisées y est présenté. Il a été testé et validé pour justifier son utilisation dans les conditions expérimentales de l'étude. La dernière partie expose des résultats obtenus par la technique mise en place. Ces derniers sont également associés à ceux issus d'autres mesures expérimentales (pression et température), ainsi qu'à des résultats de simulations numériques.
|
732 |
Vers une solution réaliste de décodage source-canal conjoint de contenus multimédia.Marin, Cédric 27 March 2009 (has links) (PDF)
Lors d'une transmission vidéo sur les réseaux mobiles, les données doivent être efficacement comprimées pour s'adapter à la bande-passante réduite. Cependant, plus les données multimédia sont comprimées, plus le flux est sensible aux erreurs de transmission. Lors du décodage vidéo, une simple erreur binaire peut entraîner la perte totale d'une séquence d'images. Par conséquent, le flux encodé entrant dans le décodeur vidéo du récepteur ne doit pas être dégradé. Afin que le décodeur vidéo reçoive des informations exemptes d'erreurs, plusieurs mécanismes sont implémentés. Ces mécanismes classiques consistent à retransmettre les paquets erronés et/ou à rajouter de la redondance aux données transmises (à l'aide de codes correcteurs d'erreurs) pour garantir une certaine capacité de correction. Ces méthodes sont efficaces, mais entraînent une consommation excessive des ressources. Par ailleurs, des mécanismes de détection d'erreurs sont effectués dans chaque couche protocolaire et permettent d'effacer les paquets corrompus. Récemment, le concept de décodage conjoint a été proposé. Il consiste à utiliser les redondances inhérentes contenues dans les informations transmises pour améliorer le décodage de la vidéo. Ces redondances résiduelles peuvent être de natures différentes (informations souples, sémantique et syntaxe du train binaire, propriétés de paquétisation, etc) et ces informations ont un impact variable sur les performances obtenues. Durant cette thése, nous avons introduit une nouvelle méthode de décodage conjoint exploitant à la fois les propriétés sémantiques et syntaxiques du flux vidéo ainsi que le code de détection d'erreurs (CRC) de la couche Liaison. Cette technique a ensuite été testée sur le dernier standard de compression vidéo : le H.264 ou MPEG4-AVC. Parallèlement, pour pouvoir intégrer ces outils robustes dans le récepteur, de nombreuses modifications sont nécessaires. Il faut notamment pouvoir faire remonter des paquets contenant des erreurs au niveau du décodeur vidéo (étant donné que les traitements robustes sont implémentés au niveau du décodeur vidéo). Or, comme nous l'avons souligné précédemment, les paquets erronés sont effacés par les mécanismes de protection avant d'avoir atteint le décodeur vidéo. Durant cette thése, nous avons développé un principe universel permettant de résoudre simplement ce problème. Cette méthode est implémentée dans chaque couche protocolaire et consiste à désactiver la détection d'erreurs sur les données du paquet. A la place, le code de détection d'erreurs est utilisé comme un code de correction d'erreurs pour corriger les champs importants contenus dans l'entête du paquet. Une fois l'entête du paquet corrigée, les données transportées (correctes ou incorrectes) peuvent être transmises à la couche supérieure sans risque de perte. En intégrant ce mécanisme dans chaque couche protocolaire du récepteur, on aboutit à une pile protocolaire totalement perméable et les données vidéo peuvent arriver à l'entrée du décodeur vidéo robuste.
|
733 |
Mesure du tilt atmosphérique à partir de sa variation chromatique pour l'étoile laser polychromatiqueVaillant, Jérôme 03 October 2002 (has links) (PDF)
L'utilisation de grands télescopes rend de plus en plus nécessaire l'emploi de l'optique adaptative qui permet de corriger l'effet de la turbulence atmosphérique. Toutefois cette technique est limitée par le nombre de sources de référence. L'étoile laser permet de pallier ce manque en créant artificiellement une source lumineuse, que l'on peut placer à volonté sur la voûte céleste, au-dessus des couches turbulentes. Or, par cette technique, on ne mesure que les déformations des images mais pas leur déplacement qui est pourtant l'effet le plus important. L'étoile laser polychromatique propose de le corriger également, à partir de la différence chromatique du tilt atmosphérique. Cette mesure différentielle nécessite une grande précision et sa faisabilité n'avait pas encore été démontrée. Pour cela, j'ai conçu et réalisé une expérience dénommée MaTilD (Manipulation de Tilt Différentiel). Le signal à mesurer étant très faible, j'ai développé deux traitements distincts : i) l'estimation des angles d'arrivée par mesure du centre de gravité des images, ii) l'estimation du tilt de la surface d'onde par ajustement d'un modèle sur les images. Le premier traitement m'a permis de mettre en évidence l'existence du chromatisme du tilt. Mais la précision obtenue est inférieure à ce que prédit l'étude théorique que j'en ai faite. Le but du second algorithme est donc d'améliorer cette précision en s'affranchissant d'une partie des limitations de la mesure du centre de gravité : fenêtrage, chevauchement des images, sensibilité élevée au bruit, ... On est alors dans le cadre général de la minimisation de fonctions non-linéaires dans un espace multidimensionnel (typiquement plusieurs dizaines de paramètres). J'ai contribué au développement et aux tests d'une méthode permettant de réduire significativement le nombre de dimensions de cet espace.
|
734 |
Régularisations de Faible Complexité pour les Problèmes InversesVaiter, Samuel 10 July 2014 (has links) (PDF)
Cette thèse se consacre aux garanties de reconstruction et de l'analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s'agit d'un problème d'optimisation convexe combinant un terme d'attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l'étude d'une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l'antiparcimonie et la structure de faible rang. Nous analysons tout d'abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l'objet original, ainsi que la stabilité de l'espace modèle promu. Ensuite, nous étudions la stabilité de ces problèmes d'optimisation à des perturbations des observations. À partir d'observations aléatoires, nous construisons un estimateur non biaisé du risque afin d'obtenir un schéma de sélection de paramètre.
|
735 |
Méthodes variationnelles pour la segmentation d'images à partir de modèles : applications en imagerie médicalePrevost, Raphaël 21 October 2013 (has links) (PDF)
La segmentation d'images médicales est depuis longtemps un sujet de recherche actif. Cette thèse traite des méthodes de segmentation basées modèles, qui sont un bon compromis entre généricité et capacité d'utilisation d'informations a priori sur l'organe cible. Notre but est de construire un algorithme de segmentation pouvant tirer profit d'une grande variété d'informations extérieures telles que des bases de données annotées (via l'apprentissage statistique), d'autres images du même patient (via la co-segmentation) et des interactions de l'utilisateur. Ce travail est basé sur la déformation de modèle implicite, une méthode variationnelle reposant sur une représentation implicite des formes. Après avoir amélioré sa formulation mathématique, nous montrons son potentiel sur des problèmes cliniques difficiles. Nous introduisons ensuite différentes généralisations, indépendantes mais complémentaires, visant à enrichir le modèle de forme et d'apparence utilisé. La diversité des applications cliniques traitées prouve la généricité et l'efficacité de nos contributions.
|
736 |
Estimation de mouvement dense long-terme et évaluation de qualité de la synthèse de vues. Application à la coopération stéréo-mouvement.Conze, Pierre-Henri 16 April 2014 (has links) (PDF)
Les nouvelles technologies de la vidéo numérique tendent vers la production, la transmission et la diffusion de contenus de très haute qualité, qu'ils soient monoscopiques ou stéréoscopiques. Ces technologies ont énormément évolué ces dernières années pour faire vivre à l'observateur l'expérience la plus réaliste possible. Pour des raisons artistiques ou techniques liées à l'acquisition et à la transmission du contenu, il est parfois nécessaire de combiner la vidéo acquise à des informations de synthèse tout en veillant à maintenir un rendu photo-réaliste accru. Pour faciliter la tâche des opérateurs de production et post-production, le traitement combiné de contenus capturés et de contenus de synthèse exige de disposer de fonctionnalités automatiques sophistiquées. Parmi celles-ci, nos travaux de recherche ont porté sur l'évaluation de qualité de la synthèse de vues et l'élaboration de stratégies d'estimation de mouvement dense et long-terme. L'obtention d'images synthétisées de bonne qualité est essentielle pour les écrans 3D auto-stéréoscopiques. En raison d'une mauvaise estimation de disparité ou interpolation, les vues synthétisées générées par DIBR font cependant parfois l'objet d'artéfacts. C'est pourquoi nous avons proposé et validé une nouvelle métrique d'évaluation objective de la qualité visuelle des images obtenues par synthèse de vues. Tout comme les techniques de segmentation ou d'analyse de scènes dynamiques, l'édition vidéo requiert une estimation dense et long-terme du mouvement pour propager des informations synthétiques à l'ensemble de la séquence. L'état de l'art dans le domaine se limitant quasi-exclusivement à des paires d'images consécutives, nous proposons plusieurs contributions visant à estimer le mouvement dense et long-terme. Ces contributions se fondent sur une manipulation robuste de vecteurs de flot optique de pas variables (multi-steps). Dans ce cadre, une méthode de fusion séquentielle ainsi qu'un filtrage multilatéral spatio-temporel basé trajectoires ont été proposés pour générer des champs de déplacement long-termes robustes aux occultations temporaires. Une méthode alternative basée intégration combinatoire et sélection statistique a également été mise en œuvre. Enfin, des stratégies à images de référence multiples ont été étudiées afin de combiner des trajectoires provenant d'images de référence sélectionnées selon des critères de qualité du mouvement. Ces différentes contributions ouvrent de larges perspectives, notamment dans le contexte de la coopération stéréo-mouvement pour lequel nous avons abordé les aspects correction de disparité à l'aide de champs de déplacement denses long-termes.
|
737 |
Le désordre des itérations chaotiques et leur utilité en sécurité informatiqueGuyeux, Christophe 13 December 2010 (has links) (PDF)
Les itérations chaotiques, un outil issu des mathématiques discrètes, sont pour la première fois étudiées pour obtenir de la divergence et du désordre. Après avoir utilisé les mathématiques discrètes pour en déduire des situations de non convergence, ces itérations sont modélisées sous la forme d'un système dynamique et sont étudiées topologiquement dans le cadre de la théorie mathématique du chaos. Nous prouvons que leur adjectif " chaotique " a été bien choisi: ces itérations sont du chaos aux sens de Devaney, Li-Yorke, l'expansivité, l'entropie topologique et l'exposant de Lyapunov, etc. Ces propriétés ayant été établies pour une topologie autre que la topologie de l'ordre, les conséquences de ce choix sont discutées. Nous montrons alors que ces itérations chaotiques peuvent être portées telles quelles sur ordinateur, sans perte de propriétés, et qu'il est possible de contourner le problème de la finitude des ordinateurs pour obtenir des programmes aux comportements prouvés chaotiques selon Devaney, etc. Cette manière de faire est respectée pour générer un algorithme de tatouage numérique et une fonction de hachage chaotiques au sens le plus fort qui soit. A chaque fois, l'intérêt d'être dans le cadre de la théorie mathématique du chaos est justifié, les propriétés à respecter sont choisies suivant les objectifs visés, et l'objet ainsi construit est évalué. Une notion de sécurité pour la stéganographie est introduite, pour combler l'absence d'outil permettant d'estimer la résistance d'un schéma de dissimulation d'information face à certaines catégories d'attaques. Enfin, deux solutions au problème de l'agrégation sécurisée des données dans les réseaux de capteurs sans fil sont proposées.
|
738 |
Estimation du risque de mort subite par arrêt cardiaque à l'aide de méthodes d'apprentissage artificielCappelaere, Charles-Henri 31 January 2014 (has links) (PDF)
On dénombre plus de 40 000 cas de morts subites en France, chaque année. Depuis le début des années 2000, le défibrillateur automatique implantable (DAI) est prescrit de manière prophylactique aux populations à risque. Nombre de ces implantations semblent prématurées : une étude récente a révélé que 81% des DAI implantés chez les patients étudiés n'ont jamais délivré de thérapie pendant les cinq années suivant l'implantation. Cette constatation soulève un problème en raison des complications post-opératoires encourues par les patients porteurs d'un défibrillateur implantable. Avec la rupture de sonde, les chocs électriques engendrés inutilement (c'est-à-dire lorsque la vie du patient n'est pas menacée) par le défibrillateur sont les complications les plus fréquentes : des études ont montré que 13% à 17% des patients porteurs d'un défibrillateur implanté ont subi au moins un choc inutile, susceptible de fragiliser le tissu cardiaque. Il apparaît donc important de mieux définir la population à risque de mort subite, afin d'optimiser la sélection des patients candidats. Le pouvoir prédictif de mort subite des différents descripteurs des enregistrements électrocardiographiques de longue durée (Holter) a fait l'objet de nombreuses études univariées, sans permettre d'amélioration des critères de sélection. Dans ce mémoire, nous présentons l'analyse multivariée des descripteurs de l'enregistrement Holter que nous avons menée. Nous avons extrait l'ensemble des descripteurs calculables sur la base étiquetée d'enregistrements Holter de patients, victimes ou non d'arythmies traitées par le DAI, dont nous disposons. En mettant à profit les connaissances physiologiques sur l'arythmogenèse, nous avons réalisé une sélection des descripteurs les plus pertinents. Puis, à l'aide d'une méthode originale de conception et d'évaluation de classifieur, nous avons construit un classifieur ad hoc, basé, lui aussi, sur les connaissances physiologiques de l'arythmogenèse ; ce classifieur discrimine les patients à risque (pour lesquels il recommande l'implantation), des patients pour lesquels l'implantation ne paraît pas opportune. À l'issue de notre étude, et au vu des performances atteintes, il semble possible d'améliorer la fiabilité des indications d'implantation prophylactique, à l'aide de méthodes d'apprentissage statistique. Pour valider cette conclusion, il paraît néanmoins nécessaire d'appliquer la méthode exposée dans la présente étude à une base de données de plus grande dimension, et de contenu mieux adapté à nos objectifs.
|
739 |
Détection statistique d'informations cachées dans une image naturelle à partir d'un modèle physiqueCogranne, Rémi 02 December 2012 (has links) (PDF)
Avec l'avènement de l'informatique grand public, du réseau Internet et de la photographie numérique, de nombreuses images naturelles (acquises par un appareil photographique) circulent un peu partout dans le monde. Les images sont parfois modi- fiées de façon légitime ou illicite pour transmettre une information confidentielle ou secrète. Dans ce contexte, la sténographie constitue une méthode de choix pour trans- mettre et dissimuler de l'information. Par conséquent, il est nécessaire de détecter la présence d'informations cachées dans des images naturelles. L'objectif de cette thèse est de développer une nouvelle approche statistique pour effectuer cette détection avec la meilleure fiabilité possible. Dans le cadre de ces travaux, le principal enjeu est la maîtrise des probabilités d'erreur de détection. Pour cela, un modèle paramétrique localement non-linéaire d'une image naturelle est développé. Ce modèle est construit à partir de la physique du système optique d'acquisition et de la scène imagée. Quand les paramètres de ce modèle sont connus, un test statistique théorique est proposé et ses propriétés d'optimalité sont établies. La difficulté principale de la construction de ce test repose sur le fait que les pixels de l'image sont toujours quantifiés. Lorsqu'aucune information sur l'image n'est disponible, il est proposé de linéariser le modèle tout en respectant la contrainte sur la probabilité de fausse alarme et en garantissant une perte d'optimalité bornée. De nombreuses expérimentations sur des images réelles ont confirmé la pertinence de cette nouvelle approche.
|
740 |
Analyse harmonique et Estimation spectrale sur la Sphère.<br />Applications à l'étude du Fond diffus cosmologique.Guilloux, Frédéric 08 December 2008 (has links) (PDF)
Cette thèse porte sur l'utilisation d'ondelettes de seconde génération pour l'étude statistique de champs aléatoires sphériques. Parmi les phénomènes modélisables par un tel champ, on s'intéressera en particulier au Fond diffus cosmologique (CMB).<br /><br />La localisation des needlets (récente construction d'ondelettes) sur la sphère est étudiée et optimisée en terme de concentration spatiale et d'estimation statistique. Ces fonctions sont ensuite utilisées pour construire un nouvel estimateur du spectre de puissance angulaire. L'examen des propriété de cet estimateur, d'un point de vue théorique (dans l'asymptotique des hautes fréquences angulaires) et pratique, montre qu'il améliore les méthodes existantes dans un modèle réaliste comportant des données manquantes et un bruit hétéroscédastique. A côté de l'estimation spectrale, l'utilisation des needlets est également introduite dans un problème de séparation de sources.<br /><br />Après quatre chapitres introductifs (dédiés respectivement aux aspects physiques, analytiques et statistiques de l'étude du CMB, puis à une présentation d'ensemble des résultats), quatre articles de revue (en collaboration) sont présentés : "Practical wavelet design on the sphere" ; "CMB power spectrum estimation using wavelets" ; "Spectral estimation on the sphere with needlets: high frequency asymptotics" et "A full sky, low foreground, high resolution CMB map from WMAP".
|
Page generated in 0.0894 seconds