21 |
Tatouage numérique des images dans le domaine des ondelettes basé sur la décomposition en valeurs singulières et l'optimisation multi-objectiveLoukhaoukha, Khaled 17 April 2018 (has links)
Depuis l'extraordinaire révolution technique de l'analogique vers le numérique à la fin du 20ième siècle, les documents numériques sont devenus de plus en plus utilisés à cause de leur diffusion peu coûteuse et extrêmement rapide. Cependant ce passage de l'analogique vers le numérique ne s'est pas fait sans engendrer des inquiétudes en terme des droits d'auteurs. Des personnes non autorisées peuvent s'approprier des documents numériques pour faire des profits au dépends des propriétaires légitimes ayant les droits initiaux, puisque son contenu peut être facilement copié, modifié et distribué sans risque d'être détérioré. Dans cette optique, au début des années 1990, une nouvelle technique a été introduite qui s'inspire principalement de la cryptographie et la stéganographie : elle consiste à inscrire une marque dans un document numérique. Cette technique est nommée le tatouage numérique, en anglais digital watermarking. Cette thèse présente cinq différentes contributions relatives au domaine du tatouage numérique et du traitement d'image. La première contribution est la proposition de deux solutions au problème de la détection positive fausse de la marque constatée dans certains algorithmes de tatouage numérique basés sur la décomposition en valeurs singulières. L'une des solutions est basée sur les fonctions de hachage et l'autre sur le cryptage d'image. La deuxième contribution est la proposition d'un algorithme de cryptage d'image basé sur le principe du cube Rubik. La troisième contribution est la conception d'un algorithme de tatouage numérique basé sur la transformée en ondelettes à base du schéma de lifting (LWT) et la décomposition en valeurs singulières (SVD). Un facteur scalaire unique est utilisé pour contrôler l'intensité de l'insertion de la marque, et permet ainsi de trouver le meilleur compromis entre la robustesse et l'imperceptibilité du tatouage numérique. Cependant, l'utilisation des facteurs scalaires multiples au lieu d'un facteur scalaire unique est plus intéressante [CKLS97]. Toutefois, la détermination des valeurs optimales des facteurs scalaires multiples est un problème très difficile et complexe. Afin de trouver ces valeurs optimales, on a utilisé séparément l'optimisation multi-objective par algorithme génétique (MOGAO) et l'optimisation multi-objective par l'algorithme de colonie de fourmis (MOACO) qui sont considérés comme la quatrième et la cinquième contributions de cette thèse.
|
22 |
Une étude sur la réduction du PAPR dans un système OFDMArab, Samir 16 April 2018 (has links)
Les systèmes de communications ont beaucoup évolué ces dernières années, surtout les systèmes sans fil, et de plus en plus la nécessité d'utilisation d'une grande vitesse de transmission de données s'impose. Mais la technologie existante a des contraintes pour suivre la progression de la vitesse de transmission nécessaire ; plusieurs méthodes et techniques ont vu le jour pour remédier à ce problème. Le multiplexage par division en fréquences orthogonales (OFDM) est une alternative due à sa robustesse contre les évanouissements sélectifs en fréquence et sa résistance aux interférences entre symboles (IES). Ce dernier (IES) est un problème dans la communication de données à grande vitesse.L'émission pour les systèmes sans fil à grande distance nécessite l'utilisation d'amplificateurs de puissance (AP), mais l'utilisation des systèmes OFDM, entre autres, présente de forts pics d'amplitude de l'enveloppe du signal modulé et donc des variations importantes en puissance instantanée. Pour les systèmes OFDM on doit prendre en considération le paramètre (PAPR) "Peak-to- Aver age Power Ratio" qui a une influence directe sur l'AP. Parmi les techniques de réduction du PAPR, on retrouve les techniques qui consistent à traiter le signal avant l'émission. Ces méthodes sont en général simple à implémenter. Dans ce travail, on parle des différentes méthodes de réduction de PAPR, en mettant l'emphase sur la méthode d'écrêtage.
|
23 |
Étude de l'emploi du signal XM comme source d'opportunité d'un système non coopératif pour la détection passive cohérenteGill, Louis-Philippe 17 April 2018 (has links)
Cette thèse présente l'étude de l'utilisation du signal XM comme source d'opportunité d'un système radar de détection passive cohérente. Par la réception simultanée d'un écho radar et du signal direct, une mesure de la corrélation est possible afin d'extraire de la détection les paramètres de la cible. Tout d'abord, une étude de la résolution qu'offre le signal employé et un bilan de puissance sont réalisés desquels deux principaux problèmes sont identifiés : l'effet hautement interféreur du signal direct sur un écho potentiel et la faiblesse de la puissance de cet écho provenant de la réflexion du signal sur une cible caractéristique. La méthode des sous-espaces, en utilisant une antenne-réseau à la réception, est proposée pour supprimer le signal direct par la projection dans son sous-espace orthogonal. Pour pallier le problème de la faiblesse de la puissance de l'écho, un gain directif est aussi proposé par l'utilisation d'un réseau à chevauchement d'éléments permettant d'obtenir ce gain tout en gardant une résolution nécessaire à la méthode des sous-espaces. Le choix du nombre de sous-réseaux employé est ensuite optimisé pour un gain maximal tout en évitant la présence de points nuls pour certaines valeurs de sous-réseaux engendrant la présence du signal direct malgré l'opération visant sa suppression. L'impact de l'estimation de la soustraction de la matrice de covariance du bruit est aussi étudié. Le système de détection intégré est ensuite présenté pour la détection de la cible caractéristique afin d:en vérifier l'efficacité.
|
24 |
Generalized spatio-temporal channel and system characterizationPham, Viet Ha 16 April 2018 (has links)
Le développement rapide de la technologie des télécommunications à entrées et à sorties multiples MIMO met la caractérisation et modélisation de canaux sans fil dans une nouvelle perspective. Des recherches additionnelles sur la caractérisation et la modélisation de canaux sont nécessaires pour les déploiements de ces systèmes MIMO. En outre, de nouvelles techniques de caractérisation et de modélisation des canaux sont nécessaires pour faciliter la recherche sur la caractérisation et modélisation du canal MIMO. Trois contributions majeures sont présentées dans cette thèse. Tout d'abord, nous proposons une représentation généralisée et systématique des systèmes et des canaux sans fil dans les domaines spatio-temporels. Celle-ci peut être interprétée comme une extension des travaux de Bello [1, 2] et une généralisation des concepts introduits dans la littérature récente sur les canaux multiples. Dans ce cadre théorique, on propose un ensemble de seize fonctions noyau (kernel) et huit fonctions système et un ensemble de huit fonctions noyau dans le contexte de systèmes pratiques : ceux-ci sont définis dans le temps, la fréquence, l'espace et le vecteur d'onde pour la caractérisation du canal et du système MIMO. L'utilisation du cadre pratique est illustrée par une série d'exemples en utilisant des mesures basées sur des signaux de télévision numérique ATSC aux fréquences UHF. Les résultats étudiés comprennent les fonctions noyau spatiales mesurées, les spectres reçus dans le vecteur d'onde pour les canaux de liaison descendante et les fonctions de corrélation spatiale pour les canaux de liaison montante Deuxièmement, une nouvelle technique de mesure du signal dans l'espace et dans le temps, ainsi qu'une technique d'estimation du spectre dans le domaine des vecteurs d'onde et en fréquence sont proposées. La technique proposée permet de caractériser un grand réseau d'antenne virtuel à partir d'un nombre limité d'éléments d'antenne en déplaçant les éléments d'antenne le long d'une trajectoire prédéfinie. Une technique d'étalonnage est également proposée pour estimer le spectre de vecteur d'onde des signaux mesurés. Le compromis de cette technique est une faible précision de l'estimation si l'étalement des angles d'arrivée est trop grande. Les performances d'estimation du spectre sont évaluées par une série de simulations. Troisièmement, une vision globale du phénomène Doppler est présentée du point de vue de la technique de caractérisation proposée. Les spectres de Doppler, provoques par la mobilité des diffuseurs sous différentes distributions de vitesse de diffuseur, sont étudiés en profondeur. Ces résultats s'appliquent au scénario sans fil fixe pour lesquel l'émetteur et le récepteur sont fixes, tandis que les diffuseurs sont mobiles. Les modèles analytiques sont comparés avec les courbes empiriques, extraites d'autres publications dans la littérature, afin de valider la méthode proposée. Les résultats obtenus montrent que notre modèle théorique, pour un distribution exponentielle de vitesse de diffuseur, suit de près les courbes mesurées dans les canaux à variations lentes. En outre, des recherches supplémentaires sont nécessaires pour les canaux à variations rapides, par exemple, lorsque les voitures en mouvement sont considérées comme des diffuseurs mobiles.
|
25 |
Performance improvement of SS-WDM passive optical networks using semiconductor optical amplifiers: Modeling and experimentMathlouthi, Walid 17 April 2018 (has links)
Les sources incohérentes sont proposées comme alternatives aux lasers stabilisés en longueur d'onde pour réduire le coût des réseaux optiques passifs utilisant le multiplexage par longueur d'onde découpée dans le spectre (SS-WDM PONs). À cause de leur nature incohérente, ces sources génèrent au récepteur un large bruit d'intensité. Ce bruit limite l'efficacité spectrale et/ou le taux binaire pouvant être achevé. Cette thèse étudie l'utilisation des amplificateurs optique à semi-conducteur SOAs pour nettoyer le bruit d'intensité. De plus, lors de cette thèse, nous explorons les outils numériques et expérimentaux qui nous permettent d'analyser les performances des SOAs dans le cadre de systèmes de communication multi-canaux, incluant le SS-WDM. Nous présentons des modèles mathématiques pour le bruit d'intensité, ce bruit étant celui qui limite les performances des systèmes de communication utilisant des sources incohérentes. Nous discutons les dynamiques complexes des SOAs et présentons les équations qui gouvernent l'évolution des porteurs de charges dans ces amplificateurs. Nous identifions et soulignons l'effet des paramètres les plus importants, qui affectent le processus ainsi que la dynamique de nettoyage du bruit d'intensité. Nous passons en revue, les différentes techniques de nettoyage de bruit avec les SOAs, qui ont démontré les meilleurs résultats connus. De plus, nous effectuons une revue de littérature poussée pour ce qui a attrait au problème de post-filtrage lorsque le SOA est placé au transmetteur, avant la modulation. Notre première contribution pendant ce travail de recherche est de démontrer, en utilisant l'intermodulation de gain d'un SOA au récepteur pour convertir le signal incohérent en laser cohérent, une amélioration significative du taux d'erreur binaire BER. Cette méthode est spectralement efficace, d'autant plus qu'elle ne souffre point la limitation occasionnée par le post-filtrage au récepteur. En contre partie elle nécessite un ample budget de puissance qui doit assurer une saturation suffisante de l'amplificateur au récepteur. Une source laser est aussi nécessaire au récepteur. Ceci est un inconvénient, même si une telle source n'ait pas besoin d'une quelconque stabilisation. Pour contourner le problème causé par le post-filtrage quand le SOA est au transmetteur, nous proposons un nouveau récepteur pour les systèmes de communication WDM, qui permet de mieux garder le nettoyage de bruit, et ce malgré le filtrage optique au récepteur. La nouvelle méthode consiste en un détecteur balancé utilisé au récepteur: d'un bord, tous les canaux sont détectés sans distinction. De l'autre, le signal désiré est bloqué pendant que tous les autres canaux sont détectés. Avec cette méthode, il est facile de saturer l'amplificateur pour une meilleure suppression de bruit tout en évitant en grande partie la dégradation causé par le post-filtrage. Nous avons expérimentalement démontré un système WDM dense de 8 x 10 Gbps avec une source incohérente et un SOA en saturation. Une autre contribution originale de ce travail est le développement d'un outil de simulation pour les SOAs qui est numériquement plus efficace et léger que les modèles connus à ce jour. Nous avons donc développé un modèle théorique simple, pouvant être implémenté par diagramme block, dans le but de simuler les performances des hens de communications WDM. Notre modèle démontre une bonne concordance avec les résultats expérimentaux ainsi qu'une diminution de temps de calcul de l'ordre de 20 fois. Finalement, lors de la dernière partie de ces travaux, nous nous sommes occupés de mesurer, de façon précise, le temps de recouvrement du gain dans un SOA. Le temps de recouvrement des porteurs dans un SOA est un des paramètres les plus importants qui sont à l'origine du phénomène de nettoyage de bruit et qui régissent le comportement ainsi que les dynamiques de l'amplificateur. Nous avons étudié en particulier, la dépendance de ce temps de recouvrement r de la longueur d'onde. Pour le SOA utilisé lors de notre étude expérimentale, nous avons démontré que r dépendait de la longueur d'onde de façon similaire au spectre de gain. Ces mesures ont été possibles grâce au développement d'un nouveau dispositif de mesure pompe/sonde, qui permettait de mesurer le recouvrement du gain pour une pompe et une sonde à la même longueur d'onde et ayant le même état de polarisation.
|
26 |
Animation basée sur la physique : extrapolation de mouvements humains plausibles et réalistes par optimisation incrémentaleQuirion, Sébastien 17 April 2018 (has links)
L'objectif de nos travaux est de faire la synthèse de mouvements plausibles et réalistes de marche humaine dans divers environnements de synthèse. Bien que la solution proposée puisse également s'appliquer aux autres mouvements de locomotion humains ou animaux, nos travaux traitent uniquement du problème de la marche humaine. Afin de résoudre ce problème, nous avons développé une approche permettant de générer une multitude de variations d'une animation issue de capture de mouvement. Ces variations sont obtenues en adaptant le mouvement original à un environnement de synthèse dont les paramètres, tels que l'inclinaison du sol ou la courbure de la trajectoire, sont variés. Nous sommes donc en mesure de produire un mouvement de marche courbe ou de marche sur un plan incliné à partir d'un mouvement de marche en ligne droite sur un sol horizontal, ce que nous qualifions d'extrapolation de mouvement. Une animation initiale, obtenue par capture de mouvement, est essentielle à la solution proposée. Adapter ce mouvement à un nouvel environnement de synthèse consiste essentiellement à ajuster les caractéristiques globales du mouvement, telles que l'orientation du personnage et sa vitesse de déplacement. Ce faisant, nous sommes en mesure de conserver les détails plus fins du mouvement qui lui confèrent son aspect humain, tels que le mouvement des bras ou la vitesse avec laquelle un pied entre en contact avec le sol. En conservant les détails fins du mouvement d'origine, la solution proposée assure un certain réalisme dans les mouvements synthétisés. Dans la solution proposée, l'adaptation du mouvement initial est basée sur le paradigme des contraintes spatio-temporelles, où la synthèse du mouvement est posée comme un problème d'optimisation numérique. En plus d'être une formulation élégante du problème, ce paradigme est tout indiqué pour faire la synthèse de mouvements physiquement plausibles. En combinant ce paradigme avec l'utilisation d'une animation initiale issue de capture de mouvement, nous sommes en mesure de produire des animations de mouvements humains plausibles et réalistes. En pratique, le problème d'optimisation sous-tendu par l'adaptation d'un mouvement par contraintes spatio-temporelles est fortement non linéaire et opère dans un espace à très grande dimensionnalité. Cette complexité peut fortement ralentir le processus d'optimisation et aller jusqu'à en empêcher la convergence. La solution proposée fait donc appel à plusieurs mécanismes afin de réduire cette complexité. Notons qu'aucun de ces mécanismes ne vient compromettre la polyvalence de l'approche, en limitant la complexité du modèle biomécanique du personnage par exemple. Parmi ces mécanismes, deux sont des contributions originales : une technique d'estimation rapide des forces de réaction du sol et une approche d'optimisation incrémentale. Ces deux mécanismes visent à simplifier le processus d'optimisation en fournissant une solution initiale très proche de la solution optimale. La technique d'estimation des forces de réaction du sol sert à donner à ces paramètres une valeur initiale qui est relativement proche de leur valeur optimale, ce qui simplifie significativement la tâche d'optimisation subséquente. Cette technique consiste à trouver, pour les phases de support double, les forces de réaction du sol minimisant l'effort interne du personnage. Ce problème peut être exprimé comme une séquence de sous-problèmes de programmation quadratiques. Cette formulation est un aspect central de notre contribution et elle permet d'atteindre la solution très efficacement. L'approche d'optimisation incrémentale proposée s'inspire des méthodes de continuation. Le mouvement original est considéré comme une solution, un mouvement optimal, pour l'environnement de capture. L'environnement de synthèse est ensuite modifié graduellement, en augmentant l'inclinaison du sol par petits incréments par exemple. À chaque incrément, un nouveau mouvement optimal est trouvé en utilisant la solution de l'incrément précédent comme point de départ. On procède de la sorte jusqu'à l'obtention du mouvement désiré pour l'environnement de synthèse considéré. Si les incréments sont suffisamment petits, la différence entre deux problèmes d'optimisation consécutifs sera petite et il en sera de même pour leur optimum respectif.
|
27 |
Segmentation région-contour des contours des lèvresBouvier, Christian 17 April 2018 (has links)
La thèse présentée a été effectuée en cotutelle entre l'Institut Polytechnique de Grenoble et l'université Laval à Québec. Les travaux ont impliqué les laboratoires universitaire GIPSA-lab à Grenoble et le Laboratoire de Vision et Systèmes Numériques de l'Université Laval (LVSN). Notre étude porte sur la segmentation des contours internes et externes des lèvres. L'objectif visé dans notre étude est de proposer un ensemble de méthodes permettant de modéliser précisément la zone de la bouche avec la meilleure robustesse possible. Par robustesse, notre [sic] entendons obtenir une méthode fiable qui ne nécessite pas de réglage de paramètres et qui permette une segmentation fidèle des contours externes et internes de la bouche. Dans un premier temps, une approche combinée région-contour est introduite dans le but d'obtenir une segmentation multi-locuteur de la bouche sur des images de visage en couleurs. Nous décrivons une approche par décorrélation permettant d'augmenter le contraste entre la peau et les lèvres sur des images en couleurs ainsi qu'une étude sur les gradients multi-échelles pour améliorer la robustesse de la modélisation des contours de la bouche. Ensuite nous présentons notre méthode de localisation et de segmentation région-contour de la bouche sur des images de visage en couleurs. Dans un second temps nous nous sommes intéressés à la détection de l'état de la bouche. L'étape de détection de l'état de la bouche est nécessaire à la modélisation de la région interne qui présente une grande variabilité de forme et de texture. Une approche bioinspirée, basée sur un modèle de rétine et de cortex visuel conduisant au calcul d'un spectre Log-polaire, a été développée pour modéliser la zone de la bouche. Ces spectres sont, ensuite, utilisés pour entraîner un réseau SVM destiné à identifier l'état de la bouche. D'autre part, de nombreux auteurs ont suggéré d'utiliser la modalité infrarouge en analyse faciale. Le LVSN possédant une solide expertise dans le domaine de la vision infrarouge, une étude sur la pertinence de la modalité infrarouge dans le cadre de la segmentation des lèvres est proposée. Après avoir localisé la bouche et identifié l'état de la bouche, nous nous intéressons alors à la segmentation des contours externes et internes de la bouche. Un modèle polynomial de contour externe, dont la complexité sera automatiquement adaptée en fonction de la bouche traitée, est présenté. L'aspect de la zone interne de la bouche pouvant varier très rapidement, l'extraction du contour interne est particulièrement difficile. Nous proposons de traiter ce problème par une méthode de classification non-supervisée pour sélectionner les régions internes de la bouche. La méthode de modélisation de contour par un modèle polynomial est par la suite appliquée pour extraire le contour interne de la bouche. Enfin, une analyse quantitative de la performance globale de l'extraction des contours internes et externes est réalisée par comparaison avec des vérités-terrain.
|
28 |
LDPC-coded modulation for transmission over AWGN and flat rayleigh fading channelsYang, Rui 17 April 2018 (has links)
La modulation codée est une technique de transmission efficace en largeur de bande qui intègre le codage de canal et la modulation en une seule entité et ce, afin d'améliorer les performances tout en conservant la même efficacité spectrale comparé à la modulation non codée. Les codes de parité à faible densité (low-density parity-check codes, LDPC) sont les codes correcteurs d'erreurs les plus puissants et approchent la limite de Shannon, tout en ayant une complexité de décodage relativement faible. L'idée de combiner les codes LDPC et la modulation efficace en largeur de bande a donc été considérée par de nombreux chercheurs. Dans ce mémoire, nous étudions une méthode de modulation codée à la fois puissante et efficace en largeur de bande, ayant d'excellentes performances de taux d'erreur binaire et une complexité d'implantation faible. Ceci est réalisé en utilisant un encodeur rapide, un décoder de faible complexité et aucun entrelaceur. Les performances du système proposé pour des transmissions sur un canal additif gaussien blanc et un canal à évanouissements plats de Rayleigh sont évaluées au moyen de simulations. Les résultats numériques montrent que la méthode de modulation codée utilisant la modulation d'amplitude en quadrature à M niveaux (M-QAM) peut atteindre d'excellentes performances pour toute une gamme d'efficacité spectrale. Une autre contribution de ce mémoire est une méthode simple pour réaliser une modulation codée adaptative avec les codes LDPC pour la transmission sur des canaux à évanouissements plats et lents de Rayleigh. Dans cette méthode, six combinaisons de paires encodeur modulateur sont employées pour une adaptation trame par trame. L'efficacité spectrale moyenne varie entre 0.5 et 5 bits/s/Hz lors de la transmission. Les résultats de simulation montrent que la modulation codée adaptative avec les codes LDPC offre une meilleure efficacité spectrale tout en maintenant une performance d'erreur acceptable.
|
29 |
Intégration d'un système vidéo de poursuite de cible à un simulateur "hardware in the loop" d'avion sans pilote et évaluation d'algorithmes de surveillanceThériault, Olivier 17 April 2018 (has links)
L'emploi de véhicules aériens sans pilote pour surveiller l'environnement entourant les navires militaires est une avenue intéressante pour contrecarrer des menaces potentielles. Cet ouvrage présente le banc d'essais développé pour l'évaluation et l'analyse comparative d'algorithmes de surveillance de cible. Un système vidéo commercial de poursuite de cible a été intégré à un système "hardware in the loop" (HIL) d'avion sans pilote afin de retrouver la position d'une cible dans un environnement virtuel 3D. La démarche pour l'évaluation de la position de la cible est présentée. Le système HIL utilisé, les modifications matérielles et logicielles apportées ainsi que la performance du système sont décrits. Des algorithmes de surveillance allant des plus simples comme la navigation circulaire aux plus complexes basés sur la commande prédictive sont présentés, simulés sur le système HIL et comparés. Les résultats de cette analyse permettent d'établir les lignes directrices d'une stratégie de guidage efficace.
|
30 |
Développement de simulateurs de procédés pour la commande automatique et l'optimisation : approche de conception hybride avec Modelica et Matlab/SimulinkRuel, Jean 17 April 2018 (has links)
Cet ouvrage a trait à la modélisation, à la conception de simulateurs et au contrôle de procédés. La simulation de procédés est employée largement pour l'enseignement des notions relatives au contrôle et aussi dans l'industrie pour, par exemple, tester au préalable de nouvelles stratégies de commande. Afin d'évaluer la pertinence de proposer une approche de conception de simulateurs, cet ouvrage passe d'abord en revue les principaux logiciels commerciaux de simulation disponibles sur le marché dans les domaines du génie chimique, du génie métallurgique et du traitement des eaux. Ensuite, différentes approches de conception de simulateurs de procédés dont la description du fonctionnement est basée sur des équations différentielles et algébriques sont présentées. À cet effet, quelques méthodes d'implantation d'un système d'équations de cette nature à l'aide de l'environnement de développement causal Matlab/Simulink sont exposées. Puis, étant donné l'importance croissante de la nouvelle approche de modélisation acausale utilisant l'approche orienté-objet et orienté-équation, deux environnements (Maple/MapleSim et Dymola) comportant une passerelle vers Matlab/Simulink et supportant cette approche via le langage Modelica sont présentés. Les simulateurs réalisés au cours de ce projet sont un réservoir avec élément chauffant, un ensemble de quatre procédés simples caractérisés par des réactions chimiques à l'intérieur de réacteurs, un bioprocédé de culture de microalgues en photobioréacteur et, finalement, un procédé minéralurgique de broyage couplé à la séparation par flottation. Pour les deux derniers procédés, des exemples de stratégies de contrôle basées sur la commande algébrique en continu sont présentés afin d'illustrer l'utilisation des simulateurs dans un contexte pratique.
|
Page generated in 0.0229 seconds