1691 |
Approche conjointe de la réduction du facteur de crête et de la linéarisation dans le contexte OFDM.Gouba, Oussoulare 10 December 2013 (has links) (PDF)
Les amplificateurs de puissance sont au centre des systèmes actuels de télécommunications. Leur linéarité (pour préserver la qualité des données transmises) et leur rendement énergétique (pour faire des économies d'énergie) sont très importants et constituent les préoccupations majeures des concepteurs. Cependant, ce sont des composants analogiques intrinsèquement non-linéaires et leur utilisation avec des signaux à enveloppes non-constantes génèrent des distorsions à savoir des remontées spectrales hors-bandes et une dégradation du taux d'erreurs. Les signaux OFDM à la base de nombreux standards comme le Wifi, le Wi-Max, la télévision numérique, le LTE, etc. ont de fortes variations de puissance encore appelées PAPR (Peak-to-Average Power Ratio) qui aggravent ces problèmes de non-linéarité de l'amplificateur et réduit son rendement. Le traitement conjoint des non-linéarités et l'amélioration du rendement de l'amplificateur est l'objectif de cette thèse.Pour cela, l'accent est mis sur une approche conjointe de la linéarisation et de la réduction du PAPR. Ces deux méthodes jusqu'à présent abordées séparément dans la littérature sont en fait complémentaires et interdépendantes. Cela a été prouvé grâce à une étude analytique que nous avons menée. Grâce à l'approche conjointe, on peut simplement les associer, on parle dans ce cas d'approche non-collaborative ou leur permettre en plus d'échanger des informations et de s'adapter l'une par rapport à l'autre et/ou vice versa. Ce dernier cas est l'approche collaborative. Nous avons ensuite proposé des algorithmes d'approche conjointe collaborative basés sur les techniques d'ajout de signal. La réduction du PAPR et la prédistorsion (choisie comme méthode de linéarisation) sont fusionnées sous une seule formulation d'ajout de signal. Un signal additionnel conjoint est alors généré pour à la fois compenser les non-linéarités de l'amplificateur de puissance et réduire la dynamique du signal à amplifier.
|
1692 |
Accès à l'information : vers une hybridation fouille de données et traitement automatique des languesCharnois, Thierry 01 December 2011 (has links) (PDF)
Ce mémoire porte sur mes travaux de recherche en traitement automatique des langues (TAL) et en fouille de données textuelles. Il présente comment ces travaux s'organisent autour de la problématique de l'accès à l'information dans les textes. Notre démarche s'appuie sur la prise en compte de l'aspect sémantique de la langue sous forme de modélisation linguistique et de ressources linguistiques pour le développement d'applications. La méthodologie de l'accès à l'information est donc ici vue comme un accès au sens à partir d'une modélisation linguistique relative à l'application visée plutôt qu'un accès aux formes de surface comme l'utilisent par exemple actuellement les méthodes prédominantes des moteurs de recherche. En retour, la formalisation du modèle linguistique et son expérimentation sur corpus visent à améliorer notre connaissance des phénomènes traités et permettre un retour qualitatif, c'est-à-dire explicatif, sur le modèle. L'intérêt pour les méthodes de fouille fondées sur les motifs et la volonté de les intégrer au TAL -- par exemple, pour acquérir automatiquement des ressources linguistiques et alimenter à moindre coût les systèmes de TAL -- procède de la même démarche. Une telle combinaison vise d'une part à repenser la manière dont les processus de TAL peuvent tirer bénéfice de méthodes de fouille spécifiquement adaptées au texte, et d'autre part à renforcer les processus de fouille, en fonction des spécificités de la donnée textuelle, par une prise en compte d'informations de nature linguistique visant notamment à sélectionner l'information la plus pertinente.
|
1693 |
Acoustic remote sensing of Arctic Sea Ice from long term soundscape measurementsKinda, Bazile 29 November 2013 (has links) (PDF)
La fonte rapide des glaces de l'Arctique dans le contexte actuel du réchauffement climatique est un sujet scientifique majeur de ces 30 dernières années. L'Arctique joue un rôle fondamental dans l'équilibre du climat et requiert une attention particulière. Les régions arctiques sont alors surveillées par des observations satellitaires et des mesures in-situ. L'impact climatique de la fonte totale de la glace arctique est encore mal connu. Des recherches sont donc nécessaires pour le suivi à long terme de l'Océan Arctique, en particulier la dynamique spatio-temporelle de la couverture de glace et ses conséquences sur les écosystèmes. La disparition de la banquise en Arctique sera progressivement accompagnée de l'installation d'activités industrielles saisonnières ou pérennes. Ceci a pour conséquences une modification des paysages acoustiques sousmarins de ces environnements jusqu'alors préservés des sources sonores anthropiques. La présente étude, portée sur les paysages acoustiques sous-marins des régions océaniques polaires du Canada, s'inscrit dans ce contexte sous deux axes. Le premier axe de notre étude concerne donc les conséquences directes de la disparition de la glace sur les paysages acoustiques sous-marins de l'Arctique et des mers subarctiques du Canada. Nous avons alors examiné le bruit ambiant, ses variations saisonnières ainsi ses pilotes environnementaux. Un algorithme dédié à l'estimation de cette composante du bruit océanique a été développé à cet effet, afin de constituer des séries temporelles longue durée. A travers des analyses statistiques, nous avons établi que les variables environnementaux responsables de la production du bruit de fond dépendent de l'état de la surface océanique et que pendant la période hivernale, ce bruit est piloté par les mêmes variables environnementales qui gouvernent la circulation océanique à grande échelle de l'Arctique. Le second axe abordé au cours de ce travail de thèse vise à évaluer le potentiel de l'acoustique passive comme moyen de monitorage de la dynamique spatio-temporelle de la banquise. Pour ce faire, nous avons identifié des événements acoustiques signant de phénomènes physiques sous la glace afin d'améliorer la compréhension de leur mécanisme de production. Nous avons ainsi pu lier divers transitoires acoustiques à des processus de déformation de la banquise.
|
1694 |
Algorithme de positionnement précis en environnement contraint basé sur un récepteur bas-coût GPS/GLONASSCarcanague, Sébastien 26 February 2013 (has links) (PDF)
Le GNSS (Global Navigation Satellite System), et en particulier sa composante actuelle le système américain GPS et le système russe GLONASS, sont aujourd'hui utilisés pour des applications géodésiques afin d'obtenir un positionnement précis, de l'ordre du centimètre. Cela nécessite un certain nombre de traitements complexes, des équipements coûteux et éventuellement des compléments au sol des systèmes GPS et GLONASS. Ces applications sont aujourd'hui principalement réalisées en environnement " ouvert " et ne peuvent fonctionner en environnement plus contraint. L'augmentation croissante de l'utilisation du GNSS dans des domaines variés va voir émerger de nombreuses applications où le positionnement précis sera requis (par exemple des applications de transport/guidage automatique ou d'aide à la conduite nécessitant des performances importantes en terme de précision mais aussi en terme de confiance dans la position -l'intégrité- et de robustesse et disponibilité). D'autre part, l'arrivée sur le marché de récepteurs bas-coûts (inférieur à 100 euros) capables de poursuivre les signaux provenant de plusieurs constellations et d'en délivrer les mesures brutes laisse entrevoir des avancées importantes en termes de performance et de démocratisation de ces techniques de positionnement précis. Dans le cadre d'un utilisateur routier, l'un des enjeux du positionnement précis pour les années à venir est ainsi d'assurer sa disponibilité en tout terrain, c'est-à-dire dans le plus grand nombre d'environnements possibles, dont les environnements dégradés (végétation dense, environnement urbain, etc.) Dans ce contexte, l'objectif de la thèse a été d'élaborer et d'optimiser des algorithmes de positionnement précis (typiquement basés sur la poursuite de la phase de porteuse des signaux GNSS) afin de prendre en compte les contraintes liées à l'utilisation d'un récepteur bas coût et à l'environnement. En particulier, un logiciel de positionnement précis (RTK) capable de résoudre les ambiguïtés des mesures de phase GPS et GLONASS a été développé. La structure particulière des signaux GLONASS (FDMA) requiert notamment un traitement spécifiques des mesures de phase décrit dans la thèse afin de pouvoir isoler les ambiguïtés de phase en tant qu'entiers. Ce traitement est compliqué par l'utilisation de mesures provenant d'un récepteur bas coût dont les canaux GLONASS ne sont pas calibrés. L'utilisation d'une méthode de calibration des mesures de code et de phase décrite dans la thèse permet de réduire les biais affectant les différentes mesures GLONASS. Il est ainsi démontré que la résolution entière des ambiguïtés de phase GLONASS est possible avec un récepteur bas coût après calibration de celui-ci. La faible qualité des mesures, du fait de l'utilisation d'un récepteur bas coût en milieu dégradé est prise en compte dans le logiciel de positionnement précis en adoptant une pondération des mesures spécifique et des paramètres de validation de l'ambiguïté dépendant de l'environnement. Enfin, une méthode de résolution des sauts de cycle innovante est présentée dans la thèse, afin d'améliorer la continuité de l'estimation des ambiguïtés de phase. Les résultats de 2 campagnes de mesures effectuées sur le périphérique Toulousain et dans le centre-ville de Toulouse ont montré une précision de 1.5m 68% du temps et de 3.5m 95% du temps dans un environnement de type urbain. En milieu semi-urbain type périphérique, cette précision atteint 10cm 68% du temps et 75cm 95% du temps. Finalement, cette thèse démontre la faisabilité d'un système de positionnement précis bas-coût pour un utilisateur routier.
|
1695 |
Algorithmes de poursuite pour l'estimation de canal radio-mobile et performances asymptotiques: applications pour les systèmes OFDMShu, Huaqiang 06 November 2013 (has links) (PDF)
L'estimation de canal est une tâche cruciale du récepteur dans les systèmes de communication sans fil, en particulier en cas de mobilité où les paramètres du canal varient avec le temps. Dans cette thèse, un nouvel estimateur de boucle de poursuite d'ordre 3 (RW3-CATL), qui a une structure semblable à la boucle à verrouillage de phase (PLL) avec une faible complexité a été tout d'abord proposé pour estimer l'amplitude complexe du canal dans le cas mono-trajet mono-porteuse. Le lien entre un filtre de Kalman en régime asymptotique basé sur un modèle d'approximation de marche aléatoire (RW3-KF) et l'estimateur proposé est établi. Les expressions des paramètres sous-optimaux et d'EQM correspondante sont données sous forme analytiques en fonction des gains de boucle. Ensuite, les performances asymptotiques du RW3-KF ont été analysées en résolvant les équations de Riccati. L'expression analytique de la variance optimale du bruit d'état qui minimise l'EQM asymptotique a été également déduite. Pour les systèmes multi-trajet multi-porteuses, tels que les systèmes OFDM, la boucle RW3-CATL est étendue à la structure vectorielle (RW3-LS-CATL). Cette boucle conserve la même structure qu'en mono-trajet mono-porteuse, mais un signal d'erreur vectoriel adéquat est redéfini à partir d'un estimateur LS des amplitudes complexes des trajets, basé sur les pilotes du symbole OFDM courant et sur la connaissance a priori des retards des trajets. Par ailleurs, pour ce scénario, le filtre de Kalman, RW-KF estime conjointement les amplitudes complexes des trajets. Il présente une forte complexité, et nous n'avons pas de formules analytiques pour le régler. Pour réduire la complexité, nous proposons un filtre de dimension réduite, obtenu par une approximation du filtre original à l'aide des identités de Woodbury. Ce filtre revient à estimer l'amplitude complexe de chaque trajet de manière séparée. Le réglage optimal des paramètres est déduit du cas mono-trajet mono-porteuse. Les performances de ce filtre à complexité réduite, obtenues par simulation, sont quasiment les mêmes que celles du filtre de Kalman original.
|
1696 |
Algorithmes d'approximation parcimonieuse inspirés d'Orthogonal Least Squares pour les problèmes inversesSoussen, Charles 28 November 2013 (has links) (PDF)
Ce manuscrit synthétise mon activité de recherche au CRAN entre 2005 et 2013. Les projets menés s'inscrivent dans les domaines des problèmes inverses en traitement du signal et des images, de l'approximation parcimonieuse, de l'analyse d'images hyperspectrales et de la reconstruction d'images 3D. Je détaille plus particulièrement les travaux concernant la conception, l'analyse et l'utilisation d'algorithmes d'approximation parcimonieuse pour des problèmes inverses caractérisés par un dictionnaire mal conditionné. Dans un premier chapitre, je présente les algorithmes heuristiques conçus pour minimiser des critères mixtes L2-L0. Ce sont des algorithmes gloutons << bidirectionnels >> définis en tant qu'extension de l'algorithme Orthogonal Least Squares (OLS). Leur développement est motivé par le bon comportement empirique d'OLS et de ses versions dérivées lorsque le dictionnaire est une matrice mal conditionnée. Le deuxième chapitre est une partie applicative en microscopie de force atomique, où les algorithmes du premier chapitre sont utilisés avec un dictionnaire particulier dans le but de segmenter automatiquement des signaux. Cette segmentation permet finalement de fournir une cartographie 2D de différents paramètres électrostatiques et bio-mécaniques. Le troisième chapitre est une partie théorique visant à analyser les algorithmes gloutons OMP (Orthogonal Matching Pursuit) et OLS. Une première analyse de reconstruction exacte par OLS en k itérations est proposée. De plus, une comparaison poussée des conditions de reconstruction exacte lorsqu'un certain nombre d'itérations ont déjà été effectuées fournit un éclairage sur le meilleur comportement d'OLS (par rapport à OMP) pour les problèmes mal conditionnés. Dans un quatrième chapitre, je dresse quelques perspectives méthodologiques et appliquées dans le domaine de l'analyse parcimonieuse en lien avec les chapitres précédents.
|
1697 |
Amélioration des performances du traitement des interférences dans le domaine fréquentiel pour les communications acoustiques sous marinesYOUCEF, Abdelhakim 12 December 2013 (has links) (PDF)
Les communications acoustiques sous-marines permettent la transmission sans fils de l'information entre la surface et le fond via l'onde acoustique. Le lien acoustique sans fils réduit l'infrastructure matérielle nécessaire par rapport aux communications sous-marines câblées, permettant ainsi un déploiement à coût limité. Néanmoins, le canal acoustique sous-marin impose de sévères limitations de par ses caractéristiques de propagation qui diffèrent largement de celles du canal hertzien. La propagation multitrajets provoquée par les réflexions multiples sur le fond et la surface, engendre de l'interférence entre symboles qui doit être compensée à la réception. De plus, le mouvement des plateformes d'émission et de réception engendre un effet Doppler qui agit sur le signal comme un phénomène de compression/dilatation temporel de la durée symbole associé à un décalage fréquentiel du spectre. L'objectif de cette thèse est de proposer des techniques d'émission/réception de faible complexité calculatoire permettant de supprimer les interférences et de réduire le taux d'erreurs binaires sous la contrainte d'une efficacité énergétique de la transmission acoustique sous-marine. La réduction en complexité est assurée par le traitement d'interférences dans le domaine fréquentiel lequel permet de minimiser la consommation énergétique du système de transmission. Dans un premier temps, nous proposons des techniques d'égalisation fréquentielle adaptative en mode piloté par décision afin de compenser et de suivre la variation temporelle du canal acoustique sous-marin. Dans un second temps, nous proposons un schéma de transmission SC-FDMA mono-utilisateur en mode distribué uniforme en insérant des intervalles de garde fréquentiels afin d'améliorer la robustesse du lien de transmission contre l'effet Doppler du canal acoustique sous-marin. Enfin, nous proposons un turbo-égaliseur fréquentiel adaptatif basé sur un traitement itératif en réception et permettant de réduire le taux d'erreurs binaires au fil des itérations. Notons qu'un traitement multi-voies est considéré à la réception afin d'améliorer le rapport signal sur bruit et que l'égalisation est optimisée conjointement avec la synchronisation de phase pour compenser d'éventuels décalages fréquentiels résiduels. Les solutions proposées dans cette thèse sont validées expérimentalement sur des signaux réels issus d'enregistrements de transmission en milieu marin.
|
1698 |
Analyse automatique d'opinion : problématique de l'intensité et de la négation pour l'application à un corpus journalistiqueZhang, Lei 11 December 2012 (has links) (PDF)
La problématique de l'analyse d'opinion connaît un intérêt croissant depuis une quinzaine d'années. Cette problématique mène à de nombreux travaux ayant des objectifs allant de la constitution de ressources lexicales à l'identification des cibles d'une opinion. Le cadre applicatif de notre étude est l'analyse automatique d'articles de journaux pour la veille d'opinion. Ce cadre est ambitieux vis-à-vis de l'état de l'art puisque nous sommes amené à étudier un grand nombre de critères propres à l'analyse d'opinion. Nous proposons un modèle conceptuel permettant de caractériser une opinion par la polarité, l'intensité, la prototypicalité, la cible, la source, l'engagement de l'auteur, etc. En particulier, nous modélisons la négation et ses effets sur l'intensité et la polarité. En plus des cas classiques de négation, nous sommes en mesure de modéliser des effets de rhétoriques tels que l'euphémisme ou la litote, très présents dans le genre journalistique. À partir de ce modèle conceptuel, nous présentons un ensemble de choix techniques permettant de préciser les ressources et traitements nécessaires à l'automatisation. Nous mettons en œuvre deux applications (en chinois et en français) de la chaîne de traitements issue du modèle permettant de confirmer la validité du modèle conceptuel ainsi que l'efficacité des traitements automatiques.
|
1699 |
Analyse d'images SAR polarimétriques aéroportées pour l'estimation de paramètres bio-physiques des sols agricoles.Daniel, Sandrine 16 October 2009 (has links) (PDF)
Ce travail porte sur la faisabilité d'estimer l'humidité de différents types de sols agricoles cultivés à l'aide de données SAR polarimétriques acquises en bandes L par le radar aéroporté du centre aérospatial allemand E-SAR. Différents modèles électromagnétiques sont étudiés afin de simuler le comportement de la rétrodiffusion des ondes par les sols nus et recouverts de végétation et de déterminer l'influence de l'humidité du sol sur la réponse du radar. Par ailleurs, les sols agricoles à structure périodique sont modélisés afin de comprendre leur comportement électromagnétique particulier. Les méthodes d'inversion classiques sont démontrées non valides pour les sols périodiques. Ainsi, une nouvelle méthode d'inversion de l'humidité basée sur le paramètre polarimétrique alpha 1 est développée et appliquée sur des images radar contenant des sols nus. Différentes cartes d'humidité sont ainsi obtenues. De plus une méthode basée sur une décomposition temps-fréquence du signal radar permet de détecter ces champs non stationnaires. Une dernière étude est menée avec des images multi-dates sur des champs recouverts de végétation. Afin de déterminer la faisabilité d'estimer l'humidité de ces sols agricoles, une identification des différents types de végétation est nécessaire. Ainsi, une classification basée sur la méthode des machines à vecteur support et sur l'analyse du comportement des paramètres polarimétriques est développée. Les cartes de végétation résultantes permettent de suivre l'évolution temporelle des cultures.
|
1700 |
Analyse de signaux analogiques/radiofréquences à l'aide de ressources digitales en vue du testPous, Nicolas 15 November 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire entrent dans le cadre de la réduction des coûts de production des circuits RF. En effet, la démocratisation de ces appareils pousse les industriels à chercher de nouvelles solutions afin de produire, à bas prix, ces circuits RF. Le test représentant une large partie du coût de ces produits, l'objectif de cette thèse a donc été de proposer une stratégie originale permettant d'effectuer l'analyse de signaux modulés à l'aide d'un équipement de test numérique faible coût. Tout d'abord, le manuscrit dresse un tableau général du test industriel et présente un éventail des solutions proposées dans la littérature pour réduire le coût du test des circuits RF, ainsi que des exemples d'utilisation du concept de " level-crossing ", méthode choisie pour effectuer la capture puis la reconstruction des signaux analogiques et RF. Les principes de base utilisés pour la reconstruction de signaux analogiques à partir d'informations temporelles sont ensuite abordés. L'élément clé des algorithmes de reconstruction est la détermination des instants de passage du signal par un seuil de tension prédéterminé. De cette information, il est ensuite possible de déterminer la phase, la fréquence et l'amplitude du signal observé. La suite est consacrée à l'analyse de signaux modulés. Dans un premier temps sur des modulations élémentaires, puis sur des schémas de modulations plus complexes, basés sur des cas d'étude concrets. Le travail se termine en abordant la prise en compte des non-idéalités de la chaîne d'acquisition. Il s'agit en particulier d'étudier l'impact de ces non-idéalités pour élaborer des algorithmes visant à compenser les erreurs résultantes.
|
Page generated in 0.0861 seconds