• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

UNE NOUVELLE APPROCHE DE PLACEMENT DE DONNEES EN MEMOIRE : APPLICATION A LA CONCEPTION D'ARCHITECTURES D'ENTRELACEURS PARALLELES

Briki, Aroua 01 July 2013 (has links) (PDF)
Les applications du traitement du signal (TDSI) sont maintenant largement utilisées dans des domaines variés allant de l'automobile aux communications sans fils, en passant par les applications multimédias et les télécommunications. La complexité croissante des algorithmes implémentés et l'augmentation continue des volumes de données et des débits applicatifs requièrent souvent la conception de circuits intégrés dédiés (ASIC). Typiquement l'architecture d'un composant complexe du TDSI utilise (1) des éléments de calculs de plus en plus complexes, (2) des mémoires et des modules de brassage de données (entrelaceur/désentrelaceur pour les TurboCodes, blocs de redondance spatio-temporelle dans les systèmes OFDM1/MIMO, ...). Aujourd'hui, la complexité et le coût de ces systèmes sont très élevés; les concepteurs doivent pourtant parvenir à minimiser la consommation et la surface total du circuit, tout en garantissant les performances temporelles requises. Sur cette problématique globale, nous nous intéressons à l'optimisation des architectures des modules de brassage de données (réseau d'interconnexion, contrôleur...) devant réaliser une règle d'entrelacement définie par l'application et ayant pour objectif d'utiliser un réseau d'interconnexion défini par le concepteur. L'architecture que nous ciblons se compose d'éléments de calculs (PE0,...PEn), de mémoires de données utilisées pour stocker les opérandes et les résultats produits par les éléments de calculs (Mem0,...Memm), d'un réseau d'interconnexion reliant les éléments de calculs aux mémoires et d'une unité de contrôle. Le réseau d'interconnexion est défini par l'utilisateur et peut être basé sur différent modèles : cross-bar, réseaux de Benes, réseau de Bruinj, barrière de multiplexeurs, barrel-shifters (barillets), papillons... L'unité de contrôle est composée de deux parties : un contrôleur de réseau et un contrôleur de mémoires. Ces contrôleurs sont basés sur un ensemble de mémoires de contrôle (une ROM de contrôle par banc mémoire Mem dans l'architecture cible) contenant les mots de commande relatifs au fonctionnement du système. L'approche que nous proposons est à même d'optimiser cette partie de contrôle de l'architecture. Nous proposons plusieurs méthodologies d'exploration et de conception permettant de générer automatiquement une architecture d'entrelacement optimisée réalisant une règle de brassage de données, ou entrelacement, tel que définie par exemple dans un standard de communication. Les approches que nous proposons prennent en entrée (1) des diagrammes temporels (générés à partir de la règle d'entrelacement et de contraintes spécifiant les séquences d'accès parallèles aux données) et (2) une contrainte utilisateur sur le réseau d'interconnexion que doit utiliser l'architecture. Ce flot formalise ensuite ces contraintes de brassage des données sous la forme (1) d'un modèle matriciel des séquences de données qui devront être traitées par chaque processeur et (2) d'un Graphe de Conflit d'Adressage (ACG), dont les propriétés permettent une exploration efficace de l'espace des solutions architecturales. L'objectif est ensuite de générer une architecture cible, en garantissant un fonctionnement sans conflit d'accès mémoire (lorsque plusieurs processeurs veulent accéder en même temps à un même banc mémoire mais pour traiter des données différentes), en respectant la contrainte de réseau et en optimisant l'architecture obtenue (notamment concernant l'architecture de son contrôleur). Cette approche a été mise en oeuvre au sein d'un d'outil et appliquée sur plusieurs cas d'étude : High Speed Packet Access (HSPA), Ultra-WideBand (UWB) et une application Wimax. Ces expériences montrent qu'en comparaison aux approches de l'état de l'art nos approches permettent d'atteindre des gains en surface significatifs. Notamment, pour des applications Turbo Codes pour lesquels les gains sont très importants.
242

Fonctions de coût pour l'estimation des filtres acoustiques dans les mélanges réverbérants

Benichoux, Alexis 14 October 2013 (has links) (PDF)
On se place dans le cadre du traitement des signaux audio multicanaux et multi-sources. À partir du mélange de plusieurs sources sonores enregistrées en milieu réverbérant, on cherche à estimer les réponses acoustiques (ou filtres de mélange) entre les sources et les microphones. Ce problème inverse ne peut être résolu qu'en prenant en compte des hypothèses sur la nature des filtres. Notre approche consiste d'une part à identifier mathématiquement les hypothèses nécessaires sur les filtres pour pouvoir les estimer et d'autre part à construire des fonctions de coût et des algorithmes permettant de les estimer effectivement. Premièrement, nous avons considéré le cas où les signaux sources sont connus. Nous avons développé une méthode d'estimation des filtres basée sur une régularisation convexe prenant en compte à la fois la nature parcimonieuse des filtres et leur enveloppe de forme exponentielle décroissante. Nous avons effectué des enregistrements en environnement réel qui ont confirmé l'efficacité de cet algorithme. Deuxièmement, nous avons considéré le cas où les signaux sources sont inconnus, mais statistiquement indépendants. Les filtres de mélange peuvent alors être estimés à une indéter- mination de permutation et de gain près à chaque fréquence par des techniques d'analyse en composantes indépendantes. Nous avons apporté une étude exhaustive des garanties théoriques par lesquelles l'indétermination de permutation peut être levée dans le cas où les filtres sont parcimonieux dans le domaine temporel. Troisièmement, nous avons commencé à analyser les hypothèses sous lesquelles notre algo- rithme d'estimation des filtres pourrait être étendu à l'estimation conjointe des signaux sources et des filtres et montré un premier résultat négatif inattendu : dans le cadre de la déconvolution parcimonieuse aveugle, pour une famille assez large de fonctions de coût régularisées, le mi- nimum global est trivial. Des contraintes supplémentaires sur les signaux sources ou les filtres sont donc nécessaires.
243

Polarimetric RADARSAT-2 and ALOS PALSAR multi-frequency analysis over the archaeological site of Gebel Barkal (Sudan)

Patruno, Jolanda 10 April 2014 (has links) (PDF)
Aim of PhD research is to exploit SAR Polarimetry technique for the identification of surface and subsurface archaeological features in the site of Gebel Barkal (Sudan), inscribed in the UNESCO World Heritage List since 2003. Sand penetration capability of both C-band and L-band sensors are discussed analysing archived ALOS PALSAR and RADARSAT-2 specifically acquired (2012-2013) images. Moreover, the research activity illustrates the potential of integrating SAR polarimetric and optical satellite data in a dedicated GIS project, realised in collaboration with the Universities of Turin and Venice (Italy). The monitoring of ancient sites by means of remotely acquired polarimetric SAR data represents a benefit for the archaeological research, where detected anomalies can address archaeological excavations or ground truth verification, as shown in the PhD dissertation, and where threatening factors affect the integrity of a cultural site.
244

Polarimetric multi-incidence angle analysis over the archaeological site of Samarra by means of RADARSAT-2 and ALOS PALSAR satellites datasets

Dore, Nicole 10 April 2014 (has links) (PDF)
This work has as goal to study the microwaves behavior over the archaeological structures still visible in the historical city of Samarra, the capital of the ancient Abbasid Caliphate located in Iraq. Three areas were taken into account for the Ph.D. research: an octagonal city, three racecourses stadiums and the city of al-Mutawakkiliyya. Threats to which the site is exposed and its historical importance let the city to be inscribed in the list of UNESCO sites in danger (2007). This gave a reason more to investigate this area by means of SAR RADARSAT-2 and ALOS PALSAR satellites. SAR potentiality, in fact, is well known, in particular for those areas of the World where surveys in situ are not allowed because of political instability (as in the case of Samarra) and because of the possibility of acquiring with any cloud cover conditions and in any kind of illumination (day/night).
245

Interpolation temporelle et inter-vues pour l'amélioration de l'information adjacente dans le codage vidéo distribué

Petrazzuoli, Giovanni 14 January 2013 (has links) (PDF)
Le codage vidéo distribué est un paradigme qui consiste en encoder indépendamment deux sources corrélées mais à les décoder conjointement. Wyner and Ziv ont montré que le codage de source distribué peut atteindre les mêmes performances débit-distorsion du codage de source conjoint sous quelques contraintes. Cette caractéristique rend le codage de source distribué très attractif pour applications qui demandent un encodeur à bas complexité (comme par example des réseaux des senseurs sans fil) ou pour éviter tout sorte de communication entre les source (comme dans les systèmes multi-vues). Dans le cadre du codage vidéo distribué, les trames corrélées sont encodées séparément mais elles sont encodées conjointement. Dans l'architecture de Stanford, la flux vidéo est séparée en trames clés (TC) et Wyner-Ziv (TWZ). Seulement les trames clés sont envoyées au décodeur. Les trames Wyner-Ziv sont donné en entrée à un codeur systématique de canal et les bits de parité sont envoyés au décodeur. Au décodeur, on produit une estimation de la trame Wyner-Ziv, appelé information adjacente, en interpolant les trames déjà disponibles au décodeur. L'information adjacente, qui peut être considérée comme une version bruitée de la vraie trame Wyner-Ziv, est corrigées par les bits de parité envoyées par l'encodeur. Dans cette thèse, on a étudié plusieurs algorithmes pour la génération de l'information adjacente dans le cadre du codage vidéo distribué multi-vues pour ce qui concerne et interpolation temporelle et l'interpolation inter-vue. Tous les algorithmes proposés donne des résultats meilleurs par rapport à l'état de l'art en termes de performance débit-distorsion. Une deuxième contribution concerne le format vidéo multi-vues plus profondeur. Dans le cadre du paradigme du streaming interactive pour la vidéo multi-vues, le codage vidéo distribué assure la continuité de la reproduction pendant le streaming, puisque les trames Wyner-Ziv dont décodées indépendamment des trames de référence qui sont disponibles au décodeur. On a proposé plusieurs algorithmes pour l'estimation de la trame Wyner-Ziv dans ce contexte-là.
246

Représentations parcimonieuse et applications en communication numérique

Aïssa-El-Bey, Abdeldjalil 30 November 2012 (has links) (PDF)
L'objet de ce document est de rapporter une partie des travaux de recherche auxquels j'ai contribué durant les cinq dernières années. Le but visé n'est pas de faire une synthèse exhaustive des travaux réalisés sur cette période mais d'en sélectionner certains d'entre eux pour leur pertinence et leur cohérence. Les travaux rapportés dans ce manuscrit concernent l'exploitation des représentations parcimonieuses dans les applications en télécommunication. Depuis mes travaux de thèse, où j'ai abordé le problème de la séparation aveugle de sources en exploitant le caractère parcimonieux des signaux audio, mes travaux gravitent autour des représentations parcimonieuses et leurs applications en communication numérique. En effet, après avoir exploité la propriété de parcimonie des signaux audio dans le domaine temps-fréquence d'un point de vue structurel, je me suis intéressé aux mesures de parcimonie et aux problèmes inverses régularisés. Cette réflexion m'a poussé à entreprendre l'étude sur l'exploitation de la parcimonie pour l'estimation aveugle de canaux de communication. En particulier, l'identification aveugle de canaux parcimonieux dans les systèmes Single-Input Multiple-Output (SIMO). Une extension de ces techniques a été développée pour les systèmes Multiple-Input Multiple-Output MIMO OFDM où le cas semi-aveugle a été traité. L'identification de canaux pour les communications étant étroitement liée aux signaux à alphabet fini. Je me suis par conséquent intéressé à l'exploitation de cette caractéristique des signaux de communication (signaux à alphabet fini) par le biais des représentations parcimonieuses afin de résoudre certains problèmes inverses difficiles. Enfin, j'ai abordé le problème de détection de signaux en utilisant des méthodes de tests statistiques basées sur l'hypothèse de parcimonie des signaux observés. Ces méthodes ont trouvés un cadre applicatif dans les communications sans fil, la guerre électronique et la séparation aveugle de sources.
247

Techniques d'amélioration des performances de compression dans le cadre du codage vidéo distribué

Abou El Ailah, Abdalbassir 14 December 2012 (has links) (PDF)
Le codage vidéo distribué (DVC) est une technique récemment proposée dans le cadre du codage vidéo, et qui convient surtout à une nouvelle classe d'applications telles que la surveillance vidéo sans fil, les réseaux de capteurs multimédia, et les téléphones mobiles. En DVC, une information adjacente (SI) est estimée au décodeur en se basant sur les trames décodées disponibles, et utilisée pour le décodage et la reconstruction des autres trames. Dans cette thèse, nous proposons de nouvelles techniques qui permettent d'améliorer la qualité de la SI. Tout d'abord, le raffinement itératif de la SI est réalisé après le décodage de chaque sous-bande DCT. Ensuite, une nouvelle méthode de génération de la SI est proposée, qui utilise l'estimation des vecteurs de mouvement dans les deux sens et le raffinement Quad-tree. Ensuite, de nouvelles approches sont proposées afin de combiner les estimations globale et locale en utilisant les différences entre les blocs correspondants et la technique SVM. En plus, des algorithmes sont proposés pour améliorer la fusion au cours du décodage. En outre, les objets segmentés des trames de référence sont utilisés dans la fusion, en utilisant les courbes élastiques et la compensation de mouvement basée-objets. De nombreuses simulations ont été effectuées pour tester les performances des techniques proposés et qui montrent des gains importants par rapport au codeur classique DISCOVER. Par ailleurs, les performances de DVC obtenues en appliquant les algorithmes proposés surpassent celles de H.264/AVC Intra et H.264/AVC No motion pour les séquences testées. En plus, l'écart vis-à-vis de H.264/AVC Inter (IB...IB) est considérablement réduit.
248

Approche conjointe de la réduction du facteur de crête et de la linéarisation dans le contexte OFDM.

Gouba, Oussoulare 10 December 2013 (has links) (PDF)
Les amplificateurs de puissance sont au centre des systèmes actuels de télécommunications. Leur linéarité (pour préserver la qualité des données transmises) et leur rendement énergétique (pour faire des économies d'énergie) sont très importants et constituent les préoccupations majeures des concepteurs. Cependant, ce sont des composants analogiques intrinsèquement non-linéaires et leur utilisation avec des signaux à enveloppes non-constantes génèrent des distorsions à savoir des remontées spectrales hors-bandes et une dégradation du taux d'erreurs. Les signaux OFDM à la base de nombreux standards comme le Wifi, le Wi-Max, la télévision numérique, le LTE, etc. ont de fortes variations de puissance encore appelées PAPR (Peak-to-Average Power Ratio) qui aggravent ces problèmes de non-linéarité de l'amplificateur et réduit son rendement. Le traitement conjoint des non-linéarités et l'amélioration du rendement de l'amplificateur est l'objectif de cette thèse.Pour cela, l'accent est mis sur une approche conjointe de la linéarisation et de la réduction du PAPR. Ces deux méthodes jusqu'à présent abordées séparément dans la littérature sont en fait complémentaires et interdépendantes. Cela a été prouvé grâce à une étude analytique que nous avons menée. Grâce à l'approche conjointe, on peut simplement les associer, on parle dans ce cas d'approche non-collaborative ou leur permettre en plus d'échanger des informations et de s'adapter l'une par rapport à l'autre et/ou vice versa. Ce dernier cas est l'approche collaborative. Nous avons ensuite proposé des algorithmes d'approche conjointe collaborative basés sur les techniques d'ajout de signal. La réduction du PAPR et la prédistorsion (choisie comme méthode de linéarisation) sont fusionnées sous une seule formulation d'ajout de signal. Un signal additionnel conjoint est alors généré pour à la fois compenser les non-linéarités de l'amplificateur de puissance et réduire la dynamique du signal à amplifier.
249

Acoustic remote sensing of Arctic Sea Ice from long term soundscape measurements

Kinda, Bazile 29 November 2013 (has links) (PDF)
La fonte rapide des glaces de l'Arctique dans le contexte actuel du réchauffement climatique est un sujet scientifique majeur de ces 30 dernières années. L'Arctique joue un rôle fondamental dans l'équilibre du climat et requiert une attention particulière. Les régions arctiques sont alors surveillées par des observations satellitaires et des mesures in-situ. L'impact climatique de la fonte totale de la glace arctique est encore mal connu. Des recherches sont donc nécessaires pour le suivi à long terme de l'Océan Arctique, en particulier la dynamique spatio-temporelle de la couverture de glace et ses conséquences sur les écosystèmes. La disparition de la banquise en Arctique sera progressivement accompagnée de l'installation d'activités industrielles saisonnières ou pérennes. Ceci a pour conséquences une modification des paysages acoustiques sousmarins de ces environnements jusqu'alors préservés des sources sonores anthropiques. La présente étude, portée sur les paysages acoustiques sous-marins des régions océaniques polaires du Canada, s'inscrit dans ce contexte sous deux axes. Le premier axe de notre étude concerne donc les conséquences directes de la disparition de la glace sur les paysages acoustiques sous-marins de l'Arctique et des mers subarctiques du Canada. Nous avons alors examiné le bruit ambiant, ses variations saisonnières ainsi ses pilotes environnementaux. Un algorithme dédié à l'estimation de cette composante du bruit océanique a été développé à cet effet, afin de constituer des séries temporelles longue durée. A travers des analyses statistiques, nous avons établi que les variables environnementaux responsables de la production du bruit de fond dépendent de l'état de la surface océanique et que pendant la période hivernale, ce bruit est piloté par les mêmes variables environnementales qui gouvernent la circulation océanique à grande échelle de l'Arctique. Le second axe abordé au cours de ce travail de thèse vise à évaluer le potentiel de l'acoustique passive comme moyen de monitorage de la dynamique spatio-temporelle de la banquise. Pour ce faire, nous avons identifié des événements acoustiques signant de phénomènes physiques sous la glace afin d'améliorer la compréhension de leur mécanisme de production. Nous avons ainsi pu lier divers transitoires acoustiques à des processus de déformation de la banquise.
250

Adaptation Automatique de la Résolution pour l'Analyse et la Synthèse du Signal Audio

Liuni, Marco 09 March 2012 (has links) (PDF)
Dans cette thèse, on s'intéresse à des méthodes qui permettent de varier localement la résolution temps-fréquence pour l'analyse et la re-synthèse du son. En Analyse Temps-Fréquence, l'adaptativité est la possibilité de concevoir de représentations et opérateurs avec des caractéristiques qui peuvent être modifiées en fonction des objets à analyser: le premier objectif de ce travail est la définition formelle d'un cadre mathématique qui puisse engendrer des méthodes adaptatives pour l'analyse du son. Le deuxième est de rendre l'adaptation automatique; on établit des critères pour définir localement la meilleure résolution temps-fréquence, en optimisant des mesures de parcimonie appropriées. Afin d'exploiter l'adaptativité dans le traitement spectral du son, on introduit des méthodes de reconstruction efficaces, basées sur des analyses à résolution variable, conçues pour préserver et améliorer les techniques actuelles de manipulation du son. L'idée principale est que les algorithmes adaptatifs puissent contribuer à la simplification de l'utilisation de méthodes de traitement du son qui nécessitent aujourd'hui un haut niveau d'expertise. En particulier, la nécessité d'une configuration manuelle détaillée constitue une limitation majeure dans les applications grand public de traitement du son de haute qualité (par exemple: transposition, compression/dilatation temporelle). Nous montrons des exemples où la gestion automatique de la résolution temps-fréquence permet non seulement de réduire significativement les paramètres à régler, mais aussi d'améliorer la qualité des traitements.

Page generated in 0.0997 seconds