• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 304
  • 148
  • 103
  • 37
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 578
  • 177
  • 121
  • 111
  • 65
  • 63
  • 60
  • 47
  • 45
  • 44
  • 44
  • 38
  • 36
  • 35
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

FD-SOI technology opportunities for more energy efficient asynchronous circuits / La technologie FD-SOI, une opportunité pour la conception de circuits asynchrones énergétiquement efficients

Ferreira de paiva leite, Thiago 21 January 2019 (has links)
Afin de suivre le rythme effréné des évolutions des systèmes embarqués et des dispositifs portables, il s’avère aujourd’hui indispensable d’optimiser la gestion de l’énergie sans pour autant compromettre la performance et la robustesse des circuits. Dans ce contexte, cette thèse étudie de nouveaux dispositifs de gestion de l’énergie ainsi que leur mise en œuvre, en combinant deux approches: la logique asynchrone et les techniques de polarisation du substrat (Adaptive Body Biasing - ABB). Cette thèse comporte quatre contributions permettant la conception de circuits asynchrones énergétiquement plus efficaces. 1) Une unité arithmétique et logique (UAL) asynchrone quasi insensible aux délais (Quasi Delay Insensitive - QDI) a été conçue et utilisée pour mener une analyse comparative entre systèmes synchrones et asynchrones. Cette étude démontre notamment  la meilleure efficacité énergétique et la plus grande robustesse des circuits asynchrones QDI, surtout lorsqu’ils fonctionnent à basse tension. 2) Une cellule standard a été spécialement développée pour mettre en œuvre nos schémas d’adaptation dynamique du substrat (ABB) qui ajustent la tension de seuil (Vth) des transistors. En outre, cette cellule s’est révélée très utile pour la détection de fautes transitoires causées par des radiations environnementales. Cette cellule est en outre un élément clé pour exploiter la polarisation du substrat, un des intérêts majeurs de la technologie FD-SOI, et d’améliorer la fiabilité du système. 3) Trois stratégies de polarisation de substrat ont été évaluées. Ces stratégies reposent sur la détection automatique de l’activité des circuits asynchrones QDI et de la polarisation de multiples domaines dans le substrat (Body Biasing Domains - BBD). De plus, une méthode pour analyser l’efficacité énergétique des stratégies de polarisation pour les circuits asynchrones QDI a également été proposée dans le cadre de cette thèse. 4) Enfin, un flot de conception de circuits numériques intégrés a été proposé et développé. Ce flot, basé sur des cellules standards, permet d’exploiter des stratégies de polarisation (ABB) avec plusieurs domaines (BBD) en utilisant la cellule standard spécialement développée. Un testchip a été conçu et fabriqué pour valider notre flot de conception et évaluer l’efficacité de la cellule proposée. / Keeping the fast evolving pace of embedded systems of portable devices require ameliorations of power management techniques, without compromising the circuit performance and robustness. In this context, this thesis studies novel energy management schemes, and how to implement them, by using two main design approaches: asynchronous logic and adaptive body biasing (ABB) techniques. Four main contributions have been done, thus enabling the design of more energy efficient asynchronous circuits. 1) We contributed with the design of a Quasi-delay Insensitive (QDI) asynchronous ALU architecture, used in a comparative analysis of asynchronous versus synchronous systems. This first study has demonstrated the energy efficiency and robustness of QDI circuits, especially if operating at low power supply (Vdd ). 2) We proposed a new body built-in cell for implementing ABB schemes by tuning the circuit threshold voltage (Vth) on-the-fly; and detecting short-duration and long-duration transient faults (TF) caused by environmental radiation. The proposed cell is a key building block to fully benefit from body biasing features of the FD-SOI technology while enhancing system’s reliability. 3) We assessed three different ABB strategies - based on automatic activity detection and multiple body-biasing domains (BBDs) - for QDI asynchronous circuits. Furthermore, a methodology for analyzing energy efficiency of ABB strategies in QDI asynchronous circuits is also proposed in this work. 4) We developed a standard cell-based IC design flow to apply ABB strategies with multiple BBDs by using the proposed body built-in cells. A testchip has been designed and fabricated to validate the developed design flow and the efficacy of the body built-in cell.
312

Décompositions Modales Empiriques. Contributions à la théorie, l'algorithmie et l'analyse de performances

Rilling, Gabriel 14 December 2007 (has links) (PDF)
La Décomposition Modale Empirique (EMD pour « Empirical Mode Decomposition ») est un outil récent de traitement du signal dévolu à l'analyse de signaux non stationnaires et/ou non linéaires. L'EMD produit pour tout signal une décomposition multi-échelles pilotée par les données. Les composantes obtenues sont des formes d'onde oscillantes potentiellement non harmoniques dont les caractéristiques, forme, amplitude et fréquence peuvent varier au cours du temps. L'EMD étant une méthode encore jeune, elle n'est définie que par la sortie d'un algorithme inhabituel, comportant de multiples degrés de liberté et sans fondement théorique solide. Nous nous intéressons dans un premier temps à l'algorithme de l'EMD. Nous étudions d'une part les questions soulevées par les choix de ses degrés de liberté afin d'en établir une implantation. Nous proposons d'autre part des variantes modifiant légèrement ses propriétés et une extension permettant de traiter des signaux à deux composantes. Dans un deuxième temps, nous nous penchons sur les performances de l'EMD. L'algorithme étant initialement décrit dans un contexte de temps continu, mais systématiquement appliqué à des signaux échantillonnés, nous étudions la problématique des effets d'échantillonnage sur la décomposition. Ces effets sont modélisés dans le cas simple d'un signal sinusoïdal et une borne de leur influence est obtenue pour des signaux quelconques. Enfin nous étudions le mécanisme de la décomposition à travers deux situations complémentaires, la décomposition d'une somme de sinusoïdes et celle d'un bruit large bande. Le premier cas permet de mettre en évidence un modèle simple expliquant le comportement de l'EMD dans une très grande majorité des cas de sommes de sinusoïdes. Ce modèle reste valide pour des sinusoïdes faiblement modulées en amplitude et en fréquence ainsi que dans certains cas de sommes d'ondes non harmoniques périodiques. La décomposition de bruits large bande met quant à elle en évidence un comportement moyen de l'EMD proche de celui d'un banc de filtres auto-similaire, analogue à ceux correspondant aux transformées en ondelettes discrètes. Les propriétés du banc de filtres équivalent sont étudiées en détail en fonction des paramètres clés de l'algorithme de l'EMD. Le lien est également établi entre ce comportement en banc de filtres et le modèle développé dans le cas des sommes de sinusoïdes.
313

Étude de techniques d'imagerie à haut contraste basées sur la cohérence

Galicher, Raphaël 24 September 2009 (has links) (PDF)
Depuis 1995, environ 350 exoplanètes ont été détectées mais seule une dizaine l'a été directement pour plusieurs raisons. D'abord, les projections de l'étoile hôte et de sa planète sur la sphère céleste sont très proches -- quelques fractions de secondes d'arc. Ceci impose un diamètre minimum pour le télescope et un système compensant les perturbations atmosphériques. Ensuite, le flux lumineux de l'étoile hôte est entre un million et dix milliards de fois plus fort que celui de la planète. Pour réduire ce flux stellaire sans affecter le flux planétaire, nous utilisons un coronographe dont les performances sont limitées par les défauts optiques qui doivent être compensés ou estimés. Pendant ma thèse, j'ai étudié sur des plans théoriques et expérimentaux deux techniques: le coronographe à quatre quadrants à étages multiples (MFQPM) pour atténuer le flux stellaire et la self coherent camera (SCC) qui minimise l'impact des aberrations optiques en utilisant l'incohérence entre lumières stellaires et planétaires. J'ai montré en laboratoire qu'un prototype non optimisé du MFQPM fournissait une extinction achromatique de l'étoile centrale de mille à dix milles entre 550 et 750nm. Puis, j'ai montré par simulations que la SCC s'associe aisément avec un coronographe de type Lyot et qu'en utilisant ses deux modes de fonctionnement -- analyseur de surface d'onde en plan focal et imagerie différentielle --, des planètes de type Terre pouvaient être détectées de l'espace sous des conditions réalistes. J'ai également mesuré un défaut réel de phase via la SCC sur le banc d'Imagerie Très Haute Dynamique que j'ai développé à l'Observatoire de Paris.
314

Expressive Sound Synthesis for Animation

Picard-Limpens, Cécile 04 December 2009 (has links) (PDF)
L'objectif principal de ce travail est de proposer des outils pour une synthèse en temps-réel, réaliste et expressive, des sons résultant d'interactions physiques entre objets dans une scène virtuelle. De fait, ces effets sonores, à l'exemple des bruits de collisions entre solides ou encore d'interactions continues entre surfaces, ne peuvent être prédéfinis et calculés en phase de pré-production. Dans ce cadre, nous proposons deux approches, la première basée sur une modélisation des phénomènes physiques à l'origine de l'émission sonore, la seconde basée sur le traitement d'enregistrements audio. Selon une approche physique, la source sonore est traitée comme la combinaison d'une excitation et d'un résonateur. Dans un premier temps, nous présentons une technique originale traduisant la force d'interaction entre surfaces dans le cas de contacts continus, tel que le roulement. Cette technique repose sur l'analyse des textures utilisées pour le rendu graphique des surfaces de la scène virtuelle. Dans un second temps, nous proposons une méthode d'analyse modale robuste et flexible traduisant les vibrations sonores du résonateur. Outre la possibilité de traiter une large variété de géométries et d'offrir une multi-résolution des paramètres modaux, la méthode permet de résoudre le problème de cohérence entre simulation physique et synthèse sonore, problème fréquemment rencontré en animation. Selon une approche empirique, nous proposons une technique de type granulaire, exprimant la synthèse sonore par un agencement cohérent de particules ou grains sonores. La méthode consiste tout d'abord en un prétraitement d'enregistrements destiné à constituer un matériel sonore sous forme compacte. Ce matériel est ensuite manipulé en temps réel pour, d'une part, une resynthèse complète des enregistrements originaux, et d'autre part, une utilisation flexible en fonction des données reportées par le moteur de simulation et/ou de procédures prédéfinies. Enfin, l'intérêt est porté sur les sons de fracture, au vu de leur utilisation fréquente dans les environnements virtuels, et en particulier les jeux vidéos. Si la complexité du phénomène rend l'emploi d'un modèle purement physique très coûteux, l'utilisation d'enregistrements est également inadaptée pour la grande variété de micro-événements sonores. Le travail de thèse propose ainsi un modèle hybride et des stratégies possibles afin de combiner une approche physique et une approche empirique. Le modèle ainsi conçu vise à reproduire l'événement sonore de la fracture, de son initiation à la création de micro-débris.
315

Restauration d'images de la rétine corrigées par optique adaptative

Chenegros, Guillaume 06 November 2008 (has links) (PDF)
L'imagerie de la rétine, in vivo et à haute résolution, est rendue difficile à cause des aberrations de l'œil, qui limitent la résolution. La mesure et la correction de ces aberrations sont possibles grâce à l'utilisation de l'optique adaptative (OA). Un banc d'imagerie rétinienne avec OA a été développé par l'Observatoire de Paris et est actuellement utilisé sur un panel de patients à l'Hôpital des XV-XX à Paris. <br />En imagerie plein champ, le caractère tridimensionnel de l'objet d'intérêt (la rétine) rend l'interprétation des images difficile puisque tous les plans qui constituent l'objet contribuent à la formation de chaque plan image. De plus, la correction par OA est toujours partielle. Il est donc nécessaire de déconvoluer les images enregistrées afin d'une part de séparer numériquement les plans de l'objet et d'autre part, d'améliorer la résolution latérale. Une méthode de déconvolution nécessite généralement, pour donner des résultats satisfaisants, d'une part une bonne connaissance de la réponse impulsionnelle (RI) du système complet, et d'autre part un ajustement de paramètres de réglage appelés hyper-paramètres. <br />Nous avons développé deux méthodes de déconvolution 3D. La première méthode suppose la RI du système connu. La deuxième est une extension tridimensionnelle de la méthode de diversité de phase et permet d'estimer la RI du système conjointement à l'objet d'intérêt. <br />Par ailleurs, nous avons développé une technique d'estimation non supervisée (« automatique ») des <br />hyper-paramètres, qui permet d'envisager une utilisation efficace de la déconvolution 3D même par des <br />utilisateurs peu familiers du traitement des images tels que médecins ou biologistes. <br />Ces méthodes ont été validées d'abord sur des données simulées réalistes. Ensuite nous avons déve- <br />loppé à l'ONERA un banc d'imagerie 3D pour effectuer une validation expérimentale. Nous présenterons <br />les résultats préliminaires obtenus sur des images acquises sur ce banc.
316

Transport Adaptatif et Contrôle de la Qualité des Services Vidéo sur les Réseaux Pair-à-Pair

Mushtaq, Mubashar 12 December 2008 (has links) (PDF)
Actuellement, nous constatons une augmentation de demande de services vidéo sur les réseaux P2P. Ces réseaux jouent un rôle primordial dans la transmission de contenus multimédia à grande échelle pour des clients hétérogènes. Cependant, le déploiement de services vidéo temps réel sur les réseaux P2P a suscité un grand nombre de défis dû à l'hétérogénéité des terminaux et des réseaux d'accès, aux caractéristiques dynamiques des pairs, et aux autres problèmes hérités des protocoles TCP/IP, à savoir les pertes de paquets, les délais de transfert et la variation de la bande passante de bout-en-bout. Dans ce contexte, l'objectif de cette thèse est d'analyser les différents problèmes et de proposer un mécanisme de transport vidéo temps réel avec le provisionnement de la qualité de Service (QoS). Ainsi, nous proposons trois contributions majeures. Premièrement, il s'agit d'un mécanisme de streaming vidéo adaptatif permettant de sélectionner les meilleurs pair émetteurs. Ce mécanisme permet de structurer les pairs dans des réseaux overlay hybrides avec une prise en charge des caractéristiques sémantiques du contenu et des caractéristiques physiques du lien de transport. Nous présentons ensuite un mécanisme d'ordonnancement de paquets vidéo combiné à une commutation de pairs et/ou de flux pour assurer un transport lisse. Finalement, une architecture de collaboration entre les applications P2P et les fournisseurs de services / réseaux est proposée pour supporter un contrôle d'admission de flux.
317

Les mousses adaptatives pour l'amélioration de l'absorption acoustique : modélisation, mise en oeuvre, mécanismes de contrôle

Leroy, Pierre 24 November 2008 (has links) (PDF)
Les matériaux absorbants ont une efficacité très faible aux basses fréquences (<500Hz). Les mousses dites adaptatives ont été développées pour combler ce manque d'efficacité. Une mousse adaptative est la réunion d'un matériau absorbant et d'un actionneur commandé par un système de contrôle actif. L'objectif de cette thèse est de mener une étude numérique et expérimentale approfondie du concept de mousse adaptative et d'en dégager les mécanismes physiques et les limitations technologiques pour le contrôle de l'absorption acoustique. Le matériau absorbant est ici une mousse de mélamine et l'actionneur est un film piézoélectrique de PVDF. Le contrôle actif de l'absorption acoustique est réalisé en incidence normale avec l'hypothèse d'onde plane sur la plage de fréquence [0-1500Hz]. Les résultats font apparaître la possibilité d'absorber une pression incidente de 1Pa à 100Hz avec 100V et un bruit large bande de 94dB avec une centaine de Vrms à partir de 250Hz. Ces résultats ont été obtenus avec un prototype de mousse adaptative ayant une épaisseur moyenne de 4cm. Un frein important au contrôle large bande provient du fort niveau de distorsion des prototypes dans le bas (<500Hz) et le haut (<1500Hz) du spectre de fréquences. Un modèle éléments finis 3D couplant les domaines poroélastiques, acoustiques, élastiques et piézoélectriques a été proposé et validé expérimentalement. L'utilisation de ce modèle, complété par une étude analytique, a permis de mettre en lumière le mode d'action et les mécanismes de dissipation dans la mousse adaptative.
318

Adaptations inter-couches pour la diffusion des services vidéo sans fil

Djama, Ismail 10 November 2008 (has links) (PDF)
L'un des défis majeurs dans la convergence des réseaux et des services vers la technologie IP est le maintien de la qualité de service (QoS) des flux audio/vidéo transmis sur des réseaux sans fil pour des utilisateurs mobiles et hétérogènes. Dans cet environnement, les services multimédia doivent faire face à plusieurs inconvénients engendrés par le manque de fiabilité d'un canal sans fil et son partage par plusieurs utilisateurs. Ces inconvénients sont accentués par l'hétérogénéité des terminaux de réception (capacité de décodage, espace de stockage, résolution d'affichage, etc.) qui doivent recevoir, décoder et afficher les flux multimédia.<br />Afin d'assurer un accès universel aux services n' importe où, n'importe quand et en utilisant n'importe quel terminal d'accès, les applications multimédia de nouvelle génération doivent interagir avec leur environnement pour, d'une part, informer les réseaux sous-jacents de leur besoins en QoS, et d'autre part, adapter dynamiquement leurs services en fonction des terminaux de réception et des variations intempestives des conditions de transmission. <br />Dans ce contexte, nous proposons un nouveau système pour la transmission des flux audio/vidéo sur les réseaux 802.11 basé sur l'approche Cross-layer. Ce nouveau système, appelé XLAVS (Cross Layer Adaptive Video Streaming), communique activement avec l'ensemble des couches réseaux ainsi que le récepteur final pour déterminer l'adaptation optimale qui permet d'optimiser la QoS des flux audio/vidéo. <br />Nos contributions se focalisent principalement sur les adaptations Cross-layer mises en œuvre par le XLAVS. Ces contributions sont organisées en deux grandes catégories : les adaptations ascendantes exécutées au niveau applicatif et les adaptations descendantes exécutées au niveau MAC 802.11.<br />Dans la première catégorie, notre apport s'articule au tour de : (1) l'adaptation dynamique du débit vidéo en fonction du débit physique disponible dans le réseau 802.11 et (2) l'adaptation conjointe du taux de redondance FEC et du débit vidéo contrôlée par la puissance du signal et les taux de perte. <br />Dans la deuxième catégorie, nous proposons deux mécanismes Cross-layer au niveau MAC 802.11 : (1) une fragmentation 802.11 adaptative pour trouver un compromis entre les pertes de paquets et l'overhead introduit par les couches 802.11 et (2) un groupage des images vidéo au niveau MAC pour permettre au flux vidéo d'avoir un accès au canal 802.11 proportionnel à son débit.
319

Représentation structurelle d'images par transformées locales en ondelettes orientées et codage

Jeannic, Guillaume 05 November 2008 (has links) (PDF)
Dans un contexte de compression d'images fixes, de nouvelles représentations implantées par des techniques de redressement (lifting) orienté ont été imaginées. Pour ce travail de thèse, trois variantes de ces transformées sont évaluées comparativement selon un critère de minimisation de l'énergie des hautes fréquences reconstruites et selon la direction de régularité locale. Cette direction de régularité est estimée par des approches basées extraction de contours ou minimisation d'une fonction de coût. Les deux approches proposées permettent de plus une classification de l'activité directionnelle des blocs de l'image. Ces représentations des caractéristiques géométriques de l'image utilisées pour guider le filtrage en ondelettes orientées, est codé pour être transmis au décodeur. Les coûts de ces différentes représentations sont comparés. Finalement une quantification adaptée est proposée pour tenir compte à la fois des différentes classes structurelles et de l'anisotropie de la représentation.
320

Les méthodes de régularisation optimale et leurs applications en tomographie : nouveaux algorithmes performants de reconstruction d'images

Girard, Didier 29 October 1984 (has links) (PDF)
.

Page generated in 0.1208 seconds