Spelling suggestions: "subject:"[een] MICROELECTRONICS"" "subject:"[enn] MICROELECTRONICS""
461 |
Étude de la résistivité et de l'électromigration dans les<br />interconnexions destinées aux technologies des noeuds<br />90 nm - 32 nmGuillaumond, Jean-Frédéric 02 December 2005 (has links) (PDF)
La résistivité et la fiabilité du cuivre dans les interconnexions des circuits intégrés pour les générations 90 nm – 32 nm ont été étudiées. Le contexte, la réalisation des interconnexions et les outils de caractérisations utilisés sont présentés dans une première partie. Dans une seconde partie, l'augmentation de résistivité observée en diminuant la largeur des lignes de cuivre est décrite à l'aide du modèle de Mayadas. Ce phénomène est dû à la diffusion des électrons sur les défauts du cristal (joints de grains, parois extérieures, impuretés). La résistivité des lignes de dimensions décananométriques, mesurée à l'aide d'une méthode électrique, confirme que cette augmentation est en accord avec la modélisation retenue. Dans une dernière partie, l'électromigration du cuivre qui est un déplacement de matière sous l'effet d'un flux d'électrons, a été évaluée. L'impact de l'utilisation de nouveaux matériaux (diélectrique poreux, barrière de diffusion CVD TiN et ALD TaN, alliage de cuivre-aluminium, barrières supérieures métalliques) a été estimé. De nouvelles caractérisations physiques (expériences d'électromigration in situ sous MEB et analyse de texture par EBSD) ont été développées pour corréler localement la structure cristalline du métal et les mécanismes de cavitation par électromigration. Les résultats majeurs ont montré l'importance du confinement du cuivre pour améliorer les durées de vie ainsi que les risques associés à la réduction des épaisseurs de barrière. Les résultats expérimentaux les plus prometteurs ont été obtenus avec les barrières métalliques où les caractéristiques d'électromigration semblent proches de celles attendues pour un matériau massif.
|
462 |
Accélération matérielle pour le rendu de scènes multimédia vidéo et 3DCunat, Christophe 08 October 2004 (has links) (PDF)
Un processus de convergence des techniques algorithmiques de deux domaines autrefois disjoints, convergence facilité par l'émergence de normes telles que MPEG-4, s'est engagé au cours de ces dernières années. Grâce au concept de codage par objets, une scène peut être reconstituée par la composition de divers objets dans un ordre déterminé. <br />Cette thèse s'inscrit dans le cadre de la composition d'objets visuels qui peuvent être de natures différentes (séquences vidéo, images fixes, objets synthétiques 3D, etc.). Néanmoins, les puissances de calcul nécessaires afin d'effectuer cette composition demeurent prohibitives sans mise en place d'accélérateurs matériels spécialisés et deviennent critiques dans un contexte de terminal portable.<br />Une revue tant algorithmique qu'architecturale des différents domaines est effectuée afin de souligner à la fois les points de convergence et de différence. Ensuite, trois axes (interdépendants) de réflexions concernant les problématiques de représentation des données, d'accès aux données et d'organisation des traitements sont principalement discutés.<br />Ces réflexions sont alors appliquées au cas concret d'un terminal portable pour la labiophonie : application de téléphonie où le visage de l'interlocuteur est reconstruit à partir d'un maillage de triangles et d'un placage de texture. Une architecture unique d'un compositeur d'image capable de traiter indifféremment ces objets visuels est ensuite définie. Enfin, une synthèse sur une plateforme de prototypage de cet opérateur autorise une comparaison avec des solutions existantes, apparues pour la plupart au cours de cette thèse.
|
463 |
Modélisation de l'action d'un champ magnétique variable sur un métal liquide disposé en nappe peu épaisse.Hinaje, Melika 25 November 2005 (has links) (PDF)
L'action d'un champ magnétique variable sur une couche mince de métal liquide est étudiée d'un point de vue expérimental et théorique. Dans le chapitre I, le dispositif expérimental est décrit. Une étude expérimentale est ensuite menée où l'on souligne la différence de comportement entre une nappe épaisse de métal liquide et une nappe mince. En effet, si le dispositif est axisymétrique en l'absence de champ magnétique, cette symétrie est conservée dans le cas d'une nappe épaisse, lorsque l'on applique un champ magnétique. En revanche, la symétrie est rompue dans le cas d'une nappe mince de métal liquide. A champ inducteur donné, les formes que prend la nappe aussi bien dans le cas d'une nappe mince que d'une nappe épaisse sont des états d'équilibres stables. L'objectif principal de cette thèse est d'expliquer les équilibres stables de la nappe mince en se basant sur une méthode de minimum d'énergie. Le chapitre II présente la formulation magnétique du problème ainsi que le bilan énergétique qui en découle. Le chapitre III traite des méthodes de calcul choisies pour la résolution de notre modèle et pour la validation d'hypothèse. Deux méthodes de résolution numérique y sont décrites, l'une est la méthode des éléments finis et l'autre la méthode des intégrales de frontières. Le dernier chapitre présente les résultats obtenus par la résolution du modèle magnétique, ces résultats de simulation sont ensuite comparés aux résultats expérimentaux.
|
464 |
Etude des Lasers à Semiconducteur au Second Ordre : Bruit d'Amplitude - Bruit de FréquenceSignoret, Philippe 16 December 2004 (has links) (PDF)
Les fluctuations d'intensité ou de fréquence observées en sortie de cavité émettrice représentent une caractéristique essentielle des lasers à semi-conducteur. Le bruit est d'une part une conséquence directe de la nature corpusculaire de la lumière et permet ainsi d'approcher les processus physiques mis en jeu dans la cavité laser. D'autre part, le bruit définit les limites fondamentales pour l'utilisation des composants concernés dans les expérimentations où la sensibilité est un facteur clé, ainsi que dans les systèmes de communication à haut débit. Ainsi, l'étude du bruit et la compréhension des mécanismes associés sont d'une importance primordiale, sur le plan de la physique fondamentale et également d'un point de vue technologique.
|
465 |
Microtechnologies polymères pour les laboratoires sur pucesAbgrall, Patrick 07 February 2006 (has links) (PDF)
Linvention du concept de µTAS (micro total chemical analysis system) au début des années quatre vingt dix a ouvert aux fluides la porte du monde des microsystèmes. Un laboratoire sur puce intègre toutes les fonctions dun laboratoire macroscopique (déplacer, mélanger, chauffer des liquides, filtrer, séparer, détecter des molécules, etc.) sur une petite surface (typiquement quelques centimètres carrés). Le challenge technologique repose sur le couplage entre un microsystème conventionnel et un réseau microfluidique. Si les procédés silicium et verre ont été largement utilisés durant les années quatre vingt dix, ils présentent plusieurs inconvénients rédhibitoires : incompatibilité des technologies silicium avec les forts champs électriques nécessaires pour les séparations électrophorétiques et/ou le pompage électroosmotique, technologies non adaptées pour des grandes surfaces, difficultés dintégration dans un système complet, prix élevé des matériaux et des procédés associés, etc. La solution explorée dans cette thèse consiste à construire directement le réseau microfluidique sur un microsystème conventionnel dans des résines photosensibles (SU-8), ce qui facilite lintégration et autorise la fabrication de structures 3D avec un excellent alignement niveau à niveau. Les outils de caractérisation microfluidique développées et utilisés dans le cadre de ce travail sont présentés. Les effets de surface étant fondamentaux à cette échelle, une stratégie générique de modification des propriétés physicochimiques de la SU-8 est proposée et caractérisée.
|
466 |
Synthèse architecturale flexibleCesario, W. 14 October 1999 (has links) (PDF)
Le sujet de cette thèse est le développement d'une nouvelle méthodologie de synthèse basée sur une approche interactive et<br />flexible conçue pour l'exploration de l'espace des solutions. C'est le concepteur qui est au centre du processus de création, il a la<br />possibilité d'adapter les techniques et les méthodes de conception à l'application et il est guidé par des estimations de haute fidélité pour prendre des décisions pendant la phase de synthèse. La flexibilité concerne l'architecture cible et le flot de conception. Une nouvelle méthodologie pour l'évaluation de performance à partir d'une description de niveau système est aussi<br />présentée. Cette méthodologie est basée sur un modèle de performance exécutable décrit dans un langage de spécification au niveau système.
|
467 |
Conception et étude d'une architecture numérique de haute performance pour le calcul de la fonction exponentielle modulaireBernal, A. 22 October 1999 (has links) (PDF)
Les processus de sécurisation d'information privée reposent principalement sur des protocoles qui utilisent le concept de fonction à sens unique ou fonction très difficilement inversible. Ce type de brouillage mathématique est fréquemment réalisé par la fonction exponentielle modulaire. Dans ce travail on présente la conception d'une architecture performante qui satisfait aux caractéristiques les plus importantes afin de garantir la viabilité d'un circuit intégré pour le calcul de la fonction exponentielle modulaire. L'analyse de l'architecture permet d'évaluer les gains en vitesse qu'une réalisation matérielle pourrait permettre par rapport aux algorithmes programmés. L'architecture calcule la fonction exponentielle modulaire des numéros représentés en notation modulaire en combinant les avantages de l'algorithme de Montgomery pour la <br />multiplication et ceux de la méthode généralisée de<br />multiplications répétées, pour l'exponentielle.
|
468 |
Les limites technologiques du silicium et tolérance aux fautesAnghel, L. 15 December 2001 (has links) (PDF)
Les technologies de silicium s'approchent de leurs limites physiques en termes de réduction de tailles des transistors, et de la tension d'alimentation (VDD), d'augmentation de la vitesse de fonctionnement et du nombre de dispositifs intégrés dans une puce. En s'approchant de ces limites, les circuits deviennent de plus en plus sensibles à toute source de bruit (telles que les couplages capacitifs ou "cross-talks ", l'influence électro-magnétique, le bruit sur les lignes d'alimentation "ground-bounce"), ainsi qu'aux phénomènes radiatifs (particules alpha et neutrons atmosphériques). Ainsi, le taux d'erreurs du fonctionnement causées par l'impact des particules ionisantes (erreurs soft) ou par des défauts difficiles à détecter échappant ainsi au test de fabrication (par ex. fautes temporelles), se voit augmenté de façon radicale. Dans cette thèse, nous analysons dans un premier temps ces problèmes et nous concluons que tout circuit doit être conçu en utilisant des techniques de tolérance aux fautes afin de pouvoir maintenir des niveaux de fiabilité acceptables pour les prochaines générations de circuits nanométriques. Cette analyse montre que les parties logiques tendent de devenir aussi sensibles aux erreurs soft que les mémoires, nécessitant ainsi le même niveau de protection. Les techniques traditionnelles de tolérance aux fautes (TMR, duplication) étant trop coûteuses, ne sont pas acceptables pour les applications à faible valeur ajoutée (ex. produits grand publique). Le caractère temporel des fautes transitoires et de timing est exploité afin de proposer des solutions efficaces utilisant des structures self-checking, ainsi que des techniques de redondance temporelle. Ces techniques minimisent le coût matériel et ont un faible impact sur la vitesse de fonctionnement du circuit. Nous avons aussi développé une méthodologie de simulation de fautes transitoires, qui nous a permis d'évaluer de façon précise l'efficacité de protection obtenue par ces techniques.
|
469 |
Capteur intégré tactile d'empreintes digitales à microstructures piezorésistivesParrain, F. 02 December 2002 (has links) (PDF)
A l'heure de l'explosion des réseaux informatiques, le besoin d'identifier les personnes à distance devient de plus en plus nécessaire pour effectuer diverses opérations comme les contrôles d'accès ou les paiements sécurisés. Jusqu'à présent, la saisie d'un code alphanumérique reste la solution la plus utilisée. Cette solution, bien qu'ayant le mérite d'être très simple, a le désavantage de ne pas certifier que l'individu qui entre le code est bien celui qu'il prétend être. Une autre possibilité qui s'offre à nous, est d'utiliser la biométrie en identifiant directement les traits corporels de l'utilisateur. Le caractère physique le plus simple à utiliser est sans contestation l'empreinte digitale utilisée depuis plus d'un siècle par la police. L'extraction des points de bifurcation ou d'arrêt des courbes formant l'empreinte (les minuties) permet de créer une signature propre à chaque individu, garantissant ainsi avec une probabilité proche de l'unité l'identité de celui-ci. Il est possible de classifier les capteurs d'empreintes digitales selon leur mode de fonctionnement (capteurs optiques, thermiques ou mécaniques) et selon leur géométrie (capteurs en matrice ou en ligne). Jusqu'à présent, les capteurs matriciels sont les plus utilisés mais il sont chers du fait de la grande surface de silicium utilisée. Nous proposons de réaliser un capteur d'empreintes digitales composé d'une unique rangée de microstructures (en fait trois rangées dans le cas des prototypes présentés dans ce mémoire) afin de minimiser la taille de la puce et par conséquent son prix. Afin d'obtenir l'image de l'intégralité de l'empreinte, l'utilisateur passe son doigt à la surface du capteur suivant un mouvement de translation. Durant le passage du doigt, les reliefs de ce dernier induisent des contraintes au sein des microstructures et donc une variation de résistance électrique au niveau des jauges piezorésistives. Cette variation de résistance électrique est alors amplifiée, filtrée et numérisée (sur 8 bits soit 256 niveaux de gris) en utilisant l'électronique intégrée au sein du capteur.
|
470 |
Vérification formelle de systèmes digitaux synchrones, basée sur la simulation symboliqueGeorgelin, P. 18 October 2001 (has links) (PDF)
Pour satisfaire les exigences du marché, les outils de vérification formelle doivent permettre aux concepteurs de vérifier des descriptions complexes et de raisonner sur des domaines de valeurs grands ou infinis. Il est nécessaire de se concentrer sur la correction d'algorithmes et sur les propriétés mathématiques essentielles des blocks à concevoir. La plupart des outils de vérification formelle comme les "Model-checkers" sont restrictifs car ils ne peuvent travailler avec des niveaux plus haut que le "RTL", et ils sont également limités sur le nombre total d'états. Les démonstrateurs de théorèmes ne souffrent pas de ces restrictions, mais ne sont pas automatiques et requièrent des méthodes pour faciliter leur utilisation systématique. Cette thèse aborde la vérification formelle de descriptions VHDL au moyen du démonstrateur ACL2. Nous proposons un environnement combinant simulation symbolique et démonstrateur de théorèmes pour l'analyse formelle de descriptions de haut niveau d'abstraction. Plus précisément, notre approche consiste à développer des méthodes<br />- pour formaliser un sous-ensemble de VHDL,<br />- pour "diriger" le démonstrateur pour effectuer de la simulation symbolique<br />- pour utiliser ces résultats pour les preuves.<br />Un outil a été développé combinant des traducteurs (VHDL vers ACL2), des moteurs de simulation symbolique et de preuves, et une interface utilisateur. Les définitions et les théorèmes sont générés automatiquement. Un même modèle généré est ainsi utilisé pour toutes les tâches. Nous aspirons à fournir au concepteur une méthodologie pour insérer la vérification formelle le plus tôt possible dans le cycle de conception. Le démonstrateur est utilisé pour des manipulations symboliques et pour prouver qu'ils sont équivalents à une fonction spécifiée. Le résultat de cette thèse est de rendre la technique de démonstration de théorèmes acceptable dans une équipe de concepteur du point de vue de la facilité d'utilisation, et de diminuer le temps de vérification.
|
Page generated in 0.0548 seconds