• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 52
  • 12
  • 1
  • 1
  • 1
  • Tagged with
  • 198
  • 57
  • 32
  • 31
  • 31
  • 24
  • 21
  • 20
  • 19
  • 19
  • 19
  • 19
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Efficient Lower Layer Techniques for Electromagnetic Nanocommunication Networks / Techniques de couche basse efficaces pour les réseaux de nanocommunications électromagnétiques

Zainuddin, Muhammad Agus 17 March 2017 (has links)
Nous avons proposé nanocode bloc simple pour assurer la fiabilité des communications nano. Nous proposons également la compression d'image simple, efficace de l'énergie pour les communications nano. Nous étudions les performances des méthodes proposées en termes d'efficacité énergétique, le taux d'erreur binaire et de robustesse contre les erreurs de transmission. Dans la compression d'image pour les communications nano, nous comparons notre méthode proposée SEIC avec compression standart images des méthodes telles que JPEG, JPEG 2000, GIF et PNG. Les résultats montrent que notre méthode proposée surpasse les méthodes de compression d'image standard dans la plupart des indicateurs. Dans la compression d'erreur pour les communications nano, nous proposons nanocode de simple bloc (SBN) et comparer la performance avec le code de correction d'erreur existant pour nanocommunication, tels que Canal Minimum Energy (MEC) et le faible poids de la Manche (LWC) codes. Le résultat montre que notre méthode proposée surpasse MEC et LWC en termes de fiabilité et de la complexité du matériel. / We proposed nanocode single block to ensure the reliability of nano communications. We also offer the simple image compression, power efficient for nano communications. We study the performance of the proposed methods in terms of energy efficiency, bit error rate and robustness against transmission errors. In image compression for nanocommunications, we compare our proposed method SEIC with standart compression image methods such as JPEG, JPEG 2000, GIF and PNG. The results show that our proposed method outperforms standard image compression methods in most metrics. In error compression for nanocommunications, we propose simple block nanocode (SBN) and compare the performance with existing error correction code for nanocommunication, such as Minimum Energy Channel (MEC) and Low weight Channel (LWC) codes. The result show that our proposed method outperforms MEC and LWC in terms of reliability and hardware complexity.
72

Classification et apprentissage actif à partir d'un flux de données évolutif en présence d'étiquetage incertain / Classification and active learning from evolving data streams in the presence of incertain labeling

Bouguelia, Mohamed-Rafik 25 March 2015 (has links)
Cette thèse traite de l’apprentissage automatique pour la classification de données. Afin de réduire le coût de l’étiquetage, l’apprentissage actif permet de formuler des requêtes pour demander à un opérateur d’étiqueter seulement quelques données choisies selon un critère d’importance. Nous proposons une nouvelle mesure d’incertitude qui permet de caractériser l’importance des données et qui améliore les performances de l’apprentissage actif par rapport aux mesures existantes. Cette mesure détermine le plus petit poids nécessaire à associer à une nouvelle donnée pour que le classifieur change sa prédiction concernant cette donnée. Nous intégrons ensuite le fait que les données à traiter arrivent en continu dans un flux de longueur infinie. Nous proposons alors un seuil d’incertitude adaptatif qui convient pour un apprentissage actif à partir d’un flux de données et qui réalise un compromis entre le nombre d’erreurs de classification et le nombre d’étiquettes de classes demandées. Les méthodes existantes d’apprentissage actif à partir de flux de données, sont initialisées avec quelques données étiquetées qui couvrent toutes les classes possibles. Cependant, dans de nombreuses applications, la nature évolutive du flux fait que de nouvelles classes peuvent apparaître à tout moment. Nous proposons une méthode efficace de détection active de nouvelles classes dans un flux de données multi-classes. Cette méthode détermine de façon incrémentale une zone couverte par les classes connues, et détecte les données qui sont extérieures à cette zone et proches entre elles, comme étant de nouvelles classes. Enfin, il est souvent difficile d’obtenir un étiquetage totalement fiable car l’opérateur humain est sujet à des erreurs d’étiquetage qui réduisent les performances du classifieur appris. Cette problématique a été résolue par l’introduction d’une mesure qui reflète le degré de désaccord entre la classe donnée manuellement et la classe prédite et une nouvelle mesure d’"informativité" permettant d’exprimer la nécessité pour une donnée mal étiquetée d’être réétiquetée par un opérateur alternatif / This thesis focuses on machine learning for data classification. To reduce the labelling cost, active learning allows to query the class label of only some important instances from a human labeller.We propose a new uncertainty measure that characterizes the importance of data and improves the performance of active learning compared to the existing uncertainty measures. This measure determines the smallest instance weight to associate with new data, so that the classifier changes its prediction concerning this data. We then consider a setting where the data arrives continuously from an infinite length stream. We propose an adaptive uncertainty threshold that is suitable for active learning in the streaming setting and achieves a compromise between the number of classification errors and the number of required labels. The existing stream-based active learning methods are initialized with some labelled instances that cover all possible classes. However, in many applications, the evolving nature of the stream implies that new classes can appear at any time. We propose an effective method of active detection of novel classes in a multi-class data stream. This method incrementally maintains a feature space area which is covered by the known classes, and detects those instances that are self-similar and external to that area as novel classes. Finally, it is often difficult to get a completely reliable labelling because the human labeller is subject to labelling errors that reduce the performance of the learned classifier. This problem was solved by introducing a measure that reflects the degree of disagreement between the manually given class and the predicted class, and a new informativeness measure that expresses the necessity for a mislabelled instance to be re-labeled by an alternative labeller
73

Art du Signe. La réfutation des Averroïstes de Paris chez Raymond Lulle / Art of the Sign. The Refutation of the Paris Averroists in Ramon Lull

Teleanu, Constantin 25 November 2011 (has links)
Cette investigation s’efforce de comprendre quel ressort philosophique amorce la dernière phase de l’incursion de Raymond Lulle dans les Facultés de Paris afin de débattre contre la faction des philosophants censés être dénommés Averroïstes catholiques. Le système de l’Art de Raymond Lulle connaît une dimension polémique prodigieuse, puisqu’elle résonne finalement aux échos retentissants de l’affrontement de Raymond Lulle avec des Averroïstes rencontrés dans les Facultés de Paris, mais qui peuvent être restitués par le biais des traités rédigés entre novembre 1309-septembre 1311 quelques années avant le déclin de son esprit prolifique. Il s’agit de la réfutation des erreurs attribuées par Lulle aux philosophants de Paris qui ne sont dénommés Averroïstes catholiques qu’en décembre 1310 après une quête intrépide de l’épithète des philosophants de Paris par laquelle Lulle apostrophe bien leurs erreurs répertoriées en diverses listes. Le contact de Lulle avec nombre de lettrés des Facultés de Paris suscite souvent la controverse doctrinale sans compromettre toute tentative de dialogue. C’est pourquoi Lulle lègue à l’historiographie du lullisme ou de l’averroïsme une fresque singulière de ce que la philosophie devient dans les Facultés de Paris au début du XIVe siècle, même s’il défend la vraie philosophie de tout dérapage averroïste. Il rénove la réfutation des Averroïstes de Paris, puisqu’elle ne dérive ni des censures ni des autorités de théologie positive, mais des outils dialectiques de son Art de raisons nécessaires. / This investigation seeks to understand what philosophical spring begins the last phase of Ramon Lull’s incursion in the Faculties of Paris to discuss against the faction of the philosophers supposed be called catholic Averroists. The system of the Art of Ramon Lull knows a prodigious polemical dimension, because it resounds finally in the loud echoes of Ramon Lull’s confrontation with the Averroists encountered in the Faculties of Paris, but its could be reestablished by means of treaties drafted between November 1309-September 1311, few years before the decline of his prolific spirit. It is about the refutation of the errors attributed by Lull to the philosophers of Paris that are called catholic Averroists only in December 1310 after an intrepid quest of the epithet of the philosophers of Paris by which Lull apostrophe out well their errors itemized in various lists. The contact of Lull with many scholars of the Faculties of Paris often arouses the doctrinal controversy without compromising any attempt of dialogue. Therefore, Lull bequeathed in the historiography of the Lullism or the Averroism a singular fresco of what the philosophy becomes in the Faculties of Paris at the beginning of the XIVth Century, even if he defends the true philosophy of any averroist skid. He renews the refutation of Averroists of Paris, because it does not derive of either censures or authorities of positive theology, but of the dialectical tools of its Art of necessary reasons.
74

Estimation a posteriori et méthode de décomposition de domaine / A posteriori estimation method and domain decomposition

Kamel, Slimani 27 March 2014 (has links)
Cette thèse est consacrée à l’analyse numérique en particulier aux estimations a posteriori de l’erreur dans la méthode de décomposition asymptotique partielle de domaine. Il s’agit de problèmes au dérivées partielles elliptiques linéaires et semi- linéaires avec une source qui ne dépend que d’une seule variable dans une partie du domaine. La MAPDD - Méthod of Asymptotic Partial Domain Decomposition - est une méthode inventée par Grigori . Panasenko et développée dans les références [G.P98, G.P99]. L’aidée principale est de remplacer un problème 3D ou 2D par un problème hybride combinée 3D−1D, 3D−2D ou 2D−1D, ou la dimension du problème diminue dans une partie du domaine. Des méthodes de calcul efficaces de solution pour le problème hybride en résultant sont récemment devenues disponibles pour plusieurs systèmes (linéaires/non linéaires, fluide/solide, etc.) ainsi chaque sous-problème est calcul ́ avec un code indépendant de type boîte noire [PBB10, JLB09, JLB11]. La position de la jonction entre les problèmes hétérogènes est asymptotiquement estimée dans les travaux de G. Panasenko [G.P98]. La méthode MAPDD a été conçu pour traiter des problèmes ou un petit paramètre apparaître, et fournit un développement en série de la solution avec des solutions de problèmes simplifiées à l’égard de ce petit paramètre. Dans le problème considéré dans les chapitres 3 et 4, aucun petit paramètre n’existe, mais en raison de considérations géométriques concernant le domaine on suppose que la solution ne diffère pas significativement d’une fonction qui dépend seulement d’une variable dans une partie du domaine Ω. La théorie de MAPDD n’est pas adaptée pour une telle situation, et si cette théorie est appliquée formellement elle ne fournit pas d’estimation d’erreur. / This thesis is devoted to numerical analysis in particular a postoriori estimates of the error in the method of asymptotic partial domain decomposition. There are problems in linear elliptic partial and semi-linear with a source which depends only of one variable in a portion of domain. Method of Asymptotic Partial Decomposition of a Domain (MAPDD) originates from the works of Grigori.Panasonko [12, 13]. The idea is to replace an original 3D or 2D problem by a hybrid one 3D − 1D; or 2D − 1D, where the dimension of the problem decreases in part of domain. Effective solution methods for the resulting hybrid problem have recently become available for several systems (linear/nonlinear, fluid/solid, etc.) which allow for each subproblem to be computed with an independent black-box code [21, 17, 18]. The location of the junction between the heterogeneous problems is asymptotically estimated in the works of Panasenko [12]. MAPDD has been designed for handling problems where a small parameter appears, and provides a series expansion of the solution with solutions of simplified problems with respect to this small parameter. In the problem considered in chapter 3 and 4, no small parameter exists, but due to geometrical considerations concerning the domain Ω it is assumed that the solution does not differ very much from a function which depends only on one variable in a part of the domain. The MAPDD theory is not suited for such a context, but if this theory is applied formally it does not provide any error estimate. The a posteriori error estimate proved in this chapter 3 and 4, is able to measure the discrepancy between the exact solution and the hybrid solution which corresponds to the zero-order term in the series expansion with respect to a small parameter when it exists. Numerically, independently of the existence of an asymptotical estimate of the location of the junction, it is essential to detect with accuracy the location of the junction. Let us also mention the interest of locating with accuracy the position of the junction in blood flows simulations [23]. Here in this chapter 3,4 the method proposed is to determine the location of the junction (i.e. the location of the boundary Γ in the example treated) by using optimization techniques. First it is shown that MAPDD can be expressed with a mixed domain decomposition formulation (as in [22]) in two different ways. Then it is proposed to use an a posteriori error estimate for locating the best position of the junction. A posteriori error estimates have been extensively used in optimization problems, the reader is referred to, e.g. [1, 11].
75

Conception et validation de systèmes informatiques à haute sûreté de fonctionnement

Pilaud, Eric 23 November 1982 (has links) (PDF)
Un système de description des calculateurs à haute sûreté de fonctionnement est proposé et appliqué à des calculateurs existants. Cette description nous conduit à proposer une démarche de conception devant faciliter la validation. Une methode d'évaluation de la sûreté de fonctionnement, destinée à fournir des évaluations pour la certification, est ensuite étudiée. Elle s'appuie sur une démarche non optimiste et permet de prendre en compte certains paramètres difficilement quantifiables (latence d'erreur par exemple). Les deux aspects de cette étude, conception et évaluation, sont appliqués à un calculateur tolérant les pannes développées dans le cadre de ce travail. (CARLl)
76

Les blessés par accidents de la route : estimation de leur nombre et de leur gravité lésionnelle, France, 1996-2004

Amoros, Emmanuelle 20 December 2007 (has links) (PDF)
Les victimes d'accident de la route sont recensées par les forces de l'ordre, en France, et dans la plupart des pays. L'enregistrement des blessés non-décédés est incomplet et biaisé (biais de sélection et de classement de la gravité). Un registre médical couvre le département du Rhône. La coexistence des recensements policier et médical permet par capture-recapture d'estimer un bilan exhaustif au niveau rhodanien, et ainsi d'estimer les facteurs de correction des données policières. En faisant l'hypothèse d'homogénéité, sur le territoire national, des pratiques policières d'enregistrement des blessés, nous appliquons les coefficients de correction aux données policières nationales, en redressant sur les facteurs de biais. Les effectifs annuels moyens sur 1996-2004 sont alors estimés à 514 000 blessés dont 61 000 blessés graves, soit 3,7 et 2,2 fois les décomptes des forces de l'ordre. Les blessés avec séquelles lourdes sont estimés à 8000 annuellement, soit autant que les tués.
77

Influence, information and item response theory in discrete data analysis

Magis, David 04 May 2007 (has links)
The main purpose of this thesis is to consider usual statistical tests for discrete data and to present some recent developments around them. Contents can be divided into three parts. In the first part we consider the general issue of misclassification and its impact on usual test results. A suggested diagnostic examination of the misclassification process leads to simple and direct investigation tools to determine whether conclusions are very sensitive to classification errors. An additional probabilistic approach is presented, in order to refine the discussion in terms of the risk of getting contradictory conclusions whenever misclassified data occur. In the second part we propose a general approach to deal with the issue of multiple sub-testing procedures. In particular, when the null hypothesis is rejected, we show that usual re-applications of the test to selected parts of the data can provide non-consistency problems. The method we discuss is based on the concept of decisive subsets, set as the smallest number of categories being sufficient to reject the null hypothesis, whatever the counts of the remaining categories. In this framework, we present an iterative step-by-step detection process based on successive interval building and category count comparison. Several examples highlight the gain our method can bring with respect to classical approaches. The third and last part is consecrated to the framework of item response theory, a field of psychometrics. After a short introduction to that topic, we propose first two enhanced iterative estimators of proficiency. Several theoretical properties and simulation results indicate that these methods ameliorate the usual Bayesian estimators in terms of bias, among others. Furthermore, we propose to study the link between response pattern misfit and subject's variability (the latter as individual latent trait). More precisely, we present "maximum likelihood"-based joint estimators of subject's parameters (ability and variability); several simulations suggest that enhanced estimators also have major gain (with respect to classical ones), mainly in terms of estimator's bias.
78

THÉORIE DE L'INFORMATION MULTI-UTILISATEUR : INFORMATION ADJACENTE ET CONNAISSANCE IMPARFAITE DU CANAL

Piantanida, Pablo 14 May 2007 (has links) (PDF)
La capacité de canaux mono et multi-utilisateur dépendant d'états avec connaissance imparfaite du canal aux récepteurs et émetteurs est étudiée. Nous abordons les cas de canaux désadaptés en introduisant deux nouvelles notions de communications fiables avec erreurs d'estimation du canal, pour lesquelles nous proposons le théorème de codage associé et sa réciproque, en supposant des canaux discrets sans mémoire. Ces resultats exploitent les caractéristiques des canaux estimés à l'aide de séquences d'apprentissage. <br /><br />Dans cette thèse, nous introduisons d'abord la notion de "estimation-induced outage capacity" pour des canaux mono-utilisateur, où lémetteur et le récepteur \oe uvrent dans le but de construire des codes assurant une communication fiable avec une certaine qualité de service (QoS), quel que soit le degré d'exactitude de l'estimation qui apparaît au cours de la transmission. Dans notre cas, la contrainte sur la qualité de service permet d'atteindre les taux souhaités avec une probabilité d'erreur faible (le service de communication visé), même dans le cas où les estimations du canal sont mauvaises. Nos résultats fournissent une notion intuitive de l'impact des estimations et des caractéristiques du canal (e.g. SNR, taille des séquences d'apprentissage, voies de retour) sur le taux de coupure.<br /><br />Ensuite, le décodeur optimal atteignant cette capacité est étudié. Nous nous focalisons sur les familles de décodeurs qui peuvent être implémentées sur la plupart des systèmes pratiques de modulation codée. Nous nous basons sur le décodeur théorique qui atteint la capacité, pour obtenir une métrique practique de décodage pour des canaux sans mémoire arbitraires qui minimise la probabilité d'erreur de transmission moyennée sur toutes les erreurs d'estimation du canal. Cette métrique est ensuite appliquée au cas des canaux MIMO à évanouissements. D'après notre notion du taux de coupure, nous déterminons le taux maximal d'information atteignable associé au décodeur proposé. Les résultats numériques montrent que, sans introduire de complexité additionnelle dans le décodage, la métrique proposée fournit des gains significatifs, en termes de taux d'information atteignables et de taux d'erreur binaire (BER), dans le cas de modulation codée à bits entrelacés (BICM).<br /><br />Nous considérons ensuite les effets d'une estimation imparfaite connue par les récepteurs avec (ou sans) connaissance imparfaite à lémetteur sur la capacité de canaux dépendant d'états avec information adjacente non-causale à lémetteur. Ceci est abordé via la notion de communication fiable basée sur la probabilité d'erreur moyennée sur toutes les erreurs d'estimation du canal. Cette notion nous permet de considérer la capacité d'un canal composé (plus bruité) de type Gelfand et Pinsker. Nous obtenons le schéma de codage optimal de type "Dirty-paper coding (DPC)" qui atteint la capacité (sous l'hypothèse d'entrées Gaussiennes) du canal à évanouissements de type Costa. Les résultats illustrent le compromis pratique entre la quantité d'apprentissage du canal et son impact sur les performances de l'annulation d'interférences du schéma DPC. Cette approche nous permet d'étudier la région de capacité de canaux MIMO multi-utilisateur de diffusion à évanouissements (MIMO-BC), où les mobiles (les récepteurs) disposent uniquement d'une estimation bruitée des paramètres du canal, et ces estimations sont (ou non) disponibles à la station de base (l'émetteur). Nous observons en particulier, le résultat surprenant que pour ce canal de diffusion avec une antenne unique à l'émetteur et aux récepteurs et des estimées imparfaites du canal connues aux récepteurs, une connaissance de ses estimées à l'émetteur n'est pas nécessaire pour atteindre des taux élevés.<br /><br />Finalement, nous présentons plusieurs schémas réalisables de type DPC pour l'insertion de l'information multi-utilisateur en soulignant leur relation étroite avec la théorie de l'information multi-utilisateur. Nous montrons d'abord qu'en fonction de l'application visée et des conditions requises sur les différents messages en termes de robustesse et de transparence, il y a un parallèle entre l'insertion de l'information multi-utilisateur et les canaux multi-utilisateur avec information adjacente à l'émetteur. Nous nous focalisons sur les canaux de diffusion Gaussiens (GBC) et sur les canaux Gaussiens à accès multiples (MAC). Ceci consiste en une conception commune de schémas de codage pratiques de type DPC basés sur les solutions théoriques correspondant à ces canaux. Ces résultats étendent les implémentations pratiques de type QIM, DC-QIM et SCS initialement conçues pour un utilisateur au cas de plusieurs utilisateurs. Nous montrons que l'écart avec les performances optimales (les régions de capacités) peut être minimisé en utilisant des mots de code basés sur un réseau maillé de dimension finie.
79

A study on radiochemical errors in polymer gel dosimeters / Une étude sur les erreurs radiochimique dans les dosimètres à gels de polymère

Sedaghat, Mahbod January 2012 (has links)
À ce jour, les seul dosimètres purement tridimensionnels (3D) sont basés sur la détection d’une propriété physique résultant d’une série de réactions chimiques radio-induites dans un volume de gel ou de plastique. Les études initiales ont généré beaucoup d’enthousiasme mais ces dosimètres 3D ne sont pas parvenus à une utilisation répandue dans les départements de radio-oncologie pour l’assurance-qualité 3D et la vérification de traitements complexes de radiothérapie moderne. Le temps et la complexité de la préparation de ces dosimètres 3D ne sont pas les raisons principales qui empêchent leur déploiement clinique. Ce sont plutôt leurs performances et la reproductibilité des mesures qui doivent être améliorées. Les plus étudiés et les plus utilisés parmi les différents types de dosimètres 3D sont les dosimètres à gels de polymère. De nombreuses compositions chimiques ont été proposées et testées pour la dosimétrie à gels de polymère. L’utilisation d’un antioxydant s’est révélée une découverte majeure dans le domaine puisque l’oxygène interfère avec le mécanisme de réponse des gels. Pourtant, un nombre croissant d’erreurs inexpliquées ont été rapportées dans les écrits et ont soulevé un doute sur la reproductibilité et la justesse des doses déterminées avec ces gels. Cette thèse a été entreprise pour étudier les sources radiochimiques d’erreurs dans les dosimètres à gels de polymère. Il était admis dans les écrits que l’utilisation d’un antioxydant permettait de contoumer tous les effets non-désirés de l’oxygène. Cette thèse démontre que cela était faux. Une méthodologie a été développée pour isoler l’effet de l’oxygène dans un gel de polymère contenant ou non un antioxydant. Les résultats ont révélé que la présence conjointe d’oxygène et d’antioxydant modifie la réponse du dosimètre. Indépendamment de la composition du dosimètre et de l’antioxydant, cet effet peut induire des erreurs dosimétriques significatives dans des mesures simples et dont les origines étaient difficilement appréciables en ignorant l’effet de l'oxygène et de l’antioxydant. Nos résultats nous permettent de postuler les réactions dominantes des antioxydants étudiés et leur devenir chimique au sein d’un gel de polymère sous irradiation. Puisque l’effet de l’oxygène et de l’antioxydant était négligé, plusieurs autres facteurs physico-chimiques faisaient l’objet d’hypothèse pour expliquer les erreurs observées. Ces facteurs incluent la compression des gels et des variations de propagation et de terminaison de la polymérisation reliées à la chaleur générée pendant la polymérisation. Des études détaillées de ces effets nous permettent de refuter ces hypothèses. Nos résultats nous permettent d’analyser, de catégoriser et de proposer des explications sur l’origine des erreurs dosimétriques recensées dans les écrits. Finalement, l’effet d’un antioxydant en particulier, le chlorure de tetrakis-(hydroxyméthyle) phosphonium (THPC), a été étudié en relation avec la structure du polymère formé dans un gel de polymère basé sur l’acrylamide. Le THPC est l’antioxydant le plus utilisé dans les différents dosimètres à gels de polymère. La spectroscopie FT-Raman et la microscopie électronique ont révélé que le THPC réagit avec les monomères pendant la polymérisation. Notre interprétation suggère un rôle important du THPC dans les variations de réponse à la dose dans les gels de polymère. La conclusion générale de cette thèse est que l’élimination chimique de l'oxygène par un antioxydant facilite grandement la préparation des dosimètres mais leur performance en est grandement altérée en comparaison avec des préparations dites anoxiques. L’oxygène demeure une source majeure d’erreur dans les dosimètres à gels de polymère.
80

Low-cost highly-efficient fault tolerant processor design for mitigating the reliability issues in nanometric technologies

Yu, Hai 02 December 2011 (has links) (PDF)
Divers domaines d'application des systèmes électroniques, comme par exemple les implants médicaux ou les puces cryptographiques pour les appareils portables, exigent à la fois une très faible puissance consommé et un niveau de fiabilité très élevé. De plus, comme la miniaturisation des technologies CMOS s'approche de ses limites ultimes, ces exigences deviennent nécessaires pour l'ensemble de l'industrie de microélectronique. En effet, en approchant ces limites les problèmes de la dissipation de puissance, du rendement de fabrication et de la fiabilité des composants empirent, rendant la poursuite de miniaturisation nanométriques de plus en plus difficile. Ainsi, avant que ces problèmes bloquent le progrès technologique, des nouvelles solutions au niveau du processus de fabrication et du design sont exigées pour maintenir la puissance dissipée, le rendement de fabrication et la fiabilité à des niveaux acceptables. Le projet de thèse vise le développement des architectures tolérantes aux fautes capables de répondre à ces défis pour les technologies de fabrication CMOS présentes et à venir. Ces architectures devraient permettre d'améliorer le rendement de fabrication et la fiabilité et de réduire en même temps la puissance dissipée des composants électroniques. Elles conduiraient en une innovation majeure, puisque les architectures tolérant aux fautes traditionnelles permettraient d'améliorer le rendement de fabrication et la fiabilité des composants électroniques aux dépens d'une pénalité significative en puissance consommée.

Page generated in 0.0377 seconds