• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 13
  • 7
  • Tagged with
  • 58
  • 27
  • 25
  • 20
  • 16
  • 14
  • 14
  • 14
  • 14
  • 10
  • 10
  • 10
  • 10
  • 10
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contribution à la conception d'un circuit analogique programmable en technologie CMOS conception et caractérisation d'une cellule de calcul analogique /

Aubert, Alain Chante, Jean-Pierre January 2005 (has links)
Thèse doctorat : Dispositifs de l'Electronique Intégrée : Villeurbanne, INSA : 2005. / Titre provenant de l'écran-titre. Bibliogr. p. 131-134.
2

Mécanismes 3D de ruine en géologie structurale : approches numérique et analogique. / Mécanismes 3D de ruine en géologie structurale : approches numérique et analogique.

Souloumiac, Pauline 17 July 2009 (has links)
Le premier but de cette thèse est d’étudier les séquences de chevauchements dans les prismes d’accrétion et les chaînes plissées grâce au calcul à la rupture. La méthode, issue du génie civil, est adaptée ici à la géologie structurale dans l’objectif de détecter les modes de rupture au cours du plissement. Cubas et al. (2008) ont appliqué l’approche externe, de façon analytique, sur des séquences de chevauchements, prédisant ainsi la position des failles, l’évolution de la séquence et la borne supérieure à la force tectonique. L’approche complémentaire, l’approche interne, donne les distributions de contraintes à chaque pas de raccourcissement ainsi que la borne inférieure à la force tectonique. Ce problème d’optimisation est basé sur la discrétisation de la structure, dont les inconnues sont les contraintes nodales. La validation de cette méthode sur un bloc rectangulaire pouvant glisser sur un niveau de décollement (Hafner, 1951) permet d’identifier deux modes de rupture : activation totale du décollement sans rupture dans le matériau ou pas d’activation du décollement avec rupture dans le matériau. L’application sur un pli de rampe met en évidence les systèmes de failles conjuguées classiques : rampe - rétro-chevauchement, et les zones en extension au sommet de la couche qui étaient encore peu connues. Une modélisation par éléments finis de l’initiation d’un pli de rampe donne les mêmes contraintes que celles obtenues par optimisation, pour un coût de temps calcul plus important. Le deuxième objectif de cette thèse est d’étudier les mécanismes de ruine en 3D dans les prismes d’accrétion. La méthode proposée est basée sur l’approche externe numérique, le champ de vitesse virtuel étant construit sur la discrétisation de la structure. Une validation en 2D montre que ce schéma numérique permet de retrouver la criticalité du prisme au sens de Dalhen (1984). En 3D, la pente topographique d’un prisme triangulaire est choisi pour varier latéralement, d’un côté sous-critique et de l’autre super-critique. La déformation est localisée du côté sous-critique et diffuse du côté super-critique. L’influence de la friction sur le mur de poussée et sur les murs latéraux du prisme est également étudiée. Suivant la valeur de l’angle de friction sur le mur de poussée, il existe deux modes distincts de rupture : une rampe ou un système rampe - rétro-chevauchement. L’angle de friction sur le mur latéral du prisme entraˆine une déformation verticale sur 1.5 fois l’épaisseur du prisme. Le troisième but de cette thèse est d’étudier les effets 3D en boite de sable, en faisant varier la géométrie de la boite et celle du prisme. Une boite étroite et une épaisseur de sable importante implique une déformation contrôlée entièrement par les frottements sur les vitres latérales. L’évolution de cette déformation est observable sur l’enregistrement des forces de chaque côté de la boite. La géométrie de la boite et du système de compression influe de façon qualitative sur la position du mode de ruine dans la boite pour une même géométrie de prisme. / The first objective of this thesis is to study sequences of thrusting in accretionary wedges and in fold-and-thrust belts by application of limit analysis. The method, inherited from civil engineering, is adapted here for structural geology problems with the objective to determine the dominant failure mode responsible for folding. Cubas et al. (2008) applied the external approach, analytically, to sequences of thrusting, predicting the position and the life span of a give thrust, and of course the least upper bound on the tectonic force. The complementary approach, the internal approach, provides the stress distribution at each step of the shortening of the structure as well as the best lower bound on the tectonic force. This optimization problems relies on a spatial discretization of the domain and the basic unknowns are the nodal stresses. The validation of the method is conducted with a rectangular block sliding over the décollement (Hafner, 1951) and provides two modes of failure : a complete activation of the décollement with no bulk failure or no activation of this décollement and bulk failure. The application to the fault-bend fold reveals the classical conjugate set of ramps and back thrusts and the regions of extension within the hanging wall, which were not recognized so far. A finite-element modeling of the initiation of the slip over the ramp provides the same distribution as the one obtained by optimization although for a larger computer time. The second objective of this thesis is to study the 3D geometry of the failure modes in accretionary wedges. The proposed method is numerical and based on the external approach, the virtual velocity field being interpolated over the discretized domain. The 2D validation consists in capturing the stability transition defined by Dahlen (1984). The 3D wedge geometry includes a lateral variation in the topographic slope such that the right and left cross section are sub-critical and super-critical.The deformation is localized in the sub-critical region and more diffuse as one moves towards the super-critical regions. The influence of the back wall and of the d´ecollement friction is also studied. Two modes of failure could be selected depending on the friction angle on the back wall : a single ramp or a system ramp and back thrust. The friction on the lateral walls implies a vertical stretching of the bulk material over a width which is 1.5 times the wedge thickness. The third objective of this thesis is to study 3D effects in analogue experiments done in the laboratory by varying the geometry of the experimental set up and of the wedge. A narrow set up and a thick wedge at its toe implies a deformation which is controlled by the lateral wall friction. The evolution of the deformation is also analysed by monitoring the forces at the two ends to the experimental set up. The geometry of the set up and of the compressive device influences qualitatively the position of the failure mode within the wedge for the same wedge geometry.
3

Mécanismes 3D de ruine en géologie structurale : approches numérique et analogique.

Souloumiac, Pauline 17 July 2009 (has links) (PDF)
Le premier but de cette thèse est d'étudier les séquences de chevauchements dans les prismes d'accrétion et les chaînes plissées grâce au calcul à la rupture. La méthode, issue du génie civil, est adaptée ici à la géologie structurale dans l'objectif de détecter les modes de rupture au cours du plissement. Cubas et al. (2008) ont appliqué l'approche externe, de façon analytique, sur des séquences de chevauchements, prédisant ainsi la position des failles, l'évolution de la séquence et la borne supérieure à la force tectonique. L'approche complémentaire, l'approche interne, donne les distributions de contraintes à chaque pas de raccourcissement ainsi que la borne inférieure à la force tectonique. Ce problème d'optimisation est basé sur la discrétisation de la structure, dont les inconnues sont les contraintes nodales. La validation de cette méthode sur un bloc rectangulaire pouvant glisser sur un niveau de décollement (Hafner, 1951) permet d'identifier deux modes de rupture : activation totale du décollement sans rupture dans le matériau ou pas d'activation du décollement avec rupture dans le matériau. L'application sur un pli de rampe met en évidence les systèmes de failles conjuguées classiques : rampe - rétro-chevauchement, et les zones en extension au sommet de la couche qui étaient encore peu connues. Une modélisation par éléments finis de l'initiation d'un pli de rampe donne les mêmes contraintes que celles obtenues par optimisation, pour un coût de temps calcul plus important. Le deuxième objectif de cette thèse est d'étudier les mécanismes de ruine en 3D dans les prismes d'accrétion. La méthode proposée est basée sur l'approche externe numérique, le champ de vitesse virtuel étant construit sur la discrétisation de la structure. Une validation en 2D montre que ce schéma numérique permet de retrouver la criticalité du prisme au sens de Dalhen (1984). En 3D, la pente topographique d'un prisme triangulaire est choisi pour varier latéralement, d'un côté sous-critique et de l'autre super-critique. La déformation est localisée du côté sous-critique et diffuse du côté super-critique. L'influence de la friction sur le mur de poussée et sur les murs latéraux du prisme est également étudiée. Suivant la valeur de l'angle de friction sur le mur de poussée, il existe deux modes distincts de rupture : une rampe ou un système rampe - rétro-chevauchement. L'angle de friction sur le mur latéral du prisme entraˆine une déformation verticale sur 1.5 fois l'épaisseur du prisme. Le troisième but de cette thèse est d'étudier les effets 3D en boite de sable, en faisant varier la géométrie de la boite et celle du prisme. Une boite étroite et une épaisseur de sable importante implique une déformation contrôlée entièrement par les frottements sur les vitres latérales. L'évolution de cette déformation est observable sur l'enregistrement des forces de chaque côté de la boite. La géométrie de la boite et du système de compression influe de façon qualitative sur la position du mode de ruine dans la boite pour une même géométrie de prisme.
4

Égaliseur à échos programmable pour système de transmission analogique à grande capacité.

Haret, Pierre, January 1900 (has links)
Th. doct.-ing.--Électronique, électrotech., autom.--Toulouse--I.N.P., 1980. N°: 95.
5

Contributions to the use of analogical proportions for machine learning : theoretical properties and application to recommendation / Contributions à l'usage des proportions analogiques pour l'apprentissage artificiel : propriétés théoriques et application à la recommandation

Hug, Nicolas 05 July 2017 (has links)
Le raisonnement par analogie est reconnu comme une des principales caractéristiques de l'intelligence humaine. En tant que tel, il a pendant longtemps été étudié par les philosophes et les psychologues, mais de récents travaux s'intéressent aussi à sa modélisation d'un point de vue formel à l'aide de proportions analogiques, permettant l'implémentation de programmes informatiques. Nous nous intéressons ici à l'utilisation des proportions analogiques à des fins prédictives, dans un contexte d'apprentissage artificiel. Dans de récents travaux, les classifieurs analogiques ont montré qu'ils sont capables d'obtenir d'excellentes performances sur certains problèmes artificiels, là où d'autres techniques traditionnelles d'apprentissage se montrent beaucoup moins efficaces. Partant de cette observation empirique, cette thèse s'intéresse à deux axes principaux de recherche. Le premier sera de confronter le raisonnement par proportion analogique à des applications pratiques, afin d'étudier la viabilité de l'approche analogique sur des problèmes concrets. Le second axe de recherche sera d'étudier les classifieurs analogiques d'un point de vue théorique, car jusqu'à présent ceux-ci n'étaient connus que grâce à leurs définitions algorithmiques. Les propriétés théoriques qui découleront nous permettront de comprendre plus précisément leurs forces, ainsi que leurs faiblesses. Comme domaine d'application, nous avons choisi celui des systèmes de recommandation. On reproche souvent à ces derniers de manquer de nouveauté ou de surprise dans les recommandations qui sont adressées aux utilisateurs. Le raisonnement par analogie, capable de mettre en relation des objets en apparence différents, nous est apparu comme un outil potentiel pour répondre à ce problème. Nos expériences montreront que les systèmes analogiques ont tendance à produire des recommandations d'une qualité comparable à celle des méthodes existantes, mais que leur complexité algorithmique cubique les pénalise trop fortement pour prétendre à des applications pratiques où le temps de calcul est une des contraintes principales. Du côté théorique, une contribution majeure de cette thèse est de proposer une définition fonctionnelle des classifieurs analogiques, qui a la particularité d'unifier les approches préexistantes. Cette définition fonctionnelle nous permettra de clairement identifier les liens sous-jacents entre l'approche analogique et l'approche par k plus-proches-voisins, tant au plan algorithmique de haut niveau qu'au plan des propriétés théoriques (taux d'erreur notamment). De plus, nous avons pu identifier un critère qui rend l'application de notre principe d'inférence analogique parfaitement certaine (c'est-à-dire sans erreur), exhibant ainsi les propriétés linéaires du raisonnement par analogie. / Analogical reasoning is recognized as a core component of human intelligence. It has been extensively studied from philosophical and psychological viewpoints, but recent works also address the modeling of analogical reasoning for computational purposes, particularly focused on analogical proportions. We are interested here in the use of analogical proportions for making predictions, in a machine learning context. In recent works, analogy-based classifiers have achieved noteworthy performances, in particular by performing well on some artificial problems where other traditional methods tend to fail. Starting from this empirical observation, the goal of this thesis is twofold. The first topic of research is to assess the relevance of analogical learners on real-world, practical application problems. The second topic is to exhibit meaningful theoretical properties of analogical classifiers, which were yet only empirically studied. The field of application that was chosen for assessing the suitability of analogical classifiers in real-world setting is the topic of recommender systems. A common reproach addressed towards recommender systems is that they often lack of novelty and diversity in their recommendations. As a way of establishing links between seemingly unrelated objects, analogy was thought as a way to overcome this issue. Experiments here show that while offering sometimes similar accuracy performances to those of basic classical approaches, analogical classifiers still suffer from their algorithmic complexity. On the theoretical side, a key contribution of this thesis is to provide a functional definition of analogical classifiers, that unifies the various pre-existing approaches. So far, only algorithmic definitions were known, making it difficult to lead a thorough theoretical study. From this functional definition, we clearly identified the links between our approach and that of the nearest neighbors classifiers, in terms of process and in terms of accuracy. We were also able to identify a criterion that ensures a safe application of our analogical inference principle, which allows us to characterize analogical reasoning as some sort of linear process.
6

Conception en vue de test de convertisseurs de signal analogique-numérique de type pipeline.

Laraba, Asma 20 September 2013 (has links) (PDF)
La Non-Linéarité-Différentielle (NLD) et la Non-Linéarité-Intégrale (NLI) sont les performances statiques les plus importantes des Convertisseurs Analogique-Numérique (CAN) qui sont mesurées lors d'un test de production. Ces deux performances indiquent la déviation de la fonction de transfert du CAN par rapport au cas idéal. Elles sont obtenues en appliquant une rampe ou une sinusoïde lente au CAN et en calculant le nombre d'occurrences de chacun des codes du CAN.Ceci permet la construction de l'histogramme qui permet l'extraction de la NLD et la NLI. Cette approche requiert lacollection d'une quantité importante de données puisque chacun des codes doit être traversé plusieurs fois afin de moyenner le bruit et la quantité de données nécessaire augmente exponentiellement avec la résolution du CAN sous test. En effet,malgré que les circuits analogiques et mixtes occupent une surface qui n'excède pas généralement 5% de la surface globald'un System-on-Chip (SoC), leur temps de test représente souvent plus que 30% du temps de test global. Pour cette raison, la réduction du temps de test des CANs est un domaine de recherche qui attire de plus en plus d'attention et qui est en train deprendre de l'ampleur. Les CAN de type pipeline offrent un bon compromis entre la vitesse, la résolution et la consommation.Ils sont convenables pour une variété d'applications et sont typiquement utilisés dans les SoCs destinés à des applicationsvidéo. En raison de leur façon particulière du traitement du signal d'entrée, les CAN de type pipeline ont des codes de sortiequi ont la même largeur. Par conséquent, au lieu de considérer tous les codes lors du test, il est possible de se limiter à un sous-ensemble, ce qui permet de réduire considérablement le temps de test. Dans ce travail, une technique pour l'applicationdu test à code réduit pour les CANs de type pipeline est proposée. Elle exploite principalement deux propriétés de ce type deCAN et permet d'obtenir une très bonne estimation des performances statiques. La technique est validée expérimentalementsur un CAN 11-bit, 55nm de STMicroelectronics, obtenant une estimation de la NLD et de la NLI pratiquement identiques àla NLD et la NLI obtenues par la méthode classique d'histogramme, en utilisant la mesure de seulement 6% des codes.
7

Apports et limitations de la technologie MOS double grille à grilles à grilles indépendantes sub-45nm pour la conception analogique basse fréquence

Freitas, Philippe 21 December 2009 (has links)
L’objectif de cette thèse est d’étudier les apports et les limitations des dispositifs double grille à grilles indépendantes (IDGMOS) dans la conception de circuits analogiques fonctionnant à basses fréquences. Ce dispositif compte parmi les structures à l’étude pour le remplacement des transistors MOS à substrat massif. Ce remplacement deviendra nécessaire dès lors que ceux-ci auront atteint leurs limites physiques suite à la diminution géométrique dictée par les besoins de l’industrie du semiconducteur. Bien que cette technologie soit conçue pour ses potentialités quant à la réalisation de circuits numériques et RF, le fait de pouvoir déconnecter les deux grilles et de les contrôler séparément ouvre également la voie à de nouvelles solutions pour la conception des systèmes analogiques futurs. Ce travail se focalise tout d’abord sur l’étude du comportement de l’IDGMOS et notamment sur les effets du couplage existant entre les deux interfaces du composant. Cette étude s’appuie sur les caractéristiques du transistor ainsi que sur son modèle. Celui-ci est ensuite simplifié afin d’extraire des lois élémentaires régissant le fonctionnement dynamique de l’IDGMOS. Dans un second temps, ce manuscrit précise l’environnement futur du transistor ainsi que les solutions existantes, conçues à base de dispositifs à substrat massif et permettant de palier les détériorations fonctionnelles futures. Une brève étude comparative est présentée ensuite entre une technologie MOS standard avancée et un modèle IDGMOS ajusté sur les prévisions de l’ITRS. Néanmoins, les paramètres ajustés sont à ce point idéaux qu’il est difficile de conclure. Il reste donc préférable de se cantonner aux considérations analogiques données par la suite du chapitre, celles-ci se basant principalement sur les équations du modèle de l’IDGMOS ainsi que sur sa structure. La troisième partie de se chapitre met en œuvre le transistor IDGMOS au sein de circuits représentant les blocs de base de l’électronique analogique. Chacun de ces blocs est étudié afin de mettre en valeur un apport fonctionnel particulier du composant. Cette étude se termine par une comparaison entre les résultats simulés d’un amplificateur complet IDGMOS et ceux d’un autre circuit réalisé quant à lui en utilisant l’accès substrat de transistors MOS standard, tous deux fonctionnant sous une tension d’alimentation de 0; 5V. / The aim of this thesis is to study the contributions and the limitations of Independently Driven Double Gate MOS transistors in regard of the low frequency analog design. This device is one of the candidates for the replacement of the current bulk MOS technology since the gate length of the transistors cannot be efficiently decreased under 30nm. Even if the IDGMOS technology is mainly designed for digital and radio frequency applications, the independent drive of the gates should also improve the design of analog circuits ant it would provide solutions to the future circuits issues. First, this work focuses upon the IDGMOS’s behaviour, going a little deeper into the effects of the coupling that exists between its interfaces. Using the electrical characteristics of the transistor and simplifying its model, this report then reviews the static and dynamic laws of the component in order to extract a simple description of its operation modes. Secondly, a state of the art concerning both the future environment and issues is presented, followed by the solutions which currently exist using the standard MOS technology. A brief comparison between an advanced MOS technology and an IDGMOS model fitted on the ITRS parameters is given. However, these ideal parameters prevent this work from establishing a practical conclusion whereas the aforementioned theoretical studies can be used for providing a better understanding of the IDGMOS contributions. Those are reviewed just before the last part of the report which presents some basic analog circuits and their enhancement using double gate transistors. This chapter first emphasizes each important aspect of the device operating within the circuits and it thus concludes on an interesting comparison between two complete low supply voltage amplifiers, the first one designed using IDGMOS transistors and the other one based on bulk driven MOS devices.
8

Conception et fabrication de neurones artificiels pour le traitement bioinspiré de l'information / Conception and fabrication of artificial neuron for bioinspired information processing

Hedayat, Sara 18 September 2018 (has links)
Actuellement, les technologies du traitement d'information ont atteint leurs limites et il devient donc urgent de proposer de nouveaux paradigmes capables de réduire la consommation d'énergie tout en augmentant la capacité de calcul des ordinateurs. Le cerveau humain est un fascinant et puissant organe, avec ses 300 milliards de cellule, il est capable d’effectuer des taches cognitives en consommant 20W. Dans ce contexte nous avons investiguer un nouveau paradigme appelé "neuromorphic computing" ou le traitement bio-inspiré de l'information.L'objectif de cette thèse est de concevoir et de fabriquer un neurone artificiel a très faible consommation utilisant les récentes avancées scientifiques dans les neurosciences et les nanotechnologies. Premièrement, on a investigué le fonctionnement d'un neurone vivant, sa membrane neuronale et nous avons exploré 3 différents modèles de membranes connues sous le nom de Hodgkin Huxley, Wei et Morris Lecar. Deuxièmement, en se basant sur le modèle de Morris Lecar, nous avons réalisé des neurones artificiels analogiques à spike avec différentes constantes de temps. Puis ils ont été fabriqués avec la technologie 65nm CMOS. Par la suite, nous les avons caractérisés et obtenu des performances dépassant l’état de l’art en terme de surface occupée, puissance dissipée et efficacité énergétique. Finalement, on a analysé et comparé le bruit dans ces neurones artificiels avec le bruit dans des neurones biologiques et on a démontré expérimentalement le phénomène de résonance stochastique. Ces neurones artificiels peuvent être extrêmement utiles pour une large variété d’application allant du traitement de données à l’application médicale. / Current computing technology has now reached its limits and it becomes thus urgent to propose new paradigms for information processing capable of reducing the energy consumption while improving the computing performances. Moreover, the human brain, is a fascinating and powerful organ with remarkable performances in areas as varied as learning, creativity, fault tolerance. Furthermore, with its total 300 billion cells, is able to perform complex cognitive tasks by consuming only around 20W. In this context, we investigated a new paradigm called neuromorphic or bio-inspired information processing.More precisely, the purpose of this thesis was to design and fabricate an ultra-low power artificial neuron using recent advances in neuroscience and nanotechnology. First, we investigated the functionalities of living neurons, their neuronal membrane and explored different membrane models known as Hodgkin Huxley, Wei and Morris Lecar models. Second, based on the Morris Lecar model, we designed analog spiking artificial neurons with different time constants and these neurons were fabricated using 65nm CMOS technology. Then we characterized these artificial neurons and obtained state of the art performances in terms of area, dissipated power and energy efficiency. Finally we investigated the noise within these artificial neurons, compared it with the biological sources of noise in a living neuron and experimentally demonstrated the stochastic resonance phenomenon. These artificial neurons can be extremely useful for a large variety of applications, ranging from data analysis (image and video processing) to medical aspect (neuronal implants).
9

Design of an ultra low voltage analog front end for an electroencephalography system

Bautista-Delgado, Alfredo Farid 18 June 2009 (has links) (PDF)
Ce travail de thèse présente la conception et le développement d' un circuit intégré frontal analogique (AFE) pour un système d' électroencéphalographie portable. L' AFE est constitué d'un un amplificateur ultra-basse tension et d'un Convertisseur Analogique Numérique (ADC) Sigma Delta en Temps Continu (CT). Ce système AFE a été conçu dans une technologie CMOS 0,35 mm. Ce circuit de très basse consommation est alimenté avec une tension de seulement 0,5V.<br /><br />Afin de permettre un véritable fonctionnement en très basse tension, tous les transistors fonctionnent dans la région de faible inversion. Le pré-amplificateur se compose d'un étage d'entrée basé sur une architecture de type cascode replié (OTA-FC) et un d'un étage de sortie basé sur un amplificateur de type “Current Source”.<br /><br />Pour le convertisseur analogique numérique, une architecture de type Sigma-Delta, composée d'un modulateur à temps continu (CT-Sigma Delta), a été choisi afin d'avoir une consommation de puissance très faible. Le filtre de décimation du convertisseur est basé sur une architecture de filtre à réponse impulsionnelle finie (FIR). Le Modulateur est alimenté avec une tension de seulement 0,5V alors que le filtre numérique nécessite une tension de 1V.<br /><br />Les résultats de test montrent que l'OTA a un gain de boucle ouverte de 38,8dB pour le premier étage et de 18,6dB pour l'étage de sortie. Cet OTA a une largeurs de bande pour le premier étage et le second étage de 10,23KHz et 6,45KHz, respectivement. Les autres caractéristiques obtenues pour l'OTA sont: bruit de sortie de 1,4mVrms@100Hz et consommation de 1,89mW. L' ADC quant à affiche les caractéristiques suivantes : un SNR de 94,2dB, un ENOB de 15,35bits, une INL de +0,34/-2,3 LSB, et une DNL +0,783/-0,62LSB avec aucun code manquant. Le Modulateur a une consommation de puissance de 7mW. L' AFE proposé proposé dans ce travail possède des caractéristiques qui le place parmi les plus performants comparé aux autres réalisation décrites dans la littérature. Les caractéristiques obtenues pour le circuit permettent d'envisager sont utilisation pour des applications biomédicales de très basse consommation telles que les dispositifs portatifs d'électro-encéphalographie (EEG)<br /><br />En plus du modulateur de CT-Σ∆ développé en technologies CMOS 0,35um, un autre modulateur a été conçu utilisant des technologies CMOS 0,13µm, basées sur le temps discret. La simulation affiche un SNR de 92dB et un ENOB de 14.99dB pour une fréquence de sur-échantillonnage (OSR) de 150.
10

Approche à base de logique floue pour le test et le diagnostic des circuits analogiques

Mohamed, F. 03 July 1997 (has links) (PDF)
Les circuits et systèmes analogiques sont de plus en plus utilisés dans le cadre d'applications nouvelles. Ils deviennent également plus complexes, ce qui crée la nécessité de disposer de méthodes automatiques pour leurs tests et leurs diagnostics qui à eux deux représentent un problème crucial dans ce domaine. Cette thèse a pour objectif de développer une nouvelle approche pour le test et le diagnostic des CA et mixtes. Une voie relativement peu explorée, mais prometteuse eu égard aux résultats obtenus pour le diagnostic d'autres dispositifs et systèmes dynamiques, consiste en l'étude d'approches de l'IA pour la résolution de problèmes. Nous avons étudié les différentes approches possibles et notamment les approches suivantes : l'approche à base de modèles profonds, l'approche qualitative et l'approche à base de logique floue. Le résultat de cette étude a donné lieu à une nouvelle approche développée utilisant la logique floue et ses techniques. Cette nouvelle approche a été implémentée dans un système nommé FLAMES. FLAMES, qui est conçu pour faire le diagnostic des CA, a apporté plusieurs améliorations de l'état de l'art notamment en définissant les tolérances comme des intervalles flous. Il est aussi capable de réaliser la simulation des circuits et de choisir les meilleurs points à tester lorsque le diagnostic reste ambigu. Finalement, les différents résultats obtenus confirment la validité de l'approche développée et implémentée.

Page generated in 0.0583 seconds