• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 99
  • 43
  • 13
  • 1
  • Tagged with
  • 155
  • 72
  • 34
  • 20
  • 20
  • 19
  • 19
  • 16
  • 14
  • 14
  • 12
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Recherche et caractérisation de systèmes binaires dont l'une des composantes est de faible masse

Baron, Frédérique 04 1900 (has links)
Nous présentons la découverte de quatorze nouveaux systèmes binaires ayant une séparation supérieure à 250 UA et dont au moins l'une des composantes est une naine M ou une naine L. Ces systèmes ont d'abord été identifiés en cherchant des objets ayant un mouvement propre commun autour d'étoiles connues possédant un mouvement propre élevé, grâce à une corrélation croisée de grands relevés du ciel dans l'infrarouge proche (2MASS, SDSS et SIMP). Un suivi astrométrique, afin de confirmer le mouvement propre commun, a été réalisé sur toutes les cibles avec la caméra SIMON et/ou la caméra CPAPIR à l'Observatoire du Mont-Mégatic (OMM) ou à l'Observatoire interaméricain du Cerro Tololo (CTIO). Un suivi spectroscopique a aussi été effectué sur la plupart des compagnons avec GMOS ou GNIRS à Gemini afin de déterminer leurs types spectraux. La probabilité que deux objets forment un système binaire par hasard a été évaluée afin de s'assurer que les couples candidats que nous présentons soient réellement liés.Un de nos nouveaux systèmes a un compagnon de masse sous-stellaire : 2M1259+1001 (L4.5). L'étude des systèmes que nous avons découverts pourra, entre autre, nous aider à mieux comprendre les mécanismes de formation des étoiles de très faible masse et des naines brunes. / We report the discovery of 14 new low-mass binary systems containing mid-M to mid-L dwarf companions with a separation larger than 250 AU. These systems were first identified by searching for common proper motion sources in the vicinity of known high proper motion stars, based on a cross-correlation of wide area near-infrared surveys (2MASS, SDSS, and SIMP). An astrometric follow-up, for common proper motion confirmation, was made with SIMON and/or CPAPIR at the Observatoire du Mont-Mégantic (OMM) and Cerro Tololo Inter-American Observatory (CTIO) telescopes for most of the candidates identified. A spectroscopic follow-up was also made with GMOS or GNIRS at Gemini to determine their spectral types. Statistical arguments are provided to show that all of the systems we report here are very likely to be truly bound. One of the new systems we discovered has a brown dwarf companion: 2M1259+1001 (L4.5). The study of the new systems we have discovered will be useful to help us better understand how very low mass stars and brown dwarfs form.
62

La fonction analytique. Freud, Jung, Lacan : Approche transdisciplinaire / Analytical function. Freud, Jung, Lacan : Transdisciplinary approach

Chabaud, François 15 December 2012 (has links)
Cette thèse propose un éclairage sur la réalité de la Fonction analytique, sa physiologie, et les pathologies comportementales qui résultent de son dysfonctionnement. Nous y visitons les travaux de Freud, Jung et Lacan. Par une approche de comparatisme de leurs « écritures respectives », nous découvrons les fondements de la Fonction analytique. Tous trois tiennent leur savoir d’une approche transdisciplinaire (mythologie, alchimie, Taoïsme, linguistique, mathématiques, etc.) Freud précise le rôle indispensable de la pulsion en décrivant ses quatre caractéristiques. Avec son travail sur le «Bloc-notes magique », il énonce les modalités de la gravure psychique. La physiologie analytique comprend deux stades distincts : le premier ou « tronc commun » correspond à la gravure de la trace mnésique (Freud). Ce stade se déroule selon le mode binaire : ça pour Freud, persona pour Jung, imaginaire pour Lacan. Le second, se développe à partir du tronc commun, selon la modalité ternaire : la structure arborescente. C’est le stade du moi de Freud, du moi de Jung, du réel de Lacan. Cette phase, comme celle du brassage inter-chromosomique de la méiose biologique, produit une infinité de combinaisons. Modes binaire et ternaire représentent les phases principales de la Fonction analytique. Mais le mode binaire ne doit pas faire barrage au mode ternaire, en enfermant la psyché dans l’imaginaire (Lacan). La psyché doit se dépasser et faire oeuvre d’artiste. Nous montrons que le déséquilibre de l’archétype anima/animus (Jung) est cause de ces pathologies. Nous y voyons également que « la pensée judéo-chrétienne » joue un rôle de censeur, et fait obstacle à la modélisation ternaire. / The following thesis proposes to shed some light on the reality of Analytical Function, its physiology and the behavioural pathologies that derive from its dysfunction. We revisit the works of Freud, Jung and Lacan. Through a comparativistic approach of their “respective writings”, we discover the very fundamentals of Analytical Function. And all three had gathered their knowledge using a transdisciplinary approach (mythology, alchemy, Taoism, linguistics, mathematics etc…) Freud points out the main role of the drive by describing its four characteristics. In his “Magic Note Pad” he states the modalities of the psychic imprint. Analytical physiology comprises two distinct stages: the first one - “the common trunk”- refers to the imprint or engraving of the mnemonic marking. This stage unfolds according to a binary mode: the “It” for Freud, the “persona” for Jung and the “Imaginary” for Lacan. The second stage stems out of the common trunk on a ternary mode: the arborescent structure. This is the stage of the “I” for Freud, the “Self” for Jung and “the Real” for Lacan. This stage-just like the inter-chromosomal brew of the biological meiosis- produces an infinity of combinations. Binary and ternary modes represent the main phases of Analytical Function. Nevertheless the binary mode must not block out the ternary mode by locking the psyche into Lacan’s “Imaginary”. The psyche must go beyond itself and become its own artist. We show that the disequilibrium of Jung’s anima/animus archetype provokes these pathologies. We also notice that the “Judeo-Christian” way of thinking plays a censorship role and becomes an obstacle for the implementation of the ternary mode.
63

Monte Carlo methods for sampling high-dimensional binary vectors / Monte Carlo séquentiel pour le choix de modèle bayésien : théorie et méthodes

Schäfer, Christian 14 November 2012 (has links)
Cette thèse est consacrée à l'étude des méthodes de Monte Carlo pour l'échantillonnage de vecteurs binaires de grande dimension à partir de lois cibles complexes. Si l'espace-état est trop grand pour une énumération exhaustive, ces méthodes permettent d'estimer l’espérance d’une loi donnée par rapport à une fonction d'intérêt. Les approches standards sont principalement basées sur les méthodes Monte Carlo à chaîne de Markov de type marche aléatoire, où la loi stationnaire de la chaîne est la distribution d’intérêt et la moyenne de la trajectoire converge vers l’espérance par le théorème ergodique. Nous proposons un nouvel algorithme d'échantillonnage basé sur les méthodes de Monte Carlo séquentielles qui sont plus robustes au problème de multimodalité grâce à une étape de recuit simulé. La performance de l'échantillonneur de Monte Carlo séquentiel dépend de la capacité d’échantillonner selon des lois auxiliaires qui sont, en un certain sens, proche à la loi de l'intérêt. Le travail principal de cette thèse présente des stratégies visant à construire des familles paramétriques pour l'échantillonnage de vecteurs binaires avec dépendances. L'utilité de cette approche est démontrée dans le cadre de sélection bayésienne de variables et l'optimisation combinatoire des fonctions pseudo-booléennes. / This thesis is concerned with Monte Carlo methods for sampling high-dimensional binary vectors from complex distributions of interest. If the state space is too large for exhaustive enumeration, these methods provide a mean of estimating the expected value with respect to some function of interest. Standard approaches are mostly based on random walk type Markov chain Monte Carlo, where the equilibrium distribution of the chain is the distribution of interest and its ergodic mean converges to the expected value. We propose a novel sampling algorithm based on sequential Monte Carlo methodology which copes well with multi-modal problems by virtue of an annealing schedule. The performance of the proposed sequential Monte Carlo sampler depends on the ability to sample proposals from auxiliary distributions which are, in a certain sense, close to the current distribution of interest. The core work of this thesis discusses strategies to construct parametric families for sampling binary vectors with dependencies. The usefulness of this approach is demonstrated in the context of Bayesian variable selection and combinatorial optimization of pseudo-Boolean objective functions.
64

Caractérisation du répertoire dynamique macroscopique de l'activité électrique cérébrale humaine au repos

Hadriche, Abir 28 June 2013 (has links)
Nous proposons un algorithme basé sur une approche orientée d'ensemble de système dynamique pour extraire une organisation grossière de l'espace d'état de cerveau sur la base des signaux de l'EEG. Nous l'utilisons pour comparer l'organisation de l'espace d'état des données simulées à grande échelle avec la dynamique cérébrale réelle au repos chez des sujets sains et pathologiques (SEP). / We propose an algorithme based on set oriented approach of dynamical system to extract a coarse grained organization of brain state space on the basis of EEG signals. We use it for comparing the organization of the state space of large scale simulation of brain dynamics with actual brain dynamics of resting activity in healthy and SEP subjects.
65

Extraction de relations en domaine de spécialité / Relation extraction in specialized domains

Minard, Anne-Lyse 07 December 2012 (has links)
La quantité d'information disponible dans le domaine biomédical ne cesse d'augmenter. Pour que cette information soit facilement utilisable par les experts d'un domaine, il est nécessaire de l'extraire et de la structurer. Pour avoir des données structurées, il convient de détecter les relations existantes entre les entités dans les textes. Nos recherches se sont focalisées sur la question de l'extraction de relations complexes représentant des résultats expérimentaux, et sur la détection et la catégorisation de relations binaires entre des entités biomédicales. Nous nous sommes intéressée aux résultats expérimentaux présentés dans les articles scientifiques. Nous appelons résultat expérimental, un résultat quantitatif obtenu suite à une expérience et mis en relation avec les informations permettant de décrire cette expérience. Ces résultats sont importants pour les experts en biologie, par exemple pour faire de la modélisation. Dans le domaine de la physiologie rénale, une base de données a été créée pour centraliser ces résultats d'expérimentation, mais l'alimentation de la base est manuelle et de ce fait longue. Nous proposons une solution pour extraire automatiquement des articles scientifiques les connaissances pertinentes pour la base de données, c'est-à-dire des résultats expérimentaux que nous représentons par une relation n-aire. La méthode procède en deux étapes : extraction automatique des documents et proposition de celles-ci pour validation ou modification par l'expert via une interface. Nous avons également proposé une méthode à base d'apprentissage automatique pour l'extraction et la classification de relations binaires en domaine de spécialité. Nous nous sommes intéressée aux caractéristiques et variétés d'expressions des relations, et à la prise en compte de ces caractéristiques dans un système à base d'apprentissage. Nous avons étudié la prise en compte de la structure syntaxique de la phrase et la simplification de phrases dirigée pour la tâche d'extraction de relations. Nous avons en particulier développé une méthode de simplification à base d'apprentissage automatique, qui utilise en cascade plusieurs classifieurs. / The amount of available scientific literature is constantly growing. If the experts of a domain want to easily access this information, it must be extracted and structured. To obtain structured data, both entities and relations of the texts must be detected. Our research is about the problem of complex relation extraction which represent experimental results, and detection and classification of binary relations between biomedical entities. We are interested in experimental results presented in scientific papers. An experimental result is a quantitative result obtained by an experimentation and linked with information that describes this experimentation. These results are important for biology experts, for example for doing modelization. In the domain of renal physiology, a database was created to centralize these experimental results, but the base is manually populated, therefore the population takes a long time. We propose a solution to automatically extract relevant knowledge for the database from the scientific papers, that is experimental results which are represented by a n-ary relation. The method proceeds in two steps: automatic extraction from documents and proposal of information extracted for approval or modification by the experts via an interface. We also proposed a method based on machine learning for extraction and classification of binary relations in specialized domains. We focused on the variations of the expression of relations, and how to represent them in a machine learning system. We studied the way to take into account syntactic structure of the sentence and the sentence simplification guided by the task of relation extraction. In particular, we developed a simplification method based on machine learning, which uses a series of classifiers.
66

Analyse de codes auto-modifiants pour la sécurité logicielle / Self-modifying code analysis for software security

Reynaud, Daniel 15 October 2010 (has links)
Les programmes auto-modifiants fonctionnent de manière singulière car ils sont capables de réécrire leur propre code en cours d'exécution. Absents des modèles de calcul théoriques, ils sont pourtant omniprésents dans les ordinateurs et les systèmes d'exploitations actuels. Ils sont en effet utilisés par les chargeurs d'amorçages, pour la compilation à la volée ou encore l'optimisation dynamique de code. Ils sont également omniprésents dans les programmes malveillants, dont les auteurs ont bien compris qu'ils constituaient des objets complexes à analyser. Ils sont également virtuellement présents dans tous les autres programmes mais de manière non-intentionnelle. En effet, on peut voir certaines classes de vulnérabilités, par exemple les failles par débordement de tampon, comme la possibilité d'exécuter accidentellement des données -- ce qui est un comportement caractéristique des programmes auto-modifiants.Au cours de cette thèse, nous avons proposé un modèle théorique permettant de caractériser un certain nombre de comportements auto-modifiants avancés. Nous avons également mis au point un prototype, TraceSurfer, permettant de détecter efficacement ces comportements à partir de l'analyse de traces et de les visualiser sous forme de graphes d'auto-référence. Enfin, nous avons validé par l'expérience à la fois le modèle théorique et l'outil en les testant sur un grand nombre de programmes malveillants / Self-modifying programs run in a very specific way: they are capable to rewrite their own code at runtime. Remarkably absent from theoretical computation models, they are present in every modern computer and operating system. Indeed, they are used by bootloaders, for just-in-time compilation or dynamic optimizations. They are also massively used by malware authors in order to bypass antivirus signatures and to delay analysis. Finally, they are unintentionally present in every program, since we can model code injection vulnerabilities (such as buffer overflows) as the ability for a program to accidentally execute data.In this thesis, we propose a formal framework in order to characterize advanced self-modifying behaviors and code armoring techniques. A prototype, TraceSurfer, allows us to detect these behaviors by using fine-grained execution traces and to visualize them as self-reference graphs. Finally, we assess the performance and efficiency of the tool by running it on a large corpus of malware samples
67

Evaluation et réduction des risques sismiques liés à la liquéfaction : modélisation numérique de leurs effets dans l’ISS / Assessment and mitigation of liquefaction seismic risk : numerical modeling of their effects on SSI

Montoya Noguera, Silvana 29 January 2016 (has links)
La liquéfaction des sols qui est déclenchée par des mouvements sismiques forts peut modifier la réponse d’un site. Ceci occasionne des dégâts importants dans les structures comme a été mis en évidence lors des tremblements de terre récents tels que celui de Christchurch, Nouvelle-Zélande et du Tohoku, Japon. L’évaluation du risque sismique des structures nécessite une modélisation robuste du comportement non linéaire de sols et de la prise en compte de l’interaction sol-structure (ISS). En général, le risque sismique est décrit comme la convolution entre l’aléa et la vulnérabilité du système. Cette thèse se pose comme une contribution à l’étude, via une modélisation numérique, de l’apparition de la liquéfaction et à l’utilisation des méthodes pour réduire les dommages induits.A cet effet, la méthode des éléments finis(FEM) dans le domaine temporel est utilisée comme outil numérique. Le modèle principal est composé d’un bâtiment fondé sur un sable liquéfiable. Comme la première étape de l’analyse du risque sismique, la première partie de cette thèse est consacrée à la caractérisation du comportement du sol et à sa modélisation.Une attention particulière est donnée à la sensibilité du modèle à des paramètres numériques. En suite, le modèle est validé pour le cas d’une propagation des ondes 1D avec les mesures issus du benchmark international PRENOLIN sur un site japonais. D’après la comparaison, le modèle arrive à prédire les enregistrements dans un test en aveugle.La deuxième partie, concerne la prise en compte dans la modélisation numérique du couplage de la surpression interstitielle (Δpw)et de la déformation du sol. Les effets favorables ou défavorables de ce type de modélisation ont été évalués sur le mouvement en surface du sol lors de la propagation des ondes et aussi sur le tassement et la performance sismique de deux structures.Cette partie contient des éléments d’un article publié dans Acta Geotechnica (Montoya-Noguera and Lopez-Caballero, 2016). Il a été trouvé que l’applicabilité du modèle dépend à la fois du niveau de liquéfaction et des effets d’ISS.Dans la dernière partie, une méthode est proposée pour modéliser la variabilité spatiale ajoutée au dépôt de sol dû à l’utilisation des techniques pour diminuer le degré de liquéfaction. Cette variabilité ajoutée peut différer considérablement de la variabilité inhérente ou naturelle. Dans cette thèse, elle sera modélisée par un champ aléatoire binaire.Pour évaluer l’efficience du mélange, la performance du système a été étudiée pour différents niveaux d’efficacité, c’est-à-dire,différentes fractions spatiales en allant de non traitées jusqu’à entièrement traitées. Tout d’abord le modèle binaire a été testé sur un cas simple, tel que la capacité portante d’une fondation superficielle sur un sol cohérent.Après, il a été utilisé dans le modèle de la structure sur le sol liquéfiable. Ce dernier cas,en partie, a été publié dans la revue GeoRisk (Montoya-Noguera and Lopez-Caballero,2015). En raison de l’interaction entre les deux types de sols du mélange, une importante variabilité est mise en évidence dans la réponse de la structure. En outre, des théories classiques et avancées d’homogénéisation ont été utilisées pour prédire la relation entre l’efficience moyenne et l’efficacité. En raison du comportement non linéaire du sol, les théories traditionnelles ne parviennent pas à prédire la réponse alors que certaines théories avancées qui comprennent la théorie de la percolation peuvent fournir une bonne estimation. En ce qui concerne l’effet de la variabilité spatiale ajoutée sur la diminution du tassement de la structure, différents séismes ont été testés et la réponse globale semble dépendre de leur rapport de PHV et PHA. / Strong ground motions can trigger soil liquefaction that will alter the propagating signal and induce ground failure. Important damage in structures and lifelines has been evidenced after recent earthquakes such as Christchurch, New Zealand and Tohoku, Japanin 2011. Accurate prediction of the structures’ seismic risk requires a careful modeling of the nonlinear behavior of soil-structure interaction (SSI) systems. In general, seismic risk analysisis described as the convolution between the natural hazard and the vulnerability of the system. This thesis arises as a contribution to the numerical modeling of liquefaction evaluation and mitigation.For this purpose, the finite element method (FEM) in time domain is used as numerical tool. The main numerical model consists of are inforced concrete building with a shallow rigid foundation standing on saturated cohesionless soil. As the initial step on the seismic risk analysis, the first part of the thesis is consecrated to the characterization of the soil behavior and its constitutive modeling. Later on, some results of the model’s validation witha real site for the 1D wave propagation in dry conditions are presented. These are issued from the participation in the international benchmark PRENOLIN and concern the PARI site Sendaiin Japan. Even though very few laboratory and in-situ data were available, the model responses well with the recordings for the blind prediction. The second part, concerns the numerical modeling of coupling excess pore pressure (Δpw) and soil deformation. The effects were evaluated on the ground motion and on the structure’s settlement and performance. This part contains material from an article published in Acta Geotechnica (Montoya-Noguera andLopez-Caballero, 2015). The applicability of the models was found to depend on both the liquefaction level and the SSI effects.In the last part, an innovative method is proposed to model spatial variability added to the deposit due to soil improvement techniques used to strengthen soft soils and mitigate liquefaction. Innovative treatment processes such as bentonite permeations and biogrouting,among others have recently emerged.However, there remains some uncertainties concerning the degree of spatial variability introduced in the design and its effect of the system’s performance.This added variability can differ significantly from the inherent or natural variability thus, in this thesis, it is modeled by coupling FEM with a binary random field. The efficiency in improving the soil behavior related to the effectiveness of the method measured by the amount of soil changed was analyzed. Two cases were studied: the bearing capacity of a shallow foundation under cohesive soil and the liquefaction-induced settlement of a structure under cohesionless loose soil. The latter, in part, contains material published in GeoRisk journal (Montoya-Noguera and Lopez-Caballero, 2015). Due to the interaction between the two soils, an important variability is evidenced in the response. Additionally, traditional and advanced homogenization theories were used to predict the relation between the average efficiency and effectiveness. Because of the nonlinear soil behavior, the traditional theories fail to predict the response while some advanced theories which include the percolation theory may provide a good estimate. Concerning the effect of added spatial variability on soil liquefaction, different input motions were tested and the response of the whole was found to depend on the ratio of PHV and PHA of the input motion.
68

Etude de turbocodes non binaires pour les futurs systèmes de communication et de diffusion / Study of non-binary turbo codes for future communication and broadcasting systems

Klaimi, Rami 03 July 2019 (has links)
Les systèmes de téléphonie mobile de 4ème et 5ème générations ont adopté comme techniques de codage de canal les turbocodes, les codes LDPC et les codes polaires binaires. Cependant, ces codes ne permettent pas de répondre aux exigences, en termes d’efficacité spectrale et de fiabilité, pour les réseaux de communications futurs (2030 et au-delà), qui devront supporter de nouvelles applications telles que les communications holographiques, les véhicules autonomes, l’internet tactile … Un premier pas a été fait il y a quelques années vers la définition de codes correcteurs d’erreurs plus puissants avec l’étude de codes LDPC non binaires, qui ont montré une meilleure performance que leurs équivalents binaires pour de petites tailles de code et/ou lorsqu'ils sont utilisés sur des canaux non binaires. En contrepartie, les codes LDPC non binaires présentent une complexité de décodage plus importante que leur équivalent binaire. Des études similaires ont commencé à émerger du côté des turbocodes. Tout comme pour leurs homologues LDPC, les turbocodes non binaires présentent d’excellentes performances pour de petites tailles de blocs. Du point de vue du décodage, les turbocodes non binaires sont confrontés au même problème d’augmentation de la complexité de traitement que les codes LDPC non binaire. Dans cette thèse nous avons proposé une nouvelle structure de turbocodes non binaires en optimisant les différents blocs qui la constituent. Nous avons réduit la complexité de ces codes grâce à la définition d’un algorithme de décodage simplifié. Les codes obtenus ont montré des performances intéressantes en comparaison avec les codes correcteur d’erreur de la littérature. / Nowadays communication standards have adopted different binary forward error correction codes. Turbo codes were adopted for the long term evolution standard, while binary LDPC codes were standardized for the fifth generation of mobile communication (5G) along side with the polar codes. Meanwhile, the focus of the communication community is shifted towards the requirement of beyond 5G standards. Networks for the year 2030 and beyond are expected to support novel forward-looking scenarios, such as holographic communications, autonomous vehicles, massive machine-type communications, tactile Internet… To respond to the expected requirements of new communication systems, non-binary LDPC codes were defined, and they are shown to achieve better error correcting performance than the binary LDPC codes. This performance gain was followed by a high decoding complexity, depending on the field order.Similar studies emerged in the context of turbo codes, where the non-binary turbo codes were defined, and have shown promising error correcting performance, while imposing high complexity. The aim of this thesis is to propose a new low-complex structure of non-binary turbocodes. The constituent blocks of this structure were optimized in this work, and a new low complexity decoding algorithm was proposed targeting a future hardware implementation. The obtained results are promising, where the proposed codes are shown to outperform existing binary and non-binary codes from the literature.
69

Synthèse optimisée sur les réseaux programmables de la famille Xilinx

Babba, Belgacem 20 June 1995 (has links) (PDF)
Cette thèse se situe dans le cadre de la synthèse logique. Elle a pour objet la synthèse logique optimisée de circuits sur réseaux programmables à base de «tables de vérité» de type «Xilinx». Ces réseaux programmables ont été à l'origine du premier succès commercial des réseaux reprogrammables à faible granularité. Une première solution pratiquée industriellement a consisté à associer une bibliothèque équivalente de primitives logiques simples de type «cellule standard» à un réseau Xilinx. Une telle approche conduit à une très pauvre utilisation de la technologie cible car elle ne tire pas profit de la richesse de la cellule de base. Cette thèse s'intéresse, en conséquence, à des approches plus ciblées. Il s'agit de décomposer de façon optimisée les parties combinatoires en sous-fonctions «saturant» les possibilités des cellules élémentaires. Pour ceci, le traitement des fonctions booléennes sera effectué dès l'étape de factorisation en fonction du but final. Après un rappel de la factorisation «lexicographique», qui a comme fondement l'existence d'un ordonnancement des entrées, une méthode de décomposition en sous fonctions de k variables est proposée. Elle sert de base à des méthodes de décomposition technologique pour les séries Xilinx 3000 et Xilinx 4000. Deux alternatives à cette factorisation lexicographique sont proposées, une factorisation utilisant une représentation par diagramme de décision binaire (ROBDD) et une factorisation algébrique classique adaptée aux caractéristiques de la cible Xilinx. La dernière étape de synthèse concerne de façon plus fine le regroupement des sous-fonctions dans la cellule physique Xilinx et se préoccupe de l'optimisation des points de mémorisation, des buffers et des ressources d'horloge. Une évaluation sur un ensemble d'exemples internationaux et industriels démontre l'efficacité des méthodes proposées. Ce travail a fait l'objet d'un transfert technologique vers le logiciel industriel ASYL+
70

Conception logique et topologique en technologie MOS

Thuau, Ghislaine 07 October 1983 (has links) (PDF)
La méthode de conception logique de cellules MOS tient compte des problèmes d'implantation (diffusion, dépôt métallique (AL) et masquage) en technologies NMOS et CMOS dans l'ordonnancement optimise des variables. La forme arborescente série-parallèle est simplifiée par compactage des transistors. Étapes de minimisation. Application aux portes complexes NMOS et CMOS et aux macro-cellules les utilisant pour des fonctions logiques. Fonctions réalisées en logique de transfert se prêtant à l'implantation automatisée. Application à la conception de circuits complexes : circuit d'extraction de racine carrée et multiplicateur. Problèmes de synchronisation et temporisation.

Page generated in 0.0258 seconds