91 |
Modélisation et simulation d'un réseau de neurones formels : implantation sur machine parallèle "hypercube FPS T-40Benaouda, Djamel 29 January 1992 (has links) (PDF)
Cette thèse consiste a modéliser un réseau neuronal situe en aval de la cochlee, qui constitue les premières couches de traitement des signaux de la parole issus du système auditif périphérique. Le cadre général du travail présente concerne la modélisation mathématique du réseau de neurones en question, la description de la machine massivement parallèle hypercube FPS T-40 utilisée comme outil de nos simulations, l'implantation du modèle neuronal sur cette machine parallèle et enfin les réalisations et interprétations de résultats de simulation. Ces travaux sont présentés en quatre chapitres comme suit: le premier chapitre s'inscrit dans le cadre général des réseaux de neurones, en commençant par les premiers modèles fondes sur des réseaux dits d'automates a seuil conçus par W. S. Mcculloch et W. Pitts des 1943, des réseaux d'automates cellulaires conçus par J. Von Neumann des 1948, etc... Le deuxième chapitre introduit la mesure de Gibbs, champs aléatoires et modèles de réseaux (déterministes et stochastiques). Puis, il présente l'étude du probleme d'ergodicité des réseaux de neurones probabilistes. Le troisième chapitre concerne l'environnement technique ou nos simulations de réseaux de neurones ont été effectuées. Il consiste en une description générale du principe du parallélisme et en une présentation détaillée de la machine massivement parallèle hypercube FPS T-40. Enfin, le quatrième chapitre comprend l'implantation de l'algorithme du réseau de neurones sur la machine massivement parallèle hypercube FPS T-40, l'expérimentation numérique et l'interprétation des résultats numériques. Ensuite, on a représente graphiquement ces résultats, a l'aide de mesures statistiques adéquates résumant le comportement dynamique du réseau, sur station de travail vinix (ordinateur spécialisé dans le traitement d'images)
|
92 |
Méthodes de synthèse optimisée pour compilateurs de siliciumPoirot, Franck 03 July 1990 (has links) (PDF)
La synthèse logique joue un rôle fondamental dans les compilateurs de silicium. Alors que l'état de l'art de la synthèse deux couches est très avance, celui de la synthèse multi-couches reste encore un sujet très ouvert. L'objet de cette thèse est de présenter des méthodes originales de synthèse de contrôleurs et de systèmes combinatoires pour une implémentation multi-couches a base de cellules de bibliothèque. Le premier chapitre définit le concept de compilation de silicium et introduit l'une de ses composantes, la synthèse logique. L'importance du marche de la synthèse logique y est clairement définie ainsi que ses implications dans la conception actuelle de circuits intégrés. Le deuxième chapitre concerne la synthèse de contrôleurs. Le probleme du codage des machines d'états fini est traite en détail et une methode basée sur la théorie d'immersion de cubes intersectant dans un hypercube booléen est proposée. Le troisième chapitre est consacre a la synthèse de circuits combinatoires et une methode d'optimisation temporelle de tels dispositifs est développée. Ces travaux ont été implémentés dans un environnement industriel
|
93 |
Réseaux multicouches de neurones artificiels : algorithmes d'apprentissage, implantations sur hypercube : applicationsWang, Shengrui 26 September 1989 (has links) (PDF)
En adoptant une methode générale de distribution du réseau de cellules, sont proposes des algorithmes de communication sur un anneau et sur un hypercube qui résolvent les problèmes de multi-accumulation et de diffusion all-to-all. Il est montre, de plus, que ces algorithmes sont asymptotiquement optimaux. La simulation de l'identification des visages en contexte présentée constitue une tentative d'utilisation du modèle connexioniste comme nouveau paradigme pour modéliser des phénomènes cognitifs. Par ailleurs, l'application des réseaux multicouches a la reconnaissance de mots met en valeur l'intérêt de l'architecture a connexions partielles et superposées pour traiter des informations temporelles
|
94 |
Algorithmique parallèle pour les machines à mémoire distribuées (applications aux algorithmes matriciels)Tourancheau, Bernard 20 February 1989 (has links) (PDF)
Différents résultats de complexité sont présentés pour les communications et le calcul sur des machines à mémoire distribuée. Les topologies concernées sont le réseau linéaire, l'anneau, la grille, l'hypercube et le réseau complet. Un réseau systolique est présenté pour l'algorithme de diagonalisation de Jordan. Une étude sur l'accélération et une étude de l'allocation des données sont formulées dans le contexte des mémoires distribuées
|
95 |
Structure et comportement itératif de certains modèles discretsSnoussi, El Houssine 11 June 1980 (has links) (PDF)
.
|
96 |
Statistiques et réseaux de neurones pour un système de diagnostic : application au diagnostic de pannes automobilesPoulard, Hervé 09 May 1996 (has links) (PDF)
Ce travail a été réalisé dans le cadre d'une convention CIFRE entre le LAAS-CNRS et la société ACTIA qui développe des outils d'aide au diagnostic de pannes automobiles. Le but était l'utilisation des réseaux de neurones artificiels pour la conception d'une nouvelle méthode de diagnostic de pannes automobiles sans modèle, ni information symbolique mais avec seulement des observations du système en bon et en mauvais fonctionnement. C'est donc une approche du diagnostic de système complexe par reconnaissance de formes. Après avoir mis au point le système d'acquisition, nous avons conçu une première maquette qui a démontré la faisabilité d'un tel système et l'intérêt des réseaux de neurones, mais qui a soulevé de nombreux problèmes. L'utilisation particulière des réseaux de neurones dans cette application a nécessité l'usage d'algorithmes de construction. Après une étude théorique des structures de l'hypercube qui n'a pas abouti à un algorithme de construction mais qui a fourni plusieurs résultats, nous avons développé une famille d'algorithmes pour la construction des réseaux de neurones binaires. La base de ces outils est une nouvelle méthode d'apprentissage d'unités à seuil très performante dénommée Barycentric Correction Procedure (BCP). L'aboutissement est un algorithme novateur car très général (entrées quelconques et sorties multiples), rapide et avec un bon pouvoir de généralisation. Nous avons finalement mis au point une nouvelle méthodologie de diagnostic, dans laquelle l'utilisation de méthodes statistiques et d'analyse de données en collaboration avec les réseaux neuronaux paru nécessaire. Cette méthodologie utilise donc des techniques très diverses : analyse en composantes principales, estimation de densité de probabilité, classification automatique, calcul d'enveloppes convexes, génération géométrique de bases d'apprentissage, construction de réseaux de neurones binaires, réseaux de neurones gaussiens et méthodes de diagnostic simples. Cette méthodologie a été appliquée avec succès au problème de la détection de pannes automobiles et a aussi montré des potentialités pour le diagnostic préventif. Elle est de plus assez générique pour avoir de nombreuses applications potentielles.
|
97 |
Hypercube coloring and the structure of binary codesRix, James Gregory 11 1900 (has links)
A coloring of a graph is an assignment of colors to its vertices so that no
two adjacent vertices are given the same color. The chromatic number of a
graph is the least number of colors needed to color all of its vertices. Graph
coloring problems can be applied to many real world applications, such as
scheduling and register allocation. Computationally, the decision problem
of whether a general graph is m-colorable is NP-complete for m ≥ 3.
The graph studied in this thesis is a well-known combinatorial object,
the k-dimensional hypercube, Qk. The hypercube itself is 2-colorable for all
k; however, coloring the square of the cube is a much more interesting problem.
This is the graph in which the vertices are binary vectors of length k,
and two vertices are adjacent if and only if the Hamming distance between
the two vectors is at most 2.
Any color class in a coloring of Q2k is a binary (k;M, 3) code. This thesis
will begin with an introduction to binary codes and their structure. One
of the most fundamental combinatorial problems is finding optimal binary
codes, that is, binary codes with the maximum cardinality satisfying a specified
length and minimum distance. Many upper and lower bounds have
been produced, and we will analyze and apply several of these. This leads
to many interesting results about the chromatic number of the square of the
cube.
The smallest k for which the chromatic number of Q2k is unknown is
k = 8; however, it can be determined that this value is either 13 or 14.
Computational approaches to determine the chromatic number of Q28 were
performed. We were unable to determine whether 13 or 14 is the true value;
however, much valuable insight was learned about the structure of this graph
and the computational difficulty that lies within. Since a 13-coloring of Q28
must have between 9 and 12 color classes being (8; 20; 3) binary codes, this
led to a thorough investigation of the structure of such binary codes.
|
98 |
Statistical Yield Analysis and Design for Nanometer VLSIJaffari, Javid January 2010 (has links)
Process variability is the pivotal factor impacting the design of high yield integrated circuits and systems in deep sub-micron CMOS technologies. The electrical and physical properties of transistors and interconnects, the building blocks of integrated circuits, are prone to significant variations that directly impact the performance and power consumption of the fabricated devices, severely impacting the manufacturing yield. However, the large number of the transistors on a single chip adds even more challenges for the analysis of the variation effects, a critical task in diagnosing the cause of failure and designing for yield. Reliable and efficient statistical analysis methodologies in various design phases are key to predict the yield before entering such an expensive fabrication process.
In this thesis, the impacts of process variations are examined at three different levels: device, circuit, and micro-architecture. The variation models are provided for each level of abstraction, and new methodologies are proposed for efficient statistical analysis and design under variation.
At the circuit level, the variability analysis of three crucial sub-blocks of today's system-on-chips, namely, digital circuits, memory cells, and analog blocks, are targeted. The accurate and efficient yield analysis of circuits is recognized as an extremely challenging task within the electronic design automation community. The large scale of the digital circuits, the extremely high yield requirement for memory cells, and the time-consuming analog circuit simulation are major concerns in the development of any statistical analysis technique. In this thesis, several sampling-based methods have been proposed for these three types of circuits to significantly improve the run-time of the traditional Monte Carlo method, without compromising accuracy. The proposed sampling-based yield analysis methods benefit from the very appealing feature of the MC method, that is, the capability to consider any complex circuit model. However, through the use and engineering of advanced variance reduction and sampling methods, ultra-fast yield estimation solutions are provided for different types of VLSI circuits. Such methods include control variate, importance sampling, correlation-controlled Latin Hypercube Sampling, and Quasi Monte Carlo.
At the device level, a methodology is proposed which introduces a variation-aware design perspective for designing MOS devices in aggressively scaled geometries. The method introduces a yield measure at the device level which targets the saturation and leakage currents of an MOS transistor. A statistical method is developed to optimize the advanced doping profiles and geometry features of a device for achieving a maximum device-level yield.
Finally, a statistical thermal analysis framework is proposed. It accounts for the process and thermal variations simultaneously, at the micro-architectural level. The analyzer is developed, based on the fact that the process variations lead to uncertain leakage power sources, so that the thermal profile, itself, would have a probabilistic nature. Therefore, by a co-process-thermal-leakage analysis, a more reliable full-chip statistical leakage power yield is calculated.
|
99 |
Coupled flow systems, adjoint techniques and uncertainty quantificationGarg, Vikram Vinod, 1985- 25 October 2012 (has links)
Coupled systems are ubiquitous in modern engineering and science. Such systems can encompass fluid dynamics, structural mechanics, chemical species transport and electrostatic effects among other components, all of which can be coupled in many different ways. In addition, such models are usually multiscale, making their numerical simulation challenging, and necessitating the use of adaptive modeling techniques. The multiscale, multiphysics models of electrosomotic flow (EOF) constitute a particularly challenging coupled flow system. A special feature of such models is that the coupling between the electric physics and hydrodynamics is via the boundary. Numerical simulations of coupled systems are typically targeted towards specific Quantities of Interest (QoIs). Adjoint-based approaches offer the possibility of QoI targeted adaptive mesh refinement and efficient parameter sensitivity analysis. The formulation of appropriate adjoint problems for EOF models is particularly challenging, due to the coupling of physics via the boundary as opposed to the interior of the domain. The well-posedness of the adjoint problem for such models is also non-trivial. One contribution of this dissertation is the derivation of an appropriate adjoint problem for slip EOF models, and the development of penalty-based, adjoint-consistent variational formulations of these models. We demonstrate the use of these formulations in the simulation of EOF flows in straight and T-shaped microchannels, in conjunction with goal-oriented mesh refinement and adjoint sensitivity analysis. Complex computational models may exhibit uncertain behavior due to various reasons, ranging from uncertainty in experimentally measured model parameters to imperfections in device geometry. The last decade has seen a growing interest in the field of Uncertainty Quantification (UQ), which seeks to determine the effect of input uncertainties on the system QoIs. Monte Carlo methods remain a popular computational approach for UQ due to their ease of use and "embarassingly parallel" nature. However, a major drawback of such methods is their slow convergence rate. The second contribution of this work is the introduction of a new Monte Carlo method which utilizes local sensitivity information to build accurate surrogate models. This new method, called the Local Sensitivity Derivative Enhanced Monte Carlo (LSDEMC) method can converge at a faster rate than plain Monte Carlo, especially for problems with a low to moderate number of uncertain parameters. Adjoint-based sensitivity analysis methods enable the computation of sensitivity derivatives at virtually no extra cost after the forward solve. Thus, the LSDEMC method, in conjuction with adjoint sensitivity derivative techniques can offer a robust and efficient alternative for UQ of complex systems. The efficiency of Monte Carlo methods can be further enhanced by using stratified sampling schemes such as Latin Hypercube Sampling (LHS). However, the non-incremental nature of LHS has been identified as one of the main obstacles in its application to certain classes of complex physical systems. Current incremental LHS strategies restrict the user to at least doubling the size of an existing LHS set to retain the convergence properties of LHS. The third contribution of this research is the development of a new Hierachical LHS algorithm, that creates designs which can be used to perform LHS studies in a more flexibly incremental setting, taking a step towards adaptive LHS methods. / text
|
100 |
Hypercube coloring and the structure of binary codesRix, James Gregory 11 1900 (has links)
A coloring of a graph is an assignment of colors to its vertices so that no
two adjacent vertices are given the same color. The chromatic number of a
graph is the least number of colors needed to color all of its vertices. Graph
coloring problems can be applied to many real world applications, such as
scheduling and register allocation. Computationally, the decision problem
of whether a general graph is m-colorable is NP-complete for m ≥ 3.
The graph studied in this thesis is a well-known combinatorial object,
the k-dimensional hypercube, Qk. The hypercube itself is 2-colorable for all
k; however, coloring the square of the cube is a much more interesting problem.
This is the graph in which the vertices are binary vectors of length k,
and two vertices are adjacent if and only if the Hamming distance between
the two vectors is at most 2.
Any color class in a coloring of Q2k is a binary (k;M, 3) code. This thesis
will begin with an introduction to binary codes and their structure. One
of the most fundamental combinatorial problems is finding optimal binary
codes, that is, binary codes with the maximum cardinality satisfying a specified
length and minimum distance. Many upper and lower bounds have
been produced, and we will analyze and apply several of these. This leads
to many interesting results about the chromatic number of the square of the
cube.
The smallest k for which the chromatic number of Q2k is unknown is
k = 8; however, it can be determined that this value is either 13 or 14.
Computational approaches to determine the chromatic number of Q28 were
performed. We were unable to determine whether 13 or 14 is the true value;
however, much valuable insight was learned about the structure of this graph
and the computational difficulty that lies within. Since a 13-coloring of Q28
must have between 9 and 12 color classes being (8; 20; 3) binary codes, this
led to a thorough investigation of the structure of such binary codes.
|
Page generated in 0.0397 seconds