• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 79
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 208
  • 52
  • 29
  • 27
  • 27
  • 26
  • 24
  • 22
  • 22
  • 21
  • 21
  • 19
  • 18
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Factor analysis of dynamic PET images

Cruz Cavalcanti, Yanna 31 October 2018 (has links)
La tomographie par émission de positrons (TEP) est une technique d'imagerie nucléaire noninvasive qui permet de quantifier les fonctions métaboliques des organes à partir de la diffusion d'un radiotraceur injecté dans le corps. Alors que l'imagerie statique est souvent utilisée afin d'obtenir une distribution spatiale de la concentration du traceur, une meilleure évaluation de la cinétique du traceur est obtenue par des acquisitions dynamiques. En ce sens, la TEP dynamique a suscité un intérêt croissant au cours des dernières années, puisqu'elle fournit des informations à la fois spatiales et temporelles sur la structure des prélèvements de traceurs en biologie \textit{in vivo}. Les techniques de quantification les plus efficaces en TEP dynamique nécessitent souvent une estimation de courbes temps-activité (CTA) de référence représentant les tissus ou une fonction d'entrée caractérisant le flux sanguin. Dans ce contexte, de nombreuses méthodes ont été développées pour réaliser une extraction non-invasive de la cinétique globale d'un traceur, appelée génériquement analyse factorielle. L'analyse factorielle est une technique d'apprentissage non-supervisée populaire pour identifier un modèle ayant une signification physique à partir de données multivariées. Elle consiste à décrire chaque voxel de l'image comme une combinaison de signatures élémentaires, appelées \textit{facteurs}, fournissant non seulement une CTA globale pour chaque tissu, mais aussi un ensemble des coefficients reliant chaque voxel à chaque CTA tissulaire. Parallèlement, le démélange - une instance particulière d'analyse factorielle - est un outil largement utilisé dans la littérature de l'imagerie hyperspectrale. En imagerie TEP dynamique, elle peut être très pertinente pour l'extraction des CTA, puisqu'elle prend directement en compte à la fois la non-négativité des données et la somme-à-une des proportions de facteurs, qui peuvent être estimées à partir de la diffusion du sang dans le plasma et les tissus. Inspiré par la littérature de démélange hyperspectral, ce manuscrit s'attaque à deux inconvénients majeurs des techniques générales d'analyse factorielle appliquées en TEP dynamique. Le premier est l'hypothèse que la réponse de chaque tissu à la distribution du traceur est spatialement homogène. Même si cette hypothèse d'homogénéité a prouvé son efficacité dans plusieurs études d'analyse factorielle, elle ne fournit pas toujours une description suffisante des données sousjacentes, en particulier lorsque des anomalies sont présentes. Pour faire face à cette limitation, les modèles proposés ici permettent un degré de liberté supplémentaire aux facteurs liés à la liaison spécifique. Dans ce but, une perturbation spatialement variante est introduite en complément d'une CTA nominale et commune. Cette variation est indexée spatialement et contrainte avec un dictionnaire, qui est soit préalablement appris ou explicitement modélisé par des non-linéarités convolutives affectant les tissus de liaisons non-spécifiques. Le deuxième inconvénient est lié à la distribution du bruit dans les images PET. Même si le processus de désintégration des positrons peut être décrit par une distribution de Poisson, le bruit résiduel dans les images TEP reconstruites ne peut généralement pas être simplement modélisé par des lois de Poisson ou gaussiennes. Nous proposons donc de considérer une fonction de coût générique, appelée $\beta$-divergence, capable de généraliser les fonctions de coût conventionnelles telles que la distance euclidienne, les divergences de Kullback-Leibler et Itakura-Saito, correspondant respectivement à des distributions gaussiennes, de Poisson et Gamma. Cette fonction de coût est appliquée à trois modèles d'analyse factorielle afin d'évaluer son impact sur des images TEP dynamiques avec différentes caractéristiques de reconstruction. / Thanks to its ability to evaluate metabolic functions in tissues from the temporal evolution of a previously injected radiotracer, dynamic positron emission tomography (PET) has become an ubiquitous analysis tool to quantify biological processes. Several quantification techniques from the PET imaging literature require a previous estimation of global time-activity curves (TACs) (herein called \textit{factors}) representing the concentration of tracer in a reference tissue or blood over time. To this end, factor analysis has often appeared as an unsupervised learning solution for the extraction of factors and their respective fractions in each voxel. Inspired by the hyperspectral unmixing literature, this manuscript addresses two main drawbacks of general factor analysis techniques applied to dynamic PET. The first one is the assumption that the elementary response of each tissue to tracer distribution is spatially homogeneous. Even though this homogeneity assumption has proven its effectiveness in several factor analysis studies, it may not always provide a sufficient description of the underlying data, in particular when abnormalities are present. To tackle this limitation, the models herein proposed introduce an additional degree of freedom to the factors related to specific binding. To this end, a spatially-variant perturbation affects a nominal and common TAC representative of the high-uptake tissue. This variation is spatially indexed and constrained with a dictionary that is either previously learned or explicitly modelled with convolutional nonlinearities affecting non-specific binding tissues. The second drawback is related to the noise distribution in PET images. Even though the positron decay process can be described by a Poisson distribution, the actual noise in reconstructed PET images is not expected to be simply described by Poisson or Gaussian distributions. Therefore, we propose to consider a popular and quite general loss function, called the $\beta$-divergence, that is able to generalize conventional loss functions such as the least-square distance, Kullback-Leibler and Itakura-Saito divergences, respectively corresponding to Gaussian, Poisson and Gamma distributions. This loss function is applied to three factor analysis models in order to evaluate its impact on dynamic PET images with different reconstruction characteristics.
112

Regret minimisation and system-efficiency in route choice / Minimização de Regret e eficiência do sistema em escala de rotas

Ramos, Gabriel de Oliveira January 2018 (has links)
Aprendizagem por reforço multiagente (do inglês, MARL) é uma tarefa desafiadora em que agentes buscam, concorrentemente, uma política capaz de maximizar sua utilidade. Aprender neste tipo de cenário é difícil porque os agentes devem se adaptar uns aos outros, tornando o objetivo um alvo em movimento. Consequentemente, não existem garantias de convergência para problemas de MARL em geral. Esta tese explora um problema em particular, denominado escolha de rotas (onde motoristas egoístas deve escolher rotas que minimizem seus custos de viagem), em busca de garantias de convergência. Em particular, esta tese busca garantir a convergência de algoritmos de MARL para o equilíbrio dos usuários (onde nenhum motorista consegue melhorar seu desempenho mudando de rota) e para o ótimo do sistema (onde o tempo médio de viagem é mínimo). O principal objetivo desta tese é mostrar que, no contexto de escolha de rotas, é possível garantir a convergência de algoritmos de MARL sob certas condições. Primeiramente, introduzimos uma algoritmo de aprendizagem por reforço baseado em minimização de arrependimento, o qual provamos ser capaz de convergir para o equilíbrio dos usuários Nosso algoritmo estima o arrependimento associado com as ações dos agentes e usa tal informação como sinal de reforço dos agentes. Além do mais, estabelecemos um limite superior no arrependimento dos agentes. Em seguida, estendemos o referido algoritmo para lidar com informações não-locais, fornecidas por um serviço de navegação. Ao usar tais informações, os agentes são capazes de estimar melhor o arrependimento de suas ações, o que melhora seu desempenho. Finalmente, de modo a mitigar os efeitos do egoísmo dos agentes, propomos ainda um método genérico de pedágios baseados em custos marginais, onde os agentes são cobrados proporcionalmente ao custo imposto por eles aos demais. Neste sentido, apresentamos ainda um algoritmo de aprendizagem por reforço baseado em pedágios que, provamos, converge para o ótimo do sistema e é mais justo que outros existentes na literatura. / Multiagent reinforcement learning (MARL) is a challenging task, where self-interested agents concurrently learn a policy that maximise their utilities. Learning here is difficult because agents must adapt to each other, which makes their objective a moving target. As a side effect, no convergence guarantees exist for the general MARL setting. This thesis exploits a particular MARL problem, namely route choice (where selfish drivers aim at choosing routes that minimise their travel costs), to deliver convergence guarantees. We are particularly interested in guaranteeing convergence to two fundamental solution concepts: the user equilibrium (UE, when no agent benefits from unilaterally changing its route) and the system optimum (SO, when average travel time is minimum). The main goal of this thesis is to show that, in the context of route choice, MARL can be guaranteed to converge to the UE as well as to the SO upon certain conditions. Firstly, we introduce a regret-minimising Q-learning algorithm, which we prove that converges to the UE. Our algorithm works by estimating the regret associated with agents’ actions and using such information as reinforcement signal for updating the corresponding Q-values. We also establish a bound on the agents’ regret. We then extend this algorithm to deal with non-local information provided by a navigation service. Using such information, agents can improve their regrets estimates, thus performing empirically better. Finally, in order to mitigate the effects of selfishness, we also present a generalised marginal-cost tolling scheme in which drivers are charged proportional to the cost imposed on others. We then devise a toll-based Q-learning algorithm, which we prove that converges to the SO and that is fairer than existing tolling schemes.
113

Étude d’algorithmes de restauration d’images sismiques par optimisation de forme non linéaire et application à la reconstruction sédimentaire. / Seismic images restoration using non linear optimization and application to the sedimentary reconstruction.

Gilardet, Mathieu 19 December 2013 (has links)
Nous présentons une nouvelle méthode pour la restauration d'images sismiques. Quand on l'observe, une image sismique est le résultat d'un système de dépôt initial qui a été transformé par un ensemble de déformations géologiques successives (flexions, glissement de la faille, etc) qui se sont produites sur une grande période de temps. L'objectif de la restauration sismique consiste à inverser les déformations pour fournir une image résultante qui représente le système de dépôt géologique tel qu'il était dans un état antérieur. Classiquement, ce procédé permet de tester la cohérence des hypothèses d'interprétations formulées par les géophysiciens sur les images initiales. Dans notre contribution, nous fournissons un outil qui permet de générer rapidement des images restaurées et qui aide donc les géophysiciens à reconnaître et identifier les caractéristiques géologiques qui peuvent être très fortement modifiées et donc difficilement identifiables dans l'image observée d'origine. Cette application permet alors d'assister ces géophysiciens pour la formulation d'hypothèses d'interprétation des images sismiques. L'approche que nous introduisons est basée sur un processus de minimisation qui exprime les déformations géologiques en termes de contraintes géométriques. Nous utilisons une approche itérative de Gauss-Newton qui converge rapidement pour résoudre le système. Dans une deuxième partie de notre travail nous montrons différents résultats obtenus dans des cas concrets afin d'illustrer le processus de restauration d'image sismique sur des données réelles et de montrer comment la version restaurée peut être utilisée dans un cadre d'interprétation géologique. / We present a new method for seismic image restoration. When observed, a seismic image is the result of an initial deposit system that has been transformed by a set of successive geological deformations (folding, fault slip, etc) that occurred over a large period of time. The goal of seismic restoration consists in inverting the deformations to provide a resulting image that depicts the geological deposit system as it was in a previous state. With our contribution, providing a tool that quickly generates restored images helps the geophysicists to recognize geological features that may be too strongly altered in the observed image. The proposed approach is based on a minimization process that expresses geological deformations in terms of geometrical constraints. We use a quickly-converging Gauss-Newton approach to solve the system. We provide results to illustrate the seismic image restoration process on real data and present how the restored version can be used in a geological interpretation framework.
114

Construction automatique d'images de pseudo-âges géologiques à partir d'images sismiques par minimisation d'énergie / Automatic construction of relative geologic time images from seismic images by energy minimization

Mounirou Arouna Lukman, Moctar 26 November 2018 (has links)
A partir d’un ensemble de données interprétées et issues d’une analyse préalable par un opérateur expert (horizons, failles), l’objectif de la thèse est de proposer une segmentation d’une image sismique sous-jacente en parfaite cohérence avec les lois de la géologie. L’originalité de la démarche consistera à développer des techniques de segmentation d’images sismiques, entre autres basées sur des approches de type contours actifs, contraintes par des données interprétées en supplément de propriétés intrinsèques calculées par des procédés automatiques à partir de la donnée traitée sans nécessiter une quelconque supervision contrairement aux travaux existants. Un deuxième axe consistera à ordonnancer automatiquement les horizons (surfaces) interprétés et analyser finement chaque intervalle (le lieu existant entre deux horizons), en prenant en compte son contenu (amplitude, orientation, etc.). Tout cela aboutissant à la reconstruction du pseudo-temps géologique. / The objective of the thesis is to propose a segmentation of an underlying seismic image in perfect coherence with the results of a preliminary analysis by an expert (horizons, faults). laws of geology. The originality of the approach will be to develop techniques for segmenting seismic images, among others based on active contour type approaches, constrained by data interpreted in addition to intrinsic properties calculated by automatic processes from the data processed without requiring any supervision in contrast to existing work. A second axis will be to automatically schedule the horizons (surfaces) interpreted and to analyze each interval (the place between two horizons) finely, taking into account its content (amplitude, orientation, etc.). All this resulted in the reconstruction of the geological pseudo-time.
115

Impact of low carbon technologies on the British wholesale electricity market

Lupo, Zoya Sara January 2018 (has links)
Since the late 1980s, the energy sector in Great Britain has undergone some core changes in its functionality; beginning with the early 1990s privatisation, followed by an increased green ambition, and commencing a transition towards a low-carbon economy. As the British energy sector prepares itself for another major overhaul, it also puts itself at risk for not being sufficiently prepared for the consequences this transition will have on the existing generating capacity, security of supply, and the national electricity market. Upon meeting existing targets, the government of the United Kingdom risks becoming complacent, putting energy regulation to the backseat and focusing on other regulatory tasks, while introducing cuts for thriving renewable and other low-carbon energy generating technologies. The government has implemented a variety of directives, initiatives, and policies that have sometimes been criticised due to their lack of clarity and potential overlap between energy and climate change directives. The government has introduced policies that aim to provide stable short-term solutions. However, a concrete way of resolving the energy trilemma and some of the long-term objectives and more importantly ways of achieving them are yet to be developed. This work builds on analysing each low-carbon technology individually by assessing its past and current state in the British energy mix. By accounting for the changes and progress the technology underwent in its journey towards becoming a part of the energy capacity in Great Britain, its impact on the future wholesale electricity prices is studied. Research covered in this thesis presents an assessment of the existing and incoming low-carbon technologies in Great Britain and their individual and combined impact on the future of British energy economics by studying their implications for the electricity market. The methodological framework presented here uses a cost-minimisation merit order model to provide useful insights for novel methods of electricity production and conventional thermal energy generation to aid with the aftermath of potential inadequate operational and fiscal flexibility. The thesis covers a variety of scenarios differing in renewable and thermal penetration and examines the impact of interconnection, energy storage, and demand side management on the British wholesale electricity prices. The implications of increasing low-carbon capacity in the British energy mix are examined and compared to similar developments across Europe. The analysis highlights that if the optimistic scenarios in terms of green energy installation are followed, there is sufficient energy supply, which results in renewable resources helping to keep the wholesale price of electricity down. However, if the desired capacity targets are not met, the lack of available supply could result in wholesale prices going up, especially in the case of a natural gas price increase. Although initially costly, the modernisation of the British grid leads to a long-term decrease in wholesale electricity prices and provides a greater degree of security of supply and flexibility for all market participants.
116

Learning methods for digital imaging / Méthodes d'apprentissage pour l'imagerie numérique

Amba, Prakhar 03 May 2018 (has links)
Pour produire des images couleurs nous devons obtenir l'information relative aux trois couleurs primaires (généralement Rouge, Vert et Bleu) à chaque pixels de l'image. Pour capturer cette information la plupart des caméras numériques utilisent une matrice de filtres couleurs (CFA – Color Filter Array en anglais), c'est-à-dire qu'une mosaïque de couleurs recouvre le capteur de manière à ce qu'une seule couleur soit mesurée à chaque position dans l'image.Cette méthode de mesure est similaire à celle du système visuel humain (HVS – Human Visual System en anglais) pour lequel les cônes LMS (sensibles aux longues L, moyenne M et courte S (short en anglais)) forment également une mosaïque à la surface de la rétine. Pour le système visuel, l'arrangement est aléatoire et change entre les individus alors que pour les caméras nous utilisons des arrangements réguliers. Dans les caméras, on doit interpoler les couleurs manquantes pour retrouver une image couleur totalement résolue, méthode appelée démosaïçage. A cause de l'arrangement régulier ou périodique des filtres couleurs, l'image démosaïçée peut faire apparaître des fausses couleurs ou des artefacts. Dans la littérature, les algorithmes de démosaïçage adressent principalement les mosaïques régulières.Dans cette thèse, nous proposons un algorithme de démosaïçage par apprentissage statistique, qui peut être utilisé avec n’importe quelle mosaïque régulière ou aléatoire. De plus, nous optimisons l’arrangement des couleurs dans la mosaïque et proposons des mosaïques qui, avec notre méthode, offrent des performances supérieures aux meilleures méthodes appliquées aux mosaïques régulières. Les images démosaïçées à partir de ces mosaïques ne présentent pas de fausses couleurs ou artefacts.Nous avons étendu l’algorithme pour qu’il ne soit pas limité à trois couleurs mais puisse être utilisé pour un arrangement aléatoire d’un nombre quelconque de filtres spectraux. Avoir plus de trois couleurs permet non seulement de mieux représenter les images mais aussi de mesurer des signatures spectrales de la scène. Ces mosaïques sont appelées matrice de filtres spectraux (SFA – Spectral Filter Array en anglais). Les technologies récentes nous offrent une grande flexibilité pour définir les filtres spectraux et par démosaïçage nous pouvons obtenir des couleurs plus justes et une estimation de la radiance spectrale de la scène. Le substrat silicium dans lequel les photodiodes du capteur sont réalisées est sensible aux radiations proche infra-rouge et donc des filtres visibles et proche infra-rouge peuvent-être combinés dans la même mosaïque. Cette combinaison est particulièrement utile pour le nouveau challenge des caméras numérique d’obtenir des images couleurs en vision de nuit à basse lumière.Nous démontrons l'application de notre algorithme pour plusieurs exemples de cameras récentes équipées d'une matrice de filtres spectraux. Nous montrons que notre méthode est plus performante que les algorithmes actuels en terme de qualité d'image et de vitesse de calcul. Nous proposons également d'optimiser les transmissions des filtres et leur arrangement pour améliorer les résultats selon des métriques ou applications choisies.La méthode, basée sur la minimisation de l'erreur quadratique moyenne est linéaire et par conséquent rapide et applicable en temps réel. Finalement, pour défier la nature linéaire de notre algorithme, nous proposons un deuxième algorithme de démosaïçage par réseaux de neurones qui à des performances légèrement meilleures mais pour un coût de calcul supérieur. / To produce color images we need information of three primary colors (notably Red, Green and Blue) at each pixel point. To capture this information most digital cameras utilize a Color Filter Array (CFA), i.e. a mosaic arrangement of these colors is overlaid on the sensor such that only one color is sampled at one pixel.This arrangement is similar to the Human Visual System (HVS) wherein a mosaic of LMS cones (for sensitivity to Long, Medium and Short wavelength) forms the surface of the retina. For HVS, the arrangement is random and differs between individuals, whereas for cameras we use a regular arrangement of color filters. For digital cameras one needs to interpolate the missing colors to recover the full color image and this process is known as demosaicing. Due to regular or periodic arrangement of color filters the output demosaiced image is susceptible to false colors and artifacts. In literature, the demosaicing algorithms proposed so far cater mainly to regular CFAs.In this thesis, we propose an algorithm for demosaicing which can be used to demosaic any random or regular CFA by learning statistics of an image database. Further, we optimize and propose CFAs such that they outperform even the state of art algorithms on regular CFAs. At the same time the demosaiced images from proposed CFAs are free from false colors and artifacts.We extend our algorithm such that it is not limited to only three colors but can be used for any random arrangement of any number of spectral filters. Having more than three colors allows us to not only record an image but to record a spectral signature of the scene. These mosaics are known as Spectral Filter Arrays (SFAs). Recent technological advances give us greater flexibility in designing the spectral filters and by demosaicing them we can get more accurate colors and also do estimation of spectral radiance of the scene. We know that silicon is inherently sensitive to Near-Infrared radiation and therefore both Visible and NIR filters can be combined on the same mosaic. This is useful for low light night vision cameras which is a new challenge in digital imaging.We demonstrate the applicability of our algorithm on several state of the art cameras using these novel SFAs. In this thesis, we demonstrate that our method outperforms the state of art algorithms in image quality and computational efficiency. We propose a method to optimize filters and their arrangement such that it gives best results depending on metrics and application chosen.The method based on minimization of mean square error is linear in nature and therefore very fast and suitable for real time applications. Finally to challenge the linear nature of LMMSE we propose a demosaicing algorithm using Neural Networks training on a small database of images which is slightly better than the linear demosaicing however, it is computationally more expensive.
117

Problèmes de multiflots : état de l'art et approche par décomposition décentralisée du biflot entier de coût minimum

Rezig, Wafa 23 November 1995 (has links) (PDF)
Nous considèrerons ici les modèles linéaires de multiflots, en mettant l'accent sur leurs multiples applications, notamment dans les domaines de l'ordonnancement et de la gestion de production. Il est bien connu que ces problèmes, présentés sous forme de programmes linéaires, sont difficiles à résoudre, contrairement à leurs homologues en flot simple. Les méthodes de résolution classiques proposent, déjà dans le cas continu, des solutions approchées. On distingue: les méthodes de décomposition par les prix, par les ressources, ainsi que les techniques de partitionnement. Si l'on rajoute la contrainte d'intégralité sur les flots, ces problèmes deviennent extrêmement difficiles. Nous nous sommes intéressés à un cas particulier des problèmes de multiflots, à savoir: le biflot entier de coût minimum. Nous avons développé une approche de résolution heuristique basée sur un principe de décomposition mixte, opérant itérativement, à la fois par une allocation de ressources et par un ajustement des coûts. L'implémentation de cette approche met en évidence des résultats prometteurs, obtenus sur des problèmes de biflot purs, générés aléatoirement. Nous avons donc envisagé une deuxième application sur des problèmes de biflot plus structurés. Ces problèmes de biflot ont été proposés pour la modélisation du problème de voyageur de commerce. Cette application débouche d'une part, sur l'utilisation d'un algorithme de recherche d'un circuit hamiltonien dans un graphe, et d'autre part, sur le développement de techniques heuristiques pour la construction de tournées intéressantes
118

Modélisation mathématique et numérique de mouvements de foule

Venel, Juliette 27 November 2008 (has links) (PDF)
Nous nous intéressons à la modélisation des mouvements de foule causés par des situations d'évacuation d'urgence. L'objectif de cette thèse est de proposer un modèle mathématique et une méthode numérique de gestion des contacts, afin de traiter les interactions locales entre les personnes pour finalement mieux rendre compte de la dynamique globale du trafic piétonnier. Nous proposons un modèle microscopique de mouvements de foule reposant sur deux principes. D'une part, chaque personne a une vitesse souhaitée, celle qu'elle aurait en l'absence des autres. D'autre part, la vitesse réelle des individus prend en compte une certaine contrainte d'encombrement maximal. En précisant le lien entre ces deux vitesses, le problème d'évolution prend la forme d'une inclusion différentielle du premier ordre. Son caractère bien posé est démontré en utilisant des résultats sur les processus de rafle par des ensembles uniformément prox-réguliers. Ensuite, nous présentons un schéma numérique et démontrons sa convergence. Pour calculer une vitesse souhaitée particulière (celle dirigée par le plus court chemin évitant les obstacles), nous présentons une programmation orientée objet ayant pour but de simuler l'évacuation d'une structure de plusieurs étages présentant une géométrie quelconque. Nous finissons avec d'autres choix de vitesse souhaitée (par exemple, en ajoutant des stratégies individuelles) et présentons les résultats numériques associés. Ces simulations numériques permettent de retrouver certains phénomènes observés lors de déplacements piétonniers.
119

Etude d'une classe d'algorithmes d'optimisation non convexe : implémentation et applications

Chaarani, Jamal 04 July 1989 (has links) (PDF)
Sont concernes les problèmes d'optimisation non convexe et non différentiable du type d.c canonique. L'aspect théorique et l'aspect algorithmique sont abordés
120

Nouvelles méthodes de synthèse logique

Sicard, Pascal 02 September 1988 (has links) (PDF)
Recherche de nouvelles méthodes de synthèse logique sur différentes cibles technologiques: PLA détaillé libre et PLD de type PAL. Une méthode originale de minimisation deux couches d'un ensemble de fonctions booléennes sur une cible de type PLA libre est étudiée. Une méthode de synthèse sur les réseaux programmables de type PAL, dont les dimensions et les structures sont figées, est aussi proposée

Page generated in 0.1211 seconds