• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 32
  • 4
  • 2
  • 1
  • Tagged with
  • 81
  • 43
  • 21
  • 19
  • 17
  • 17
  • 14
  • 14
  • 13
  • 12
  • 10
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Contributions to arithmetic complexity and compression / Contributions à la complexité arithmétique et à la compression

Lagarde, Guillaume 05 July 2018 (has links)
Cette thèse explore deux territoires distincts de l’informatique fondamentale : la complexité et la compression. Plus précisément, dans une première partie, nous étudions la puissance des circuits arithmétiques non commutatifs, qui calculent des polynômes non commutatifs en plusieurs indéterminées. Pour cela, nous introduisons plusieurs modèles de calcul, restreints dans leur manière de calculer les monômes. Ces modèles en généralisent d’autres, plus anciens et largement étudiés, comme les programmes à branchements. Les résultats sont de trois sortes. Premièrement, nous donnons des bornes inférieures sur le nombre d’opérations arithmétiques nécessaires au calcul de certains polynômes tels que le déterminant ou encore le permanent. Deuxièmement, nous concevons des algorithmes déterministes fonctionnant en temps polynomial pour résoudre le problème du test d’identité polynomiale. Enfin, nous construisons un pont entre la théorie des automates et les circuits arithmétiques non commutatifs, ce qui nous permet de dériver de nouvelles bornes inférieures en utilisant une mesure reposant sur le rang de la matrice dite de Hankel, provenant de la théorie des automates. Une deuxième partie concerne l’analyse de l’algorithme de compression sans perte Lempel-Ziv. Pourtant très utilisé, sa stabilité est encore mal établie. Vers la fin des années 90s, Jack Lutz popularise la question suivante, connue sous le nom de « one-bit catastrophe » : « étant donné un mot compressible, est-il possible de le rendre incompressible en ne changeant qu’un seul bit ? ». Nous montrons qu’une telle catastrophe est en effet possible. Plus précisément, en donnant des bornes optimales sur la variation de la taille de la compression, nous montrons qu’un mot « très compressible » restera toujours compressible après modification d’un bit, mais que certains mots « peu compressibles » deviennent en effet incompressibles. / This thesis explores two territories of computer science: complexity and compression. More precisely, in a first part, we investigate the power of non-commutative arithmetic circuits, which compute multivariate non-commutative polynomials. For that, we introduce various models of computation that are restricted in the way they are allowed to compute monomials. These models generalize previous ones that have been widely studied, such as algebraic branching programs. The results are of three different types. First, we give strong lower bounds on the number of arithmetic operations needed to compute some polynomials such as the determinant or the permanent. Second, we design some deterministic polynomial-time algorithm to solve the white-box polynomial identity problem. Third, we exhibit a link between automata theory and non-commutative arithmetic circuits that allows us to derive some old and new tight lower bounds for some classes of non-commutative circuits, using a measure based on the rank of a so-called Hankel matrix. A second part is concerned with the analysis of the data compression algorithm called Lempel-Ziv. Although this algorithm is widely used in practice, we know little about its stability. Our main result is to show that an infinite word compressible by LZ’78 can become incompressible by adding a single bit in front of it, thus closing a question proposed by Jack Lutz in the late 90s under the name “one-bit catastrophe”. We also give tight bounds on the maximal possible variation between the compression ratio of a finite word and its perturbation—when one bit is added in front of it.
52

Sur les méthodes rapides de résolution de systèmes de Toeplitz bandes / Fast methods for solving banded Toeplitz systems

Dridi, Marwa 13 May 2016 (has links)
Cette thèse vise à la conception de nouveaux algorithmes rapides en calcul numérique via les matrices de Toeplitz. Tout d'abord, nous avons introduit un algorithme rapide sur le calcul de l'inverse d'une matrice triangulaire de Toeplitz en se basant sur des notions d'interpolation polynomiale. Cet algorithme nécessitant uniquement deux FFT(2n) est manifestement efficace par rapport à ses prédécésseurs. ensuite, nous avons introduit un algorithme rapide pour la résolution d'un système linéaire de Toeplitz bande. Cette approche est basée sur l'extension de la matrice donnée par plusieurs lignes en dessus, de plusieurs colonnes à droite et d'attribuer des zéros et des constantes non nulles dans chacune de ces lignes et de ces colonnes de telle façon que la matrice augmentée à la structure d'une matrice triangulaire inférieure de Toeplitz. La stabilité de l'algorithme a été discutée et son efficacité a été aussi justifiée. Finalement, nous avons abordé la résolution d'un système de Toeplitz bandes par blocs bandes de Toeplitz. Ceci étant primordial pour établir la connexion de nos algorithmes à des applications en restauration d'images, un domaine phare en mathématiques appliquées. / This thesis aims to design new fast algorithms for numerical computation via the Toeplitz matrices. First, we introduced a fast algorithm to compute the inverse of a triangular Toeplitz matrix with real and/or complex numbers based on polynomial interpolation techniques. This algorithm requires only two FFT (2n) is clearly effective compared to predecessors. A numerical accuracy and error analysis is also considered. Numerical examples are given to illustrate the effectiveness of our method. In addition, we introduced a fast algorithm for solving a linear banded Toeplitz system. This new approach is based on extending the given matrix with several rows on the top and several columns on the right and to assign zeros and some nonzero constants in each of these rows and columns in such a way that the augmented matrix has a lower triangular Toeplitz structure. Stability of the algorithm is discussed and its performance is showed by numerical experiments. This is essential to connect our algorithms to applications such as image restoration applications, a key area in applied mathematics.
53

Convergence et stabilisation de systèmes dynamiques couplés et multi-échelles vers des équilibres sous contraintes : application à l’optimisation hiérarchique / Convergence and stabilization of coupled and multiscale dynamical systems towards constrained equilibria : application to hierarchical optimization

Noun, Nahla 20 June 2013 (has links)
Nous étudions la convergence de systèmes dynamiques vers des équilibres. En particulier, nous nous intéressons à deux types d'équilibres. D'une part, les solutions d'inéquations variationnelles sous contraintes qui interviennent aussi dans la résolution de problèmes d'optimisation hiérarchique. D'autre part l'état stable d'un système dynamique, c'est à dire l'état où l'énergie du système est nulle. Cette thèse est divisée en deux parties principales, chacune focalisée sur la recherche d'un de ces équilibres. Dans la première partie nous étudions une classe d'algorithmes explicite-implicites pour résoudre certaines inéquations variationnelles sous contraintes. Nous introduisons un algorithme proximal-gradient pénalisé, "splitting forward-backward penalty scheme". Ensuite, nous prouvons sa convergence ergodique faible vers un équilibre dans le cas général d'un opérateur maximal monotone, et sa convergence forte vers l'unique équilibre si l'opérateur est de plus fortement monotone. Nous appliquons aussi notre algorithme pour résoudre des problèmes d'optimisation sous contrainte ou hiérarchique dont les fonctions objectif et de pénalisation sont formées d'une partie lisse et d'une autre non lisse. En effet, nous démontrons la convergence faible de l'algorithme vers un optimum hiérarchique lorsque l'opérateur est le sous-différentiel d'une fonction convexe semi-continue inférieurement et propre. Nous généralisons ainsi plusieurs algorithmes connus et nous retrouvons leurs résultats de convergence en affaiblissant les hypothèses utilisées dans nombre d'entre eux.Dans la deuxième partie, nous étudions l'action d'un contrôle interne local sur la stabilisation indirecte d'un système dynamique couplé formé de trois équations d'ondes, le système de Bresse. Sous la condition d'égalité des vitesses de propagation des ondes, nous montrons la stabilité exponentielle du système. En revanche, quand les vitesses sont différentes, nous prouvons sa stabilité polynomiale et nous établissons un nouveau taux de décroissance polynomial de l'énergie. Ceci étend des résultats présents dans la littérature au sens où le contrôle est localement distribué (et non pas appliqué à tout le domaine) et nous améliorons le taux de décroissance polynomial de l'énergie pour des conditions au bord de type Dirichlet et Dirichlet-Neumann. / We study the convergence of dynamical systems towards equilibria. In particular, we are interested in two types of equilibria. On one hand solutions of constrained variational inequations that are also involved in the resolution of hierarchical optimization problems. On the other hand the stable state of a dynamical system, i.e. the state when the energy of the system is zero. The thesis is divided into two parts, each focused on one of these equilibria. In the first part, we study a class of forward-backward algorithms for solving constrained variational inequalities. We consider a splitting forward-backward penalty scheme. We prove the weak ergodic convergence of the algorithm to an equilibrium for a general maximal monotone operator, and the strong convergence to the unique equilibrium if the operator is an addition strongly monotone. We also apply our algorithm for solving constrained or hierarchical optimization problems whose objective and penalization functions are formed of a smooth and a non-smooth part. In fact, we show the weak convergence to a hierarchical optimum when the operator is the subdifferential of a closed convex proper function. We then generalize several known algorithms and we find their convergence results by weakening assumptions used in a number of them. In the second part, we study the action of a locally internal dissipation law in the stabilization of a linear dynamical system coupling three wave equations, the Bresse system. Under the equal speed wave propagation condition we show that the system is exponentially stable. Otherwise, when the speeds are different, we prove the polynomial stability and establish a new polynomial energy decay rate. This extends results presented in the literature in the sense that the dissipation law is locally distributed (and not applied in the whole domain) and we improve the polynomial energy decay rate with both types of boundary conditions, Dirichlet and Dirichlet-Neumann.
54

Preservation of quasiconvexity and quasimonotonicity in polynomial approximation of variational problems

Heinz, Sebastian 01 September 2008 (has links)
Die vorliegende Arbeit beschäftigt sich mit drei Klassen ausgewählter nichtlinearer Probleme, die Forschungsgegenstand der angewandten Mathematik sind. Diese Probleme behandeln die Minimierung von Integralen in der Variationsrechnung (Kapitel 3), das Lösen partieller Differentialgleichungen (Kapitel 4) und das Lösen nichtlinearer Optimierungsaufgaben (Kapitel 5). Mit deren Hilfe lassen sich unterschiedlichste Phänomene der Natur- und Ingenieurwissenschaften sowie der Ökonomie mathematisch modellieren. Als konkretes Beispiel werden mathematische Modelle der Theorie elastischer Festkörper betrachtet. Das Ziel der vorliegenden Arbeit besteht darin, ein gegebenes nichtlineares Problem durch polynomiale Probleme zu approximieren. Um dieses Ziel zu erreichen, beschäftigt sich ein großer Teil der vorliegenden Arbeit mit der polynomialen Approximation von nichtlinearen Funktionen. Den Ausgangspunkt dafür bildet der Weierstraßsche Approximationssatz. Auf der Basis dieses bekannten Satzes und eigener Sätze wird als Hauptresultat der vorliegenden Arbeit gezeigt, dass im Übergang von einer gegebenen Funktion zum approximierenden Polynom wesentliche Eigenschaften der gegebenen Funktion erhalten werden können. Die wichtigsten Eigenschaften, für die dies bisher nicht bekannt war, sind: Quasikonvexität im Sinne der Variationsrechnung, Quasimonotonie im Zusammenhang mit partiellen Differentialgleichungen sowie Quasikonvexität im Sinne der nichtlinearen Optimierung (Theoreme 3.16, 4.10 und 5.5). Schließlich wird gezeigt, dass die zu den untersuchten Klassen gehörenden nichtlinearen Probleme durch polynomiale Probleme approximiert werden können (Theoreme 3.26, 4.16 und 5.8). Die dieser Approximation zugrunde liegende Konvergenz garantiert sowohl eine Approximation im Parameterraum als auch eine Approximation im Lösungsraum. Für letztere werden die Konzepte der Gamma-Konvergenz (Epi-Konvergenz) und der G-Konvergenz verwendet. / In this thesis, we are concerned with three classes of non-linear problems that appear naturally in various fields of science, engineering and economics. In order to cover many different applications, we study problems in the calculus of variation (Chapter 3), partial differential equations (Chapter 4) as well as non-linear programming problems (Chapter 5). As an example of possible applications, we consider models of non-linear elasticity theory. The aim of this thesis is to approximate a given non-linear problem by polynomial problems. In order to achieve the desired polynomial approximation of problems, a large part of this thesis is dedicated to the polynomial approximation of non-linear functions. The Weierstraß approximation theorem forms the starting point. Based on this well-known theorem, we prove theorems that eventually lead to our main result: A given non-linear function can be approximated by polynomials so that essential properties of the function are preserved. This result is new for three properties that are important in the context of the considered non-linear problems. These properties are: quasiconvexity in the sense of the calculus of variation, quasimonotonicity in the context of partial differential equations and quasiconvexity in the sense of non-linear programming (Theorems 3.16, 4.10 and 5.5). Finally, we show the following: Every non-linear problem that belongs to one of the three considered classes of problems can be approximated by polynomial problems (Theorems 3.26, 4.16 and 5.8). The underlying convergence guarantees both the approximation in the parameter space and the approximation in the solution space. In this context, we use the concepts of Gamma-convergence (epi-convergence) and of G-convergence.
55

Estimation de canal radio-mobile à évolution rapide dans les systèmes à modulation OFMD

Hijazi, Hussein 25 November 2008 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des systèmes radiocommunications numériques pour des récepteurs mobiles basés sur la modulation multi-porteuse OFDM. L'objectif est de proposer des algorithmes d'estimation de canal et de suppression d'IEP pour les <br />récepteurs OFDM à grande mobilité en liaison descendante. Notre démarche est d'estimer les paramètres de propagation du canal physique tels que les retards et les variations temporelles des gains complexes du canal à trajet multiples, au lieu du canal discret équivalent. Nous avons développé une approximation à base de polynôme pour l'évolution des gains complexes d'un canal multi-trajet de type Rayleigh avec un spectre de Jakes. En se basant sur cette modélisation polynomiale, nous avons présenté une étude théorique sur les Bornes de Cramér-Rao Bayésiennes (BCRBs) pour l'estimation des gains complexes du canal, en supposant les délais des trajets connus. Enfin, nous avons développé et analysé trois algorithmes itératifs d'estimation des variations temporelles des gains complexes (à l'intérieur d'un symbole OFDM) et de suppression d'IEP pour des récepteurs à grande mobilité. Les deux premiers sont basés sur l'interpolation (passe-bas ou polynomiale) des valeurs moyennes estimées et sur un égaliseur SSI. Ils ont montré de bonnes performances pour des récepteurs à vitesses modérées (i.e., fd.T <= 0.1). Le troisième algorithme est basé sur une modélisation AR et un filtre de Kalman pour estimer les coefficients polynomiaux des gains complexes, et sur un égaliseur QR. Il a fait preuve de bonnes performances pour des récepteurs à vitesses très élevées (i.e. , fd.T> 0.1).
56

Stabilisation polynomiale et contrôlabilité exacte des équations des ondes par des contrôles indirects et dynamiques

Toufayli, Laila 18 January 2013 (has links) (PDF)
La thèse est portée essentiellement sur la stabilisation et la contrôlabilité de deux équations des ondes moyennant un seul contrôle agissant sur le bord du domaine. Dans le cas du contrôle dynamique, le contrôle est introduit dans le système par une équation différentielle agissant sur le bord. C'est en effet un système hybride. Le contrôle peut être aussi applique directement sur le bord d'une équation, c'est le cas du contrôle indirecte mais non borne. La nature du système ainsi coupledépend du couplage des équations, et ceci donne divers résultats par la stabilisation (exponentielle et polynomiale) et la contrôlabilité exacte (espace contrôlable). Des nouvelles inégalités d'énergie permettent de mettre en oeuvre la Méthode fréquentielle et la Méthode d'Unicité de Hilbert.
57

Vision 3D multi-images : contribution à l'obtention de solutions globales par optimisation polynomiale et théorie des moments

Bugarin, Florian 05 October 2012 (has links) (PDF)
L'objectif général de cette thèse est d'appliquer une méthode d'optimisation polynomiale basée sur la théorie des moments à certains problèmes de vision artificielle. Ces problèmes sont en général non convexes et classiquement résolus à l'aide de méthodes d'optimisation locale. Ces techniques ne convergent généralement pas vers le minimum global et nécessitent de fournir une estimée initiale proche de la solution exacte. Les méthodes d'optimisation globale permettent d'éviter ces inconvénients. L'optimisation polynomiale basée sur la théorie des moments présente en outre l'avantage de prendre en compte des contraintes. Dans cette thèse nous étendrons cette méthode aux problèmes de minimisation d'une somme d'un grand nombre de fractions rationnelles. De plus, sous certaines hypothèses de "faible couplage" ou de "parcimonie" des variables du problème, nous montrerons qu'il est possible de considérer un nombre important de variables tout en conservant des temps de calcul raisonnables. Enfin nous appliquerons les méthodes proposées aux problèmes de vision par ordinateur suivants : minimisation des distorsions projectives induites par le processus de rectification d'images, estimation de la matrice fondamentale, reconstruction 3D multi-vues avec et sans distorsions radiales.
58

Transformations polynomiales, applications à l'estimation de mouvements et la classification / Polynomial transformations, applications to motion estimation and classification

Moubtahij, Redouane El 11 June 2016 (has links)
Ces travaux de recherche concernent la modélisation de l'information dynamique fonctionnelle fournie par les champs de déplacements apparents à l'aide de base de polynômes orthogonaux. Leur objectif est de modéliser le mouvement et la texture extraites afin de l'exploiter dans les domaines de l'analyse et de la reconnaissance automatique d'images et de vidéos. Nous nous intéressons aussi bien aux mouvements humains qu'aux textures dynamiques. Les bases de polynômes orthogonales ont été étudiées. Cette approche est particulièrement intéressante car elle offre une décomposition en multi-résolution et aussi en multi-échelle. La première contribution de cette thèse est la définition d'une méthode spatiale de décomposition d'image : l'image est projetée et reconstruite partiellement avec un choix approprié du degré d'anisotropie associé à l'équation de décomposition basée sur des transformations polynomiales. Cette approche spatiale est étendue en trois dimensions afin d'extraire la texture dynamique dans des vidéos. Notre deuxième contribution consiste à utiliser les séquences d'images qui représentent les parties géométriques comme images initiales pour extraire les flots optiques couleurs. Deux descripteurs d'action, spatial et spatio-temporel, fondés sur la combinaison des informations du mouvement/texture sont alors extraits. Il est ainsi possible de définir un système permettant de reconnaître une action complexe (composée d'une suite de champs de déplacement et de textures polynomiales) dans une vidéo. / The research relies on modeling the dynamic functional information from the fields of apparent movement using basic orthogonal polynomials. The goal is to model the movement and texture extracted for automatic analysis and recognition of images and videos. We are interested both in human movements as dynamic textures. Orthogonal polynomials bases were studied. This approach is particularly interesting because it offers a multi-resolution and a multi-scale decomposition. The first contribution of this thesis is the definition of method of image spatial decomposition: the image is projected and partially rebuilt with an appropriate choice of the degree of anisotropy associated with the decomposition equation based on polynomial transformations. This spatial approach is extended into three dimensions to retrieve the dynamic texture in videos. Our second contribution is to use image sequences that represent the geometric parts as initial images to extract color optical flow. Two descriptors of action, spatial and space-time, based on the combination of information of motion / texture are extracted. It is thus possible to define a system to recognize a complex action (composed of a series of fields of motion and polynomial texture) in a video.
59

Représentations des polynômes, algorithmes et bornes inférieures / Representations of polynomials, algorithms and lower bounds

Grenet, Bruno 29 November 2012 (has links)
La complexité algorithmique est l'étude des ressources nécessaires — le temps, la mémoire, … — pour résoudre un problème de manière algorithmique. Dans ce cadre, la théorie de la complexité algébrique est l'étude de la complexité algorithmique de problèmes de nature algébrique, concernant des polynômes.Dans cette thèse, nous étudions différents aspects de la complexité algébrique. D'une part, nous nous intéressons à l'expressivité des déterminants de matrices comme représentations des polynômes dans le modèle de complexité de Valiant. Nous montrons que les matrices symétriques ont la même expressivité que les matrices quelconques dès que la caractéristique du corps est différente de deux, mais que ce n'est plus le cas en caractéristique deux. Nous construisons également la représentation la plus compacte connue du permanent par un déterminant. D'autre part, nous étudions la complexité algorithmique de problèmes algébriques. Nous montrons que la détection de racines dans un système de n polynômes homogènes à n variables est NP-difficile. En lien avec la question « VP = VNP ? », version algébrique de « P = NP ? », nous obtenons une borne inférieure pour le calcul du permanent d'une matrice par un circuit arithmétique, et nous exhibons des liens unissant ce problème et celui du test d'identité polynomiale. Enfin nous fournissons des algorithmes efficaces pour la factorisation des polynômes lacunaires à deux variables. / Computational complexity is the study of the resources — time, memory, …— needed to algorithmically solve a problem. Within these settings, algebraic complexity theory is the study of the computational complexity of problems of algebraic nature, concerning polynomials. In this thesis, we study several aspects of algebraic complexity. On the one hand, we are interested in the expressiveness of the determinants of matrices as representations of polynomials in Valiant's model of complexity. We show that symmetric matrices have the same expressiveness as the ordinary matrices as soon as the characteristic of the underlying field in different from two, but that this is not the case anymore in characteristic two. We also build the smallest known representation of the permanent by a determinant.On the other hand, we study the computational complexity of algebraic problems. We show that the detection of roots in a system of n homogeneous polynomials in n variables in NP-hard. In line with the “VP = VNP ?”question, which is the algebraic version of “P = NP?” we obtain a lower bound for the computation of the permanent of a matrix by an arithmetic circuit, and we point out the links between this problem and the polynomial identity testing problem. Finally, we give efficient algorithms for the factorization of lacunary bivariate polynomials.
60

Robust tools for weighted Chebyshev approximation and applications to digital filter design / Outils robustes pour l’approximation de Chebyshev pondérée et applications à la synthèse de filtres numériques

Filip, Silviu-Ioan 07 December 2016 (has links)
De nombreuses méthodes de traitement du signal reposent sur des résultats puissants d'approximation numérique. Un exemple significatif en est l'utilisation de l'approximation de type Chebyshev pour l'élaboration de filtres numériques.En pratique, le caractère fini des formats numériques utilisés en machine entraîne des difficultés supplémentaires pour la conception de filtres numériques (le traitement audio et le traitement d'images sont deux domaines qui utilisent beaucoup le filtrage). La majorité des outils actuels de conception de filtres ne sont pas optimisés et ne certifient pas non plus la correction de leurs résultats. Notre travail se veut un premier pas vers un changement de cette situation.La première partie de la thèse traite de l'étude et du développement de méthodes relevant de la famille Remez/Parks-McClellan pour la résolution de problèmes d'approximation polynomiale de type Chebyshev, en utilisant l'arithmétique virgule-flottante.Ces approches sont très robustes, tant du point de vue du passage à l'échelle que de la qualité numérique, pour l'élaboration de filtres à réponse impulsionnelle finie (RIF).Cela dit, dans le cas des systèmes embarqués par exemple, le format des coefficients du filtre qu'on utilise en pratique est beaucoup plus petit que les formats virgule flottante standard et d'autres approches deviennent nécessaires.Nous proposons une méthode (quasi-)optimale pour traîter ce cas. Elle s'appuie sur l'algorithme LLL et permet de traiter des problèmes de taille bien supérieure à ceux que peuvent traiter les approches exactes. Le résultat est ensuite utilisé dans une couche logicielle qui permet la synthèse de filtres RIF pour des circuits de type FPGA.Les résultats que nous obtenons en sortie sont efficaces en termes de consommation d'énergie et précis. Nous terminons en présentant une étude en cours sur les algorithmes de type Remez pour l'approximation rationnelle. Ce type d'approches peut être utilisé pour construire des filtres à réponse impulsionnelle infinie (RII) par exemple. Nous examinons les difficultés qui limitent leur utilisation en pratique. / The field of signal processing methods and applications frequentlyrelies on powerful results from numerical approximation. One suchexample, at the core of this thesis, is the use of Chebyshev approximationmethods for designing digital filters.In practice, the finite nature of numerical representations adds an extralayer of difficulty to the design problems we wish to address using digitalfilters (audio and image processing being two domains which rely heavilyon filtering operations). Most of the current mainstream tools for thisjob are neither optimized, nor do they provide certificates of correctness.We wish to change this, with some of the groundwork being laid by thepresent work.The first part of the thesis deals with the study and development ofRemez/Parks-McClellan-type methods for solving weighted polynomialapproximation problems in floating-point arithmetic. They are veryscalable and numerically accurate in addressing finite impulse response(FIR) design problems. However, in embedded and power hungry settings,the format of the filter coefficients uses a small number of bits andother methods are needed. We propose a (quasi-)optimal approach basedon the LLL algorithm which is more tractable than exact approaches.We then proceed to integrate these aforementioned tools in a softwarestack for FIR filter synthesis on FPGA targets. The results obtainedare both resource consumption efficient and possess guaranteed accuracyproperties. In the end, we present an ongoing study on Remez-type algorithmsfor rational approximation problems (which can be used for infinite impulseresponse (IIR) filter design) and the difficulties hindering their robustness.

Page generated in 0.0553 seconds