• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 8
  • 5
  • 4
  • 3
  • Tagged with
  • 60
  • 60
  • 19
  • 15
  • 13
  • 13
  • 12
  • 11
  • 11
  • 11
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Représentations des polynômes, algorithmes et bornes inférieures / Representations of polynomials, algorithms and lower bounds

Grenet, Bruno 29 November 2012 (has links)
La complexité algorithmique est l'étude des ressources nécessaires — le temps, la mémoire, … — pour résoudre un problème de manière algorithmique. Dans ce cadre, la théorie de la complexité algébrique est l'étude de la complexité algorithmique de problèmes de nature algébrique, concernant des polynômes.Dans cette thèse, nous étudions différents aspects de la complexité algébrique. D'une part, nous nous intéressons à l'expressivité des déterminants de matrices comme représentations des polynômes dans le modèle de complexité de Valiant. Nous montrons que les matrices symétriques ont la même expressivité que les matrices quelconques dès que la caractéristique du corps est différente de deux, mais que ce n'est plus le cas en caractéristique deux. Nous construisons également la représentation la plus compacte connue du permanent par un déterminant. D'autre part, nous étudions la complexité algorithmique de problèmes algébriques. Nous montrons que la détection de racines dans un système de n polynômes homogènes à n variables est NP-difficile. En lien avec la question « VP = VNP ? », version algébrique de « P = NP ? », nous obtenons une borne inférieure pour le calcul du permanent d'une matrice par un circuit arithmétique, et nous exhibons des liens unissant ce problème et celui du test d'identité polynomiale. Enfin nous fournissons des algorithmes efficaces pour la factorisation des polynômes lacunaires à deux variables. / Computational complexity is the study of the resources — time, memory, …— needed to algorithmically solve a problem. Within these settings, algebraic complexity theory is the study of the computational complexity of problems of algebraic nature, concerning polynomials. In this thesis, we study several aspects of algebraic complexity. On the one hand, we are interested in the expressiveness of the determinants of matrices as representations of polynomials in Valiant's model of complexity. We show that symmetric matrices have the same expressiveness as the ordinary matrices as soon as the characteristic of the underlying field in different from two, but that this is not the case anymore in characteristic two. We also build the smallest known representation of the permanent by a determinant.On the other hand, we study the computational complexity of algebraic problems. We show that the detection of roots in a system of n homogeneous polynomials in n variables in NP-hard. In line with the “VP = VNP ?”question, which is the algebraic version of “P = NP?” we obtain a lower bound for the computation of the permanent of a matrix by an arithmetic circuit, and we point out the links between this problem and the polynomial identity testing problem. Finally, we give efficient algorithms for the factorization of lacunary bivariate polynomials.
52

Problèmes d'ordonnancement avec production et consommation des ressources / Scheduling problems with production and consumption of resources

Sahli, Abderrahim 20 October 2016 (has links)
La plupart des travaux de recherches sur les problèmes d'ordonnancement traitent le cas des ressources renouvelables, c'est-à-dire des ressources qui sont exigées en début d'exécution de chaque tâche et sont restituées en fin d'exécution. Peu d'entre eux abordent les problèmes à ressources consommables, c'est-à-dire des ressources non restituées en fin d'exécution. Le problème de gestion de projet à contraintes de ressources (RCPSP) est le problème à ressources renouvelables le plus traité dans la littérature. Dans le cadre de cette thèse, nous nous sommes intéressés à une généralisation du problème RCPSP qui correspond au cas où les tâches sont remplacées par des événements liés par des relations de précédence étendues. Chaque événement peut produire ou consommer une quantité de ressources à sa date d'occurrence et la fonction économique reste la durée totale à minimiser. Nous avons nommé cette généralisation ERCPSP (Extended RCPSP). Nous avons élaboré des modèles de programmation linéaire pour résoudre ce problème. Nous avons proposé plusieurs bornes inférieures algorithmiques exploitant les travaux de la littérature sur les problèmes cumulatifs. Ensuite, nous avons élargi la portée des méthodes utilisées pour la mise en place de méthodes de séparation et évaluation. Nous avons traité aussi des cas particuliers par des méthodes basées sur la programmation dynamique. / This thesis investigates the Extended Resource Constrained Project Scheduling Problem (ERCPSP). ERCPSP is a general scheduling problem where the availability of a resource is depleted and replenished at the occurrence times of a set of events. It is an extension of the Resource Constrained Project Scheduling Problem (RCPSP) where activities are replaced by events, which have to be scheduled subject to generalized precedence relations. We are interested in this thesis in proposing new methodologies and approaches to solve ERCPSP. First, we study some polynomial cases of this problem and we propose a dynamic programming algorithm to solve the parallel chain case. Then, we propose lower bounds, mixed integer programming models, and a branch-and-bound method to solve ERCPSP. Finally, we develop an instance generator dedicated to this problem.
53

On the effect of asymmetry and dimension on computational geometric problems

Sridhar, Vijay, Sridhar 07 November 2018 (has links)
No description available.
54

Caractérisation des performances minimales d'estimation pour des modèles d'observations non-standards / Minimal performance analysis for non standard estimation models

Ren, Chengfang 28 September 2015 (has links)
Dans le contexte de l'estimation paramétrique, les performances d'un estimateur peuvent être caractérisées, entre autre, par son erreur quadratique moyenne (EQM) et sa résolution limite. La première quantifie la précision des valeurs estimées et la seconde définit la capacité de l'estimateur à séparer plusieurs paramètres. Cette thèse s'intéresse d'abord à la prédiction de l'EQM "optimale" à l'aide des bornes inférieures pour des problèmes d'estimation simultanée de paramètres aléatoires et non-aléatoires (estimation hybride), puis à l'extension des bornes de Cramér-Rao pour des modèles d'observation moins standards. Enfin, la caractérisation des estimateurs en termes de résolution limite est également étudiée. Ce manuscrit est donc divisé en trois parties :Premièrement, nous complétons les résultats de littérature sur les bornes hybrides en utilisant deux bornes bayésiennes : la borne de Weiss-Weinstein et une forme particulière de la famille de bornes de Ziv-Zakaï. Nous montrons que ces bornes "étendues" sont plus précises pour la prédiction de l'EQM optimale par rapport à celles existantes dans la littérature.Deuxièmement, nous proposons des bornes de type Cramér-Rao pour des contextes d'estimation moins usuels, c'est-à-dire : (i) Lorsque les paramètres non-aléatoires sont soumis à des contraintes d'égalité linéaires ou non-linéaires (estimation sous contraintes). (ii) Pour des problèmes de filtrage à temps discret où l'évolution des états (paramètres) est régit par une chaîne de Markov. (iii) Lorsque la loi des observations est différente de la distribution réelle des données.Enfin, nous étudions la résolution et la précision des estimateurs en proposant un critère basé directement sur la distribution des estimées. Cette approche est une extension des travaux de Oh et Kashyap et de Clark pour des problèmes d'estimation de paramètres multidimensionnels. / In the parametric estimation context, estimators performances can be characterized, inter alia, by the mean square error and the resolution limit. The first quantities the accuracy of estimated values and the second defines the ability of the estimator to allow a correct resolvability. This thesis deals first with the prediction the "optimal" MSE by using lower bounds in the hybrid estimation context (i.e. when the parameter vector contains both random and non-random parameters), second with the extension of Cramér-Rao bounds for non-standard estimation problems and finally to the characterization of estimators resolution. This manuscript is then divided into three parts :First, we fill some lacks of hybrid lower bound on the MSE by using two existing Bayesian lower bounds: the Weiss-Weinstein bound and a particular form of Ziv-Zakai family lower bounds. We show that these extended lower bounds are tighter than the existing hybrid lower bounds in order to predict the optimal MSE.Second, we extend Cramer-Rao lower bounds for uncommon estimation contexts. Precisely: (i) Where the non-random parameters are subject to equality constraints (linear or nonlinear). (ii) For discrete-time filtering problems when the evolution of states are defined by a Markov chain. (iii) When the observation model differs to the real data distribution.Finally, we study the resolution of the estimators when their probability distributions are known. This approach is an extension of the work of Oh and Kashyap and the work of Clark to multi-dimensional parameters estimation problems.
55

Analyse de performances en traitement d'antenne : bornes inférieures de l'erreur quadratique moyenne et seuil de résolution limite / Performance analysis in array signal processing. : lower bounds on the mean square error and statistical resolution limit

El Korso, Mohammed Nabil 07 July 2011 (has links)
Ce manuscrit est dédié à l’analyse de performances en traitement d’antenne pour l’estimation des paramètres d’intérêt à l’aide d’un réseau de capteurs. Il est divisé en deux parties :– Tout d’abord, nous présentons l’étude de certaines bornes inférieures de l’erreur quadratique moyenne liées à la localisation de sources dans le contexte champ proche. Nous utilisons la borne de Cramér-Rao pour l’étude de la zone asymptotique (notamment en terme de rapport signal à bruit avec un nombre fini d’observations). Puis, nous étudions d’autres bornes inférieures de l’erreur quadratique moyenne qui permettent de prévoir le phénomène de décrochement de l’erreur quadratique moyenne des estimateurs (on cite, par exemple, la borne de McAulay-Seidman, la borne de Hammersley-Chapman-Robbins et la borne de Fourier Cramér-Rao).– Deuxièmement, nous nous concentrons sur le concept du seuil statistique de résolution limite, c’est-à-dire, la distance minimale entre deux signaux noyés dans un bruit additif qui permet une ”correcte” estimation des paramètres. Nous présentons quelques applications bien connues en traitement d’antenne avant d’étendre les concepts existants au cas de signaux multidimensionnels. Par la suite, nous étudions la validité de notre extension en utilisant un test d’hypothèses binaire. Enfin, nous appliquons notre extension à certains modèles d’observation multidimensionnels / This manuscript concerns the performance analysis in array signal processing. It can bedivided into two parts :- First, we present the study of some lower bounds on the mean square error related to the source localization in the near eld context. Using the Cramér-Rao bound, we investigate the mean square error of the maximum likelihood estimator w.r.t. the direction of arrivals in the so-called asymptotic area (i.e., for a high signal to noise ratio with a nite number of observations.) Then, using other bounds than the Cramér-Rao bound, we predict the threshold phenomena.- Secondly, we focus on the concept of the statistical resolution limit (i.e., the minimum distance between two closely spaced signals embedded in an additive noise that allows a correct resolvability/parameter estimation.) We de ne and derive the statistical resolution limit using the Cramér-Rao bound and the hypothesis test approaches for the mono-dimensional case. Then, we extend this concept to the multidimensional case. Finally, a generalized likelihood ratio test based framework for the multidimensional statistical resolution limit is given to assess the validity of the proposed extension.
56

Flow-shop with time delays, linear modeling and exact solution approaches / Flow-shop avec temps de transport, modélisation linéaire et approches de résolution exacte

Mkadem, Mohamed Amine 07 December 2017 (has links)
Dans le cadre de cette thèse, nous traitons le problème de flow-shop à deux machines avec temps de transport où l’objectif consiste à minimiser le temps de complétion maximal. Dans un premier temps, nous nous sommes intéressés à la modélisation de ce problème. Nous avons proposé plusieurs programmes linéaires en nombres entiers. En particulier, nous avons introduit une formulation linéaire basée sur une généralisation non triviale du modèle d’affectation pour le cas où les durées des opérations sur une même machine sont identiques. Dans un deuxième temps, nous avons élargi la portée de ces formulations mathématiques pour développer plusieurs bornes inférieures et un algorithme exact basé sur la méthode de coupe et branchement (Branch-and-Cut). En effet, un ensemble d’inégalités valides a été considéré afin d’améliorer la relaxation linéaire de ces programmes et d’accélérer leur convergence. Ces inégalités sont basées sur la proposition de nouvelles règles de dominance et l’identification de sous-instances faciles à résoudre. L’identification de ces sous-instances revient à déterminer les cliques maximales dans un graphe d’intervalles. En plus des inégalités valides, la méthode exacte proposée inclut la considération d’une méthode heuristique et d’une procédure visant à élaguer les nœuds. Enfin, nous avons proposé un algorithme par séparation et évaluation (Branch-and-Bound) pour lequel, nous avons introduit des règles de dominance et une méthode heuristique basée sur la recherche locale. Nos expérimentations montrent l’efficacité de nos approches qui dominent celles de la littérature. Ces expérimentations ont été conduites sur plusieurs classes d’instances qui incluent celles de la littérature, ainsi que des nouvelles classes d’instances où les algorithmes de la littérature se sont montrés peu efficaces. / In this thesis, we study the two-machine flow-shop problem with time delays in order to minimize the makespan. First, we propose a set of Mixed Integer Programming (MIP) formulations for the problem. In particular, we introduce a new compact mathematical formulation for the case where operations are identical per machine. The proposed mathematical formulations are then used to develop lower bounds and a branch-and-cut method. A set of valid inequalities is proposed in order to improve the linear relaxation of the MIPs. These inequalities are based on proposing new dominance rules and computing optimal solutions of polynomial-time-solvable sub-instances. These sub-instances are extracted by computing all maximal cliques on a particular Interval graph. In addition to the valid inequalities, the branch-and-cut method includes the consideration of a heuristic method and a node pruning procedure. Finally, we propose a branch-and-bound method. For which, we introduce a local search-based heuristic and dominance rules. Experiments were conducted on a variety of classes of instances including both literature and new proposed ones. These experiments show the efficiency of our approaches that outperform the leading methods published in the research literature.
57

Limitantes para Códigos de Peso Constante / Bounds for Constant-Weight Codes

RODRIGUES, Silvana da Silva 28 January 2011 (has links)
Made available in DSpace on 2014-07-29T16:02:17Z (GMT). No. of bitstreams: 1 SILVANA DA SILVA RODRIGUES.pdf: 983315 bytes, checksum: 17ccfa7762b3ec7758b0c81b7ca259bf (MD5) Previous issue date: 2011-01-28 / The main purpose of this dissertation was to construct lower and upper bounds for the cardinality of the error correcting codes for constant-weight, contained in the vector space Fn 3 , where F3 is a field with three elements, knowing parameters such as length and minimum distance code. We present the main results of linear algebra necessary to develop the theory of codes and then the fundamental concepts of more practical class of codes, the linear error correcting codes. We state the Totobola problem and the Football problem, relating them to the theory of codes and present some bounds for the "covering radius problem"for r = 1 , some values of n. In the last chapter, we conclude the work with some examples that illustrate bounds of coverings for Fn 3 , with r = 2 and 3, and the generalization of the problem, where we present the binary covering radius problem, the case of multiple coverages and the extension of the idea, citing bounds for the cardinality of the codes contained in the vector space over a finite field with any arbitrary number of elements. / O principal objetivo desta dissertação foi construir limitantes inferiores e superiores para o número de elementos de um código corretor de erros de peso constante, contido no espaço vetorial Fn 3 , onde F3 é um corpo contendo três elementos, a partir de parâmetros como comprimento e distância mínima do código. Apresentamos os principais resultados da álgebra linear necessários ao desenvolvimento da teoria de códigos e em seguida, os conceitos fundamentais da classe de códigos mais conhecida na prática: os códigos lineares. Definimos os problemas do totobola e da piscina de futebol e a relação de ambos, com a teoria de códigos e com o problema do raio de cobertura. Construímos limitantes para o problema do raio de cobertura para r = 1, a partir da variação de n, e no último capítulo o trabalho é finalizado com a apresentação de exemplos que ilustram limitantes de cobertura para Fn 3 , com r = 2 e 3 e a generalização do assunto, onde apresentamos o problema binário do raio de cobertura, o caso das múltiplas coberturas e a extensão da idéia, citando limitantes para o número de elementos de códigos contidos em espaços vetoriais sobre um corpo finito contendo uma quantidade qualquer de elementos.
58

Caractérisation des limites fondamentales de l'erreur quadratique moyenne pour l'estimation de signaux comportant des points de rupture / Characterization of mean squared error fundamental limitations in parameter estimation of signals with change-points

Bacharach, Lucien 28 September 2018 (has links)
Cette thèse porte sur l'étude des performances d'estimateurs en traitement du signal, et s'attache en particulier à étudier les bornes inférieures de l'erreur quadratique moyenne (EQM) pour l'estimation de points de rupture, afin de caractériser le comportement d'estimateurs, tels que celui du maximum de vraisemblance (dans le contexte fréquentiste), mais surtout du maximum a posteriori ou de la moyenne conditionnelle (dans le contexte bayésien). La difficulté majeure provient du fait que, pour un signal échantillonné, les paramètres d'intérêt (à savoir les points de rupture) appartiennent à un espace discret. En conséquence, les résultats asymptotiques classiques (comme la normalité asymptotique du maximum de vraisemblance) ou la borne de Cramér-Rao ne s'appliquent plus. Quelques résultats sur la distribution asymptotique du maximum de vraisemblance provenant de la communauté mathématique sont actuellement disponibles, mais leur applicabilité à des problèmes pratiques de traitement du signal n'est pas immédiate. Si l'on décide de concentrer nos efforts sur l'EQM des estimateurs comme indicateur de performance, un travail important autour des bornes inférieures de l'EQM a été réalisé ces dernières années. Plusieurs études ont ainsi permis de proposer des inégalités plus précises que la borne de Cramér-Rao. Ces dernières jouissent en outre de conditions de régularité plus faibles, et ce, même en régime non asymptotique, permettant ainsi de délimiter la plage de fonctionnement optimal des estimateurs. Le but de cette thèse est, d'une part, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et/ou pour un nombre d'observations infini) dans un contexte d'estimation de points de rupture. D'autre part, le but est de donner les limites fondamentales de l'EQM d'un estimateur dans la plage non asymptotique. Les outils utilisés ici sont les bornes inférieures de l’EQM de la famille Weiss-Weinstein qui est déjà connue pour être plus précise que la borne de Cramér-Rao dans les contextes, entre autres, de l’analyse spectrale et du traitement d’antenne. Nous fournissons une forme compacte de cette famille dans le cas d’un seul et de plusieurs points de ruptures puis, nous étendons notre analyse aux cas où les paramètres des distributions sont inconnus. Nous fournissons également une analyse de la robustesse de cette famille vis-à-vis des lois a priori utilisées dans nos modèles. Enfin, nous appliquons ces bornes à plusieurs problèmes pratiques : données gaussiennes, poissonniennes et processus exponentiels. / This thesis deals with the study of estimators' performance in signal processing. The focus is the analysis of the lower bounds on the Mean Square Error (MSE) for abrupt change-point estimation. Such tools will help to characterize performance of maximum likelihood estimator in the frequentist context but also maximum a posteriori and conditional mean estimators in the Bayesian context. The main difficulty comes from the fact that, when dealing with sampled signals, the parameters of interest (i.e., the change points) lie on a discrete space. Consequently, the classical large sample theory results (e.g., asymptotic normality of the maximum likelihood estimator) or the Cramér-Rao bound do not apply. Some results concerning the asymptotic distribution of the maximum likelihood only are available in the mathematics literature but are currently of limited interest for practical signal processing problems. When the MSE of estimators is chosen as performance criterion, an important amount of work has been provided concerning lower bounds on the MSE in the last years. Then, several studies have proposed new inequalities leading to tighter lower bounds in comparison with the Cramér-Rao bound. These new lower bounds have less regularity conditions and are able to handle estimators’ MSE behavior in both asymptotic and non-asymptotic areas. The goal of this thesis is to complete previous results on lower bounds in the asymptotic area (i.e. when the number of samples and/or the signal-to-noise ratio is high) for change-point estimation but, also, to provide an analysis in the non-asymptotic region. The tools used here will be the lower bounds of the Weiss-Weinstein family which are already known in signal processing to outperform the Cramér-Rao bound for applications such as spectral analysis or array processing. A closed-form expression of this family is provided for a single and multiple change points and some extensions are given when the parameters of the distributions on each segment are unknown. An analysis in terms of robustness with respect to the prior influence on our models is also provided. Finally, we apply our results to specific problems such as: Gaussian data, Poisson data and exponentially distributed data.
59

Direct guaranteed lower eigenvalue bounds with quasi-optimal adaptive mesh-refinement

Puttkammer, Sophie Louise 19 January 2024 (has links)
Garantierte untere Eigenwertschranken (GLB) für elliptische Eigenwertprobleme partieller Differentialgleichungen sind in der Theorie sowie in praktischen Anwendungen relevant. Auf Grund des Rayleigh-Ritz- (oder) min-max-Prinzips berechnen alle konformen Finite-Elemente-Methoden (FEM) garantierte obere Schranken. Ein Postprocessing nichtkonformer Methoden von Carstensen und Gedicke (Math. Comp., 83.290, 2014) sowie Carstensen und Gallistl (Numer. Math., 126.1, 2014) berechnet GLB. In diesen Schranken ist die maximale Netzweite ein globaler Parameter, das kann bei adaptiver Netzverfeinerung zu deutlichen Unterschätzungen führen. In einigen numerischen Beispielen versagt dieses Postprocessing für lokal verfeinerte Netze komplett. Diese Dissertation präsentiert, inspiriert von einer neuen skeletal-Methode von Carstensen, Zhai und Zhang (SIAM J. Numer. Anal., 58.1, 2020), einerseits eine modifizierte hybrid-high-order Methode (m=1) und andererseits ein allgemeines Framework für extra-stabilisierte nichtkonforme Crouzeix-Raviart (m=1) bzw. Morley (m=2) FEM. Diese neuen Methoden berechnen direkte GLB für den m-Laplace-Operator, bei denen eine leicht überprüfbare Bedingung an die maximale Netzweite garantiert, dass der k-te diskrete Eigenwert eine untere Schranke für den k-ten Dirichlet-Eigenwert ist. Diese GLB-Eigenschaft und a priori Konvergenzraten werden für jede Raumdimension etabliert. Der neu entwickelte Ansatz erlaubt adaptive Netzverfeinerung, die für optimale Konvergenzraten auch bei nichtglatten Eigenfunktionen erforderlich ist. Die Überlegenheit der neuen adaptiven FEM wird durch eine Vielzahl repräsentativer numerischer Beispiele illustriert. Für die extra-stabilisierte GLB wird bewiesen, dass sie mit optimalen Raten gegen einen einfachen Eigenwert konvergiert, indem die Axiome der Adaptivität von Carstensen, Feischl, Page und Praetorius (Comput. Math. Appl., 67.6, 2014) sowie Carstensen und Rabus (SIAM J. Numer. Anal., 55.6, 2017) verallgemeinert werden. / Guaranteed lower eigenvalue bounds (GLB) for elliptic eigenvalue problems of partial differential equation are of high relevance in theory and praxis. Due to the Rayleigh-Ritz (or) min-max principle all conforming finite element methods (FEM) provide guaranteed upper eigenvalue bounds. A post-processing for nonconforming FEM of Carstensen and Gedicke (Math. Comp., 83.290, 2014) as well as Carstensen and Gallistl (Numer. Math., 126.1,2014) computes GLB. However, the maximal mesh-size enters as a global parameter in the eigenvalue bound and may cause significant underestimation for adaptive mesh-refinement. There are numerical examples, where this post-processing on locally refined meshes fails completely. Inspired by a recent skeletal method from Carstensen, Zhai, and Zhang (SIAM J. Numer. Anal., 58.1, 2020) this thesis presents on the one hand a modified hybrid high-order method (m=1) and on the other hand a general framework for an extra-stabilized nonconforming Crouzeix-Raviart (m=1) or Morley (m=2) FEM. These novel methods compute direct GLB for the m-Laplace operator in that a specific smallness assumption on the maximal mesh-size guarantees that the computed k-th discrete eigenvalue is a lower bound for the k-th Dirichlet eigenvalue. This GLB property as well as a priori convergence rates are established in any space dimension. The novel ansatz allows for adaptive mesh-refinement necessary to recover optimal convergence rates for non-smooth eigenfunctions. Striking numerical evidence indicates the superiority of the new adaptive eigensolvers. For the extra-stabilized nonconforming methods (a generalization of) known abstract arguments entitled as the axioms of adaptivity from Carstensen, Feischl, Page, and Praetorius (Comput. Math. Appl., 67.6, 2014) as well as Carstensen and Rabus (SIAM J. Numer. Anal., 55.6, 2017) allow to prove the convergence of the GLB towards a simple eigenvalue with optimal rates.
60

Complexity of Normal Forms on Structures of Bounded Degree

Heimberg, Lucas 04 June 2018 (has links)
Normalformen drücken semantische Eigenschaften einer Logik durch syntaktische Restriktionen aus. Sie ermöglichen es Algorithmen, Grenzen der Ausdrucksstärke einer Logik auszunutzen. Ein Beispiel ist die Lokalität der Logik erster Stufe (FO), die impliziert, dass Graph-Eigenschaften wie Erreichbarkeit oder Zusammenhang nicht FO-definierbar sind. Gaifman-Normalformen drücken die Bedeutung einer FO-Formel als Boolesche Kombination lokaler Eigenschaften aus. Sie haben eine wichtige Rolle in Model-Checking Algorithmen für Klassen dünn besetzter Graphen, deren Laufzeit durch die Größe der auszuwertenden Formel parametrisiert ist. Es ist jedoch bekannt, dass Gaifman-Normalformen im Allgemeinen nur mit nicht-elementarem Aufwand konstruiert werden können. Dies führt zu einer enormen Parameterabhängigkeit der genannten Algorithmen. Ähnliche nicht-elementare untere Schranken sind auch für Feferman-Vaught-Zerlegungen und für die Erhaltungssätze von Lyndon, Łoś und Tarski bekannt. Diese Arbeit untersucht die Komplexität der genannten Normalformen auf Klassen von Strukturen beschränkten Grades, für welche die nicht-elementaren unteren Schranken nicht gelten. Für diese Einschränkung werden Algorithmen mit elementarer Laufzeit für die Konstruktion von Gaifman-Normalformen, Feferman-Vaught-Zerlegungen, und für die Erhaltungssätze von Lyndon, Łoś und Tarski entwickelt, die in den ersten beiden Fällen worst-case optimal sind. Wichtig hierfür sind Hanf-Normalformen. Es wird gezeigt, dass eine Erweiterung von FO durch unäre Zählquantoren genau dann Hanf-Normalformen erlaubt, wenn alle Zählquantoren ultimativ periodisch sind, und wie Hanf-Normalformen in diesen Fällen in elementarer und worst-case optimaler Zeit konstruiert werden können. Dies führt zu Model-Checking Algorithmen für solche Erweiterungen von FO sowie zu Verallgemeinerungen der Algorithmen für Feferman-Vaught-Zerlegungen und die Erhaltungssätze von Lyndon, Łoś und Tarski. / Normal forms express semantic properties of logics by means of syntactical restrictions. They allow algorithms to benefit from restrictions of the expressive power of a logic. An example is the locality of first-order logic (FO), which implies that properties like reachability or connectivity cannot be defined in FO. Gaifman's local normal form expresses the satisfaction conditions of an FO-formula by a Boolean combination of local statements. Gaifman normal form serves as a first step in fixed-parameter model-checking algorithms, parameterised by the size of the formula, on sparse graph classes. However, it is known that in general, there are non-elementary lower bounds for the costs involved in transforming a formula into Gaifman normal form. This leads to an enormous parameter-dependency of the aforementioned algorithms. Similar non-elementary lower bounds also hold for Feferman-Vaught decompositions and for the preservation theorems by Lyndon, Łoś, and Tarski. This thesis investigates the complexity of these normal forms when restricting attention to classes of structures of bounded degree, for which the non-elementary lower bounds are known to fail. Under this restriction, the thesis provides algorithms with elementary and even worst-case optimal running time for the construction of Gaifman normal form and Feferman-Vaught decompositions. For the preservation theorems, algorithmic versions with elementary running time and non-matching lower bounds are provided. Crucial for these results is the notion of Hanf normal form. It is shown that an extension of FO by unary counting quantifiers allows Hanf normal forms if, and only if, all quantifiers are ultimately periodic, and furthermore, how Hanf normal form can be computed in elementary and worst-case optimal time in these cases. This leads to model-checking algorithms for such extensions of FO and also allows generalisations of the constructions for Feferman-Vaught decompositions and preservation theorems.

Page generated in 0.0491 seconds