• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 17
  • 4
  • 3
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 65
  • 22
  • 14
  • 12
  • 12
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Distribution de valeurs des fonctions méromorphes ultramétriques, application de la théorie de Nevanlinna

Ojeda Fuentealba, Jacqueline Alejandra 21 October 2008 (has links) (PDF)
On étudie des propriétés des fonctions méromorphes dans un corps ultramétrique complet, algébriquement clos de caractéristique 0 qu'on note K (ex : K=Cp), ainsi que des propriétés de fonctions méromorphes dans un disque ouvert de K, prenant en compte pour cela le problème de Lazard, qu'on contourne en considérant une extension de K sphériquement complète. Les problèmes étudiés concernent d'une part la distribution des zéros pour différents types de fonctions méromorphes ultramétriques dans K ou dans un disque ouvert de K, avec notamment la Conjecture de Hayman. Et d'autre part, des problèmes d'unicité pour des fonctions méromorphes ultramétriques dans K ou dans un disque de K, qui satisfont certaines hypothèses : des fonctions du type (Po f)' et (P o g)' où P est un polynôme qui satisfait certaines conditions, ces fonctions partagent une autre fonction méromorphe qui est petite par rapport à f et g, en comptant les multiplicités. Ce dernier type de problèmes comporte naturellement des liens avec les problèmes portant sur les polynômes d'unicité pour des fonctions méromorphes dans K, et sur les ensembles d'unicité (URS). Finalement, on s'intéresse à l'existence ou non de solutions des équations fonctionnelles du type Diophantien : des équations fonctionnelles du type P(x)=Q(y) où P et Q sont des polynômes dont les coefficients sont des fonctions méromorphes. On introduit la notion de solutions admissibles pour ces type d'équations. La méthode la plus utilisée est la Théorie de Nevanlinna p-adique qui s'applique non seuleument à des fonctions méromorphes ultramétriques dans le corps K mais aussi aux fonctions méromorphes ultramétriques non bornées dans un disque ouvert de K.
42

An analysis of the presentation and admissibility of evidence at CCMA arbitrations.

Gounden, Shamon. January 2013 (has links)
Historically, labour dispute resolution in South Africa has been synonymous with being expensive, unnecessarily lengthy and ineffective. The Labour Relations Act (LRA) 66 of 1995 set out to change this through the creation of the Commission for Conciliation, Mediation and Arbitration (CCMA). The design of the CCMA is centred on a dispute resolution institution that adopts a quick, cheap and non-legalistic approach to dispute resolution. Through the introduction of compulsory arbitration for specified dismissal and unfair labour practice disputes, the LRA granted the CCMA the mandate of upholding the objectives of industrial peace and reducing exorbitant legal costs. The outcome of arbitration proceedings conducted under the auspices of the CCMA are final and binding. Accordingly, this sui generis type of proceedings aimed at being cheap and informal has several implications. The adherence to traditional legal principles, in particular the rules relating to the presentation and admissibility of evidence cannot be adhered to rigorously in a forum where parties are unrepresented and that has informality as a defining feature. This paper set out to examine the proposition that based on various statutory powers; arbitrations are to be conducted informally and free from legalism- which necessarily entails a relaxation if not elimination of the traditional exclusionary rules pertaining to the presentation and admission of evidence. / Thesis (LL.M.)-University of KwaZulu-Natal, Durban, 2013.
43

Construction de liens entre algorithmique et logique par du calcul à temps infini / From algorithmics to logic through infinite time computations

Ouazzani, Sabrina 02 December 2016 (has links)
Cette thèse s'inscrit dans le contexte du calcul en temps infini. Par cette désignation, nous faisons référence au temps indicé par des ordinaux, ces derniers possédant de bonnes propriétés pour ``compter''en leur long. En 2000, le modèle des machines de Turing à temps infini fut proposé par Hamkins et Lewis. Ce modèle généralise le processus de calcul des machines de Turing aux étapes de temps représentées par des ordinaux. Dans ce modèle de calcul, les étapes sont indicées par des ordinaux dénombrables, bien que le ruban soit toujours indicé par des entiers naturels. Les entrées du modèle sont donc les suites infinies de lettres. Un certain nombre de comportements nouveaux et étonnants apparaissent avec ces machines. Dans notre thèse, nous nous intéressons à certains de ces comportements.Naturellement, plus les temps de calcul sont longs, plus le modèle est puissant, et plus il devient possible de décider de nouveaux ensembles.À partir d’ordinaux assez grands, de nouvelles propriétés structurelles apparaissent également. L'une d'entre elles est l'existence de brèches dans les temps possibles d'arrêts de programmes. Lorsque ces brèches furent découvertes, de premiers liens entre elles et le caractère admissible des ordinaux qui les commencent furent établis. Notre approche utilise l'algorithmique pour préciser les liens entre les propriétés logiques des ordinaux et les propriétés calculatoires de ces machines à temps infini.Plus précisément, grâce à des des algorithmes spécifiques, nous découvrons et prouvons de nouvelles propriétés sur ces brèches,amenant à une meilleure compréhension de leur structure. Nous montrons notamment que les brèches peuvent être de toutes les tailles (limites) écrivables, qu'il en existe même de taille au moins aussi grande que leur ordinal de début. Jusqu’à la première brèche ayant cette caractéristique, la structure des brèches est assez proche de celle des ordinaux : elles apparaissent en ordre croissant en fonction de leur taille. Nous montrons également que jusqu'à cette brèche spéciale, si les ordinaux admissibles sont exactement les ordinaux débutant les brèches, au-dessus, des ordinaux admissibles peuvent apparaître au milieu de très grandes brèches et la structure des brèches devient désordonnée. / This thesis is centred on the study of infinite time computations. Infinite time here means having a time axis indexed by ordinals — the ordinals are convenient objects along which we can count. The infinite time Turing machine model was introduced by Hamkins and Lewis in 2000. This model generalises the Turing machine computation model to ordinal time. In this model, stages are indexed by (countable) ordinals, even though the tape is indexed by the integers as in the classical model. This model can thus now have infinite strings as input. The main focus of this thesis is the study of some of the new and surprising behaviours that these machines exhibit. Naturally, the longer, i.e., the greater ordinal, the computations run, the more powerful the model is, i.e. it computes/recognizes more sets. If the computations run beyond certain ordinal times, new structural properties also appear. One of these properties is the existence of gaps in the halting times of the machines. When these gaps had been discovered, some first links had been established between these gaps and the admissible character of the ordinals starting them. Our approach uses algorithmics as a mean to emphasize the links between the logical properties of the ordinals involved and the computational properties of the infinite time Turing machines. Moreover, thanks to some specific algorithms, we discover and prove new properties of these gaps, leading to a better understanding of their structure. We show in particular that gaps can have precisely every possible writable ordinal size and that there are gaps whose length is greater or equal than their starting ordinal point. Until the first of such a gap, the gaps appear in increasing sizes. We also show that even if, before this special gap, admissible ordinals only appear at the beginning of gaps, the gaps structure becomes quite disordered beyond that point, with admissible ordinals appearing not only at the beginning but also inside some (huge) gaps.
44

L-infini déformations et cohomologie de Hochschild

SCHUHMACHER, Frank 21 October 2004 (has links) (PDF)
Dans la première partie de cette thèse, on définit de déformations des $L_\infty$-algèbres de telle façon que les bases de déformation sont aussi des $L_\infty$-algèbres. Pour les $L_\infty$-algèbres dont le complexe tangent est scindé on construit une déformation universelle et une déformation semi-universelle. Ensuite, on construit explicitement une $L_\infty$-structure minimale sur la cohomologie $H$ d'une algèbre differentielle graduée de Lie $L$ et un $L_\infty$-quasi-isomorphisme entre $H$ et $L$. Comme application, on montre que les singularités peuvent être décrites par les $L_\infty$-algèbres et on donne une nouvelle preuve pour l'existence des espaces formels de module pour les singularités isolées. La deuxième partie contient une approche abstraite de la (co)homologie de Hochschild en utilisant de ``bonnes paires de catégories''. On généralise le théorème HKR classique (qui donne un isomorphisme entre la $n$-ième homologie de Hochschild d'une algèbre lisse et la $n$-ième puissance extérieure de son module de differentielles de Kähler) pour des algèbres simpliciales, graduées commutatives dans de bonnes paires de catégories. On applique cette généralisation aux espaces complexes et aux schémas Noetheriens et on déduit plusieurs théorèmes de décomposition de leurs (co)homologies de Hochschild relatives.
45

Effective Domains and Admissible Domain Representations

Hamrin, Göran January 2005 (has links)
<p>This thesis consists of four papers in domain theory and a summary. The first two papers deal with the problem of defining effectivity for continuous cpos. The third and fourth paper present the new notion of an admissible domain representation, where a domain representation D of a space X is λ-admissible if, in principle, all other λ-based domain representations E of X can be reduced to X via a continuous function from E to D. </p><p>In Paper I we define a cartesian closed category of effective bifinite domains. We also investigate the method of inducing effectivity onto continuous cpos via projection pairs, resulting in a cartesian closed category of projections of effective bifinite domains. </p><p>In Paper II we introduce the notion of an almost algebraic basis for a continuous cpo, showing that there is a natural cartesian closed category of effective consistently complete continuous cpos with almost algebraic bases. We also generalise the notion of a complete set, used in Paper I to define the bifinite domains, and investigate what closure results that can be obtained. </p><p>In Paper III we consider admissible domain representations of topological spaces. We present a characterisation theorem of exactly when a topological space has a λ-admissible and κ-based domain representation. We also show that there is a natural cartesian closed category of countably based and countably admissible domain representations. </p><p>In Paper IV we consider admissible domain representations of convergence spaces, where a convergence space is a set X together with a convergence relation between nets on X and elements of X. We study in particular the new notion of weak κ-convergence spaces, which roughly means that the convergence relation satisfies a generalisation of the Kuratowski limit space axioms to cardinality κ. We show that the category of weak κ-convergence spaces is cartesian closed. We also show that the category of weak κ-convergence spaces that have a dense, λ-admissible, κ-continuous and α-based consistently complete domain representation is cartesian closed when α ≤ λ ≥ κ. As natural corollaries we obtain corresponding results for the associated category of weak convergence spaces.</p>
46

Effective Domains and Admissible Domain Representations

Hamrin, Göran January 2005 (has links)
This thesis consists of four papers in domain theory and a summary. The first two papers deal with the problem of defining effectivity for continuous cpos. The third and fourth paper present the new notion of an admissible domain representation, where a domain representation D of a space X is λ-admissible if, in principle, all other λ-based domain representations E of X can be reduced to X via a continuous function from E to D. In Paper I we define a cartesian closed category of effective bifinite domains. We also investigate the method of inducing effectivity onto continuous cpos via projection pairs, resulting in a cartesian closed category of projections of effective bifinite domains. In Paper II we introduce the notion of an almost algebraic basis for a continuous cpo, showing that there is a natural cartesian closed category of effective consistently complete continuous cpos with almost algebraic bases. We also generalise the notion of a complete set, used in Paper I to define the bifinite domains, and investigate what closure results that can be obtained. In Paper III we consider admissible domain representations of topological spaces. We present a characterisation theorem of exactly when a topological space has a λ-admissible and κ-based domain representation. We also show that there is a natural cartesian closed category of countably based and countably admissible domain representations. In Paper IV we consider admissible domain representations of convergence spaces, where a convergence space is a set X together with a convergence relation between nets on X and elements of X. We study in particular the new notion of weak κ-convergence spaces, which roughly means that the convergence relation satisfies a generalisation of the Kuratowski limit space axioms to cardinality κ. We show that the category of weak κ-convergence spaces is cartesian closed. We also show that the category of weak κ-convergence spaces that have a dense, λ-admissible, κ-continuous and α-based consistently complete domain representation is cartesian closed when α ≤ λ ≥ κ. As natural corollaries we obtain corresponding results for the associated category of weak convergence spaces.
47

Multiobjective optimization approaches in bilevel optimization / Les techniques d’optimisation multicritère en optimisation à deux niveaux

Pieume, Calice Olivier 10 January 2011 (has links)
Cette thèse aborde l'optimisation multicritère et l'optimisation à deux niveaux. L'investigation porte principalement sur les méthodes, les applications et les liens possibles entre les deux classes d'optimisation. Premièrement, nous développons une méthode de résolution des problèmes d'optimisation linéaire multicritère. Pour ce faire, nous introduisons une nouvelle caractérisation des faces efficaces et exploitons le résultat selon lequel l'ensemble des tableaux idéaux associés aux sommets extrêmes dégénérés est connexe. Ceci a permis de développer une approche de parcours de sommet extrême pour générer l'ensemble des solutions efficaces. Dans le même ordre d'idée, nous développons une méthode de résolution des problèmes linéaires à deux niveaux. L'approche est basée sur un résultat, que nous avons formalisé et démontré, qui stipule que la solution optimale du problème linéaire à deux niveaux est l'un des sommets extrêmes du domaine admissible. L'implémentation de l'approche a permis de démontrer qu'il existait dans la littérature des problèmes dont les solutions connues étaient fausses. Deuxièmement, en termes d'applications, nous construisons un modèle d'optimisation multicritère pouvant être exploité dans l'optique d'une planification optimale de la distribution de l'énergie électrique au Cameroun. Nous proposons aussi, à partir d'un modèle d'optimisation à deux niveaux, une technique dont la mise en œuvre par l'État pourrait permettre de protéger les industries locales de la concurrence des firmes internationales. Enfin, nous étudions l'interrelation entre l'optimisation multicritère et l'optimisation à deux niveaux. Tout d'abord, nous tirons des conditions de Pareto-optimalité des solutions du problème à deux niveaux. Ensuite, nous montrons qu'il est possible d'obtenir une solution optimale de certaines classes de problèmes d'optimisation à deux niveaux en résolvant deux problèmes particuliers d'optimisation multicritère. Puis, nous étudions le cas de problème à deux niveaux dans lequel chaque décideur possède plusieurs fonctions objectifs conflictuelles, en nous focalisant sur le cas linéaire. Après, nous construisons un problème artificiel d'optimisation linéaire multicritère dont l'ensemble des solutions efficaces est égal au domaine des solutions admissibles du problème du leader. Pour terminer, nous utilisons ce résultat pour proposer deux approches de résolution dépendant chacune des aspirations du leader / This thesis addresses two important classes of optimization : multiobjective optimization and bilevel optimization. The investigation concerns their solution methods, applications, and possible links between them. First of all, we develop a procedure for solving Multiple Objective Linear Programming Problems (MOLPP). The method is based on a new characterization of efficient faces. It exploits the connectedness property of the set of ideal tableaux associated to degenerated points in the case of degeneracy. We also develop an approach for solving Bilevel Linear Programming Problems (BLPP). It is based on the result that an optimal solution of the BLPP is reachable at an extreme point of the underlying region. Consequently, we develop a pivoting technique to find the global optimal solution on an expanded tableau that represents the data of the BLPP. The solutions obtained by our algorithm on some problems available in the literature show that these problems were until now wrongly solved. Some applications of these two areas of optimization problems are explored. An application of multicriteria optimization techniques for finding an optimal planning for the distribution of electrical energy in Cameroon is provided. Similary, a bilevel optimization model that could permit to protect any economic sector where local initiatives are threatened is proposed. Finally, the relationship between the two classes of optimization is investigated. We first look at the conditions that guarantee that the optimal solution of a given BPP is Pareto optimal for both upper and lower level objective functions. We then introduce a new relation that establishes a link between MOLPP and BLPP. Moreover, we show that, to solve a BPP, it is possible to solve two artificial M0PPs. In addition, we explore Bilevel Multiobjective Programming Problem (BMPP), a case of BPP where each decision maker (DM) has more than one objective function. Given a MPP, we show how to construct two artificial M0PPs such that any point that is efficient for both problems is also efficient for the BMPP. For the linear case specially, we introduce an artificial MOLPP such that its resolution can permit to generate the whole feasible set of the leader DM. Based on this result and depending on whether the leader can evaluate or not his preferences for his different objective functions, two approaches for obtaining efficient solutions are presented
48

Quelques problèmes de géométrie Finslérienne et Kählerienne / Some problems on Finsler and Kähler geometry

Adouani, Ines 11 May 2015 (has links)
Cette thèse traite de quelques problèmes classiques en géométrie complexe. La première partie est consacrée à la géométrie Finslérienne complexe. Étant donnés deux fibrés vectoriels holomorphes E1 et E2, munis respectivement de deux structures Finslériennes F1 et F2, on construit une métrique Finslérienne F sur le fibré E 1 ⊗ E 2 faisant intervenir les structures Finslériennes initiales. Moyennant une hypothèse sur les sections globales de E1* et E2*, on donne une condition optimale sous laquelle F est strictement pseudo convexe à courbure négative. Ce résultat est présenté après un chapitre constituant un background Finslérien témoignant de la recherche bibliographique en amont de cette thèse et de quelques initiatives et essais personnels. La seconde partie de ce travail traite d'un problème en géométrie Kählerienne. On prouve l'existence d'une fonction "extrémale" minorant toutes les fonctions admissibles (c'est à dire strictement pseudo convexe à la métrique initiale près) à sup nul sur des variétés de Fano non toriques, à savoir la grassmannienne complexe G m,nm ( C ). Les fonctions considérées sont invariantes par un groupe d'automorphismes convenablement choisi. Cette minoration est faite dans le but de calculer l'invariant de Tian sur de telles variétés, les initiatives dans le cas non torique restant très rares, même sur les variétés les plus simples. / This thesis deals with some classical problems in complex geometry. The first part is devoted to a problem in complex Finsler Geometry. Giving two holomorphic vector bundles E1 and E2, respectively endowed with two Finsler structures F1 and F2, we build a Finsler metric F on E 1 ⊗ E 2 involving the two initial Finsler structures. This is done under some assumptions on global sections of E1* and E2*. We give an optimal condition under which F is strictly pseudo convex with negative curvature. This result is preceded by a chapter containing a background material in complex Finsler geometry and some personal attempts. The second part of this thesis deals with a problem in Kähler Geometry. We prove the existence of an "extremal" function lower bounding all admissible functions (ie plurisubharmonic functions modulo a metric) with sup equal to zero on the complex Grassmann manifold G m,nm ( C ). The functions considered are invariant under a suitable automorphisms group. This gives a conceptually simple method to compute Tian's invariant in the case of a non toric manifold.
49

Contrôle d’erreur pour et par les modèles réduits PGD / Error control for and with PGD reduced models

Allier, Pierre-Eric 21 November 2017 (has links)
De nombreux problèmes de mécanique des structures nécessitent la résolution de plusieurs problèmes numériques semblables. Une approche itérative de type réduction de modèle, la Proper Generalized Decomposition (PGD), permet de déterminer l’ensemble des solutions en une fois, par l’introduction de paramètres supplémentaires. Cependant, un frein majeur à son utilisation dans le monde industriel est l’absence d’estimateur d’erreur robuste permettant de mesurer la qualité des solutions obtenues. L’approche retenue s’appuie sur le concept d’erreur en relation de comportement. Cette méthode consiste à construire des champs admissibles, assurant ainsi l’aspect conservatif et garanti de l’estimation de l’erreur en réutilisant le maximum d’outils employés dans le cadre éléments finis. La possibilité de quantifier l’importance des différentes sources d’erreur (réduction et discrétisation) permet de plus de piloter les principales stratégies de résolution PGD. Deux stratégies ont été proposées dans ces travaux. La première s’est principalement limitée à post-traiter une solution PGD pour construire une estimation de l’erreur commise, de façon non intrusive pour les codes PGD existants. La seconde consiste en une nouvelle stratégie PGD fournissant une approximation améliorée couplée à une estimation de l’erreur commise. Les diverses études comparatives sont menées dans le cadre des problèmes linéaires thermiques et en élasticité. Ces travaux ont également permis d’optimiser les méthodes de construction de champs admissibles en substituant la résolution de nombreux problèmes semblables par une solution PGD, exploitée comme un abaque. / Many structural mechanics problems require the resolution of several similar numerical problems. An iterative model reduction approach, the Proper Generalized Decomposition (PGD), enables the control of the main solutions at once, by the introduction of additional parameters. However, a major drawback to its use in the industrial world is the absence of a robust error estimator to measure the quality of the solutions obtained.The approach used is based on the concept of constitutive relation error. This method consists in constructing admissible fields, thus ensuring the conservative and guaranteed aspect of the estimation of the error by reusing the maximum number of tools used in the finite elements framework. The ability to quantify the importance of the different sources of error (reduction and discretization) allows to control the main strategies of PGD resolution.Two strategies have been proposed in this work. The first was limited to post-processing a PGD solution to construct an estimate of the error committed, in a non-intrusively way for existing PGD codes. The second consists of a new PGD strategy providing an improved approximation associated with an estimate of the error committed. The various comparative studies are carried out in the context of linear thermal and elasticity problems.This work also allowed us to optimize the admissible fields construction methods by substituting the resolution of many similar problems by a PGD solution, exploited as a virtual chart.
50

Exponent Sets and Muckenhoupt Ap-weights

Jonsson, Jakob January 2022 (has links)
In the study of the weighted p-Laplace equation, it is often important to acquire good estimates of capacities. One useful tool for finding such estimates in metric spaces is exponent sets, which are sets describing the local dimensionality of the measure associated with the space. In this thesis, we limit ourselves to the weighted Rn space, where we investigate the relationship between exponent sets and Muckenhoupt Ap-weights - a certain class of well behaved functions. Additionally, we restrict our scope to radial weights, that is, weights w(x) that only depend on |x|. First, we determine conditions on α such that |x|α ∈ Ap(μ) for doubling measures μ on Rn. From those results, we develop weight exponent sets - a tool for making Ap-classifications of general radial weights, under certain conditions. Finally, we apply our techniques to the weight |x|α(log 1/|x|)β. We find that the weight belongs to Ap(μ) if α ∈ (-q, (p-1)q), where q = sup Q(μ) is a constant associated with the dimensionality of μ. The Ap-conditions in this thesis are found to be sharp.

Page generated in 0.0537 seconds