Spelling suggestions: "subject:"axiomes"" "subject:"biomes""
1 |
Une Méthode axiomatique de preuve de propriétés de fatalité de programmes parallèles avec hypothèse d'exécution équitable.Mery, Dominique, Unknown Date (has links)
Th. 3e cycle--Inform.--Nancy--I.N.P.L., 1983.
|
2 |
Une contribution au sujet de "la méthode axiomatique dans l'enseignement de la géométrie"Lunkenbein, D. 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
|
3 |
Contribution à l'algèbre linéaire formelle formes normales de matrices et applications /Gil, Isabelle. Della Dora, Jean January 2008 (has links)
Reproduction de : Thèse de doctorat : Mathématiques appliquées : Grenoble, INPG : 1993. / Titre provenant de l'écran-titre.
|
4 |
Les valeurs dans la jurisprudence de la Cour européenne des droits de l'homme : Essai critique sur l'interprétation axiologique du juge européen / Values in the legal precedents of the European court of human rights : Critical essay on an axiological interpretation of the European judgeBlanc-Fily, Charlotte 11 April 2014 (has links)
Partout présentes au cœur de la jurisprudence européenne des droits de l'homme, les valeurs fondamentales des sociétés démocratiques constituent un sujet d'étude pertinent pour apprécier dans quelle mesure ces valeurs sont mobilisées et si elles participent d'une interprétation axiologique de la Convention européenne des droits de l'homme. Simple rappel rhétorique ou véritable outil argumentatif, le recours aux valeurs dans la jurisprudence de la Cour EDH mérite ainsi d'être analysé au travers du prisme de l'interprétation de la Convention. A côté de l'interprétation téléologique, des interprétations évolutive et consensuelle, aucune étude n'a jusqu'alors recherché à systématiser la référence aux valeurs des sociétés démocratiques pour tenter d'en déduire une interprétation axiologique. Mais alors que le juge européen multiplie les références aux valeurs dans ses décisions, il y a néanmoins lieu de constater que l'utilisation de ces valeurs est concurrencée par d'autres politiques jurisprudentielles plus contemporaines et soucieuses des attentes actuelles des populations, de la revendication libertaire individualiste de plus en plus prégnante, et du nécessaire respect du principe de subsidiarité. Phénomènes qui s'accommodent difficilement d'une protection conservatrice de valeurs communes aux Etats parties à la Convention européenne des droits de l'homme. / Everywhere in the legal precedents of the European court of human rights (ECHR), fundamental values of democratic societies are a relevant study subject to understand in which part the values are used and if they participate of a specific interpretation of the European convention based on axioms defense's. Simple rhetoric use or true argumentative tool, values resort's in the legal precedents of the ECHR need to be appreciated as an isolate interpretation method. Next to teleologic, evolutive, and consensual interpretative methods, none study try until then to systematize the resort of fundamental values of democratic societies by the judge and deduct of the European court case law the existence of a specific interpretation based on values defense's. If the European judge multiplies the resorts of values in case law, we have to notice that utilization of values competes with others interpretative methods, more contemporary, and respectful of actual societal expectations, individual claims and to enforce the subsidiarity principle. All social facts and jurisdictional necessities which are difficult to conciliate with requirement of a conservative protection of common values of the contracting States.
|
5 |
Une méthode de sélection de tests à partir de spécifications algébriques.Boin, Clément 09 July 2007 (has links) (PDF)
Les travaux de cette thèse s'inscrivent dans le cadre de la vérification des logiciels et plus particulièrement du test à partir de spécifications algébriques. La soumission d'un jeu de tests exhaustif pour trouver toutes les erreurs d'un programme est généralement impossible. Il faut donc sélectionner un jeu de tests le plus judicieusement possible. Nous avons donc donné une méthode de sélection de tests par dépliage des axiomes de spécifications conditionnelles positives (clauses de Horn pour la logique équationnelle). Celle-ci permet de partitionner le jeu exhaustif des tests. Nous utilisons pour cela un critère de sélection qui utilise les axiomes de la spécification et qui peut être appliqué plusieurs fois de suite. Pour garantir de bonnes propriétés sur ce critère de sélection, nous avons également donné un cadre général pour la normalisation d'arbre de preuve. Il fonctionne pour n'importe quel système formel, et permet d'unifier un grand nombre de résultats en logique.
|
6 |
Axiomatic cost sharingWang, Yuntong 12 1900 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal. / Le sujet de cette thèse est le partage de coût. Plus précisément pour un problème de partage de coût donné, j'étudie différentes méthodes de partage de coût selon l'approche axiomatique. Le problème de partage de coût est un problème mi un nombre fini d'agents cherchent à partager le coût joint de la production nécessaire à la satisfaction de leur demande. Une méthode de partage de coût est une fonction qui associe à chaque problème les proportions ou parts du coût total qui doivent être allouées à chacun des agents. L'approche axiomatique vise donc à caractériser un ensemble de méthodes de partage de coût en se basant sur des propriétés ou axiomes mathématiques généraux ou normatifs. La thèse est divisée en trois chapitres, chacun étant lui-même composé d'une ou plusieurs sections. Le premier chapitre est une revue de la littérature où sont résumés les résultats les plus importants qui ont suivi l'article de Shapley [1953]. Dans ce chapitre, le partage de coût est présenté d'un point de vue général comme faisant partie intégrante d'une économie de production où l'on aborde à la fois les problèmes d'équité, d'efficacité et de compatibilité des incitations de la méthode de partage de coût. Le deuxième chapitre s'appuie sur le modèle discret introduit par Moulin [1995] à travers trois sections. La première section caractérise l'ensemble des méthodes qui satisfont les axiomes d'Additivité et "Dummy". Le principal résultat de la section est que cet ensemble est généré par toutes les combinaisons convexes de méthodes dites "path generated". C'est un résultat important pour étudier l'effet des autres axiomes sur la caractérisation de la méthode de partage de coût. La deuxième section étudie la version discrète de la méthode d'Aumann-Shapley. Nous donnons une caractérisation par les axiomes d'Additivité, de Dummy, et de Proportionnalité pour les cas où le nombre d'agents est égal à deux (n = 2) et la demande d'un des agents est égale à un (34 = 1). Dans la troisième section, nous proposons un nouvel axiome dit Invariance à la Mesure (Measurement Invariance). Nous démontrons ensuite que l'ensemble des méthodes satisfaisant les axiomes d'Additivité, de Dummy, et d'Invariance à la Mesure est l'ensemble des méthodes "Simple Random Order Values" (SROV) et que la méthode de Shapley-Shubik est l'unique méthode symétrique de l'ensemble des SROV. Le troisième chapitre repose sur le modèle continu étudié par Friedman et Moulin [1995]. Dans la première section , nous étudions l'impact de l'axiome d'Ordinalité introduit par Sprumont [1998] sur les méthodes additives de partage de coût et nous généralisons le résultat de la deuxième section du Chapitre 2 au cas continu en remplaçant l'axiome d'invariance à la mesure par celui d'Ordinalité. Dans la deuxième section de ce chapitre, nous considérons une méthode "non-additive", c’est-à-dire, la méthode proportionnelle ajustée au coût marginal dites "Proportionally Adjusted Marginal Pricing" (PAMP). Nous caractérisons la méthode PAMP par les axiomes d'Indépendance Locale, de Proportionalité, d'Invariance à l'échelle, et de Continuité.
|
7 |
Analyse des données ordinales et modélisation explicativeDridi, Mohamed-Tahar 06 June 1979 (has links) (PDF)
On expose les propriétés générales des graphes de surclassement et une condition suffisante pour qu'un graphe de surclassement sort sans circuit. On étudie la recherche de structures latentes. On établit le caractère erroné d'une conjecture Marschack pour tout ensemble de plus de 5 éléments. On caractérise les graphes values admettant certaines structures latentes. On propose un algorithme pour engendrer des "états de l'opinion
|
8 |
Extension pondérée des logiques modales dans le cadre des croyances graduelles / Modal logic weighted extensions for a graded belief frameworkLegastelois, Bénédicte 30 November 2017 (has links)
Dans le domaine de la modélisation du raisonnement, plusieurs approches se basent sur les logiques modales qui permettent de formaliser le raisonnement sur des éléments non factuels, comme la croyance, le savoir ou encore la nécessité. Une extension pondérées de ces logiques modales permet de moduler les éléments non factuels qu'elle décrit. En particulier, nous nous intéressons à l'extension pondérée des logiques modales qui permet de formaliser des croyances graduelles : nous traitons des aspects sémantiques et axiomatiques ainsi que des aspects syntaxiques liés à la manipulations de telles croyances modulées. Ainsi, les travaux de cette thèse sont organisés en trois parties. Nous proposons, d'une part, une sémantique proportionnelle qui étend la sémantique de Kripke classiquement utilisée pour les logiques modales ; ainsi qu'une étude des axiomes modaux dans le contexte de cette sémantique des modalités pondérées. D'autre part, nous proposons un modèle ensembliste flou pour représenter et manipuler des degrés de croyances. Enfin, nous mettons en œuvre ces modèles théoriques dans deux applications : un outil de vérification de formules modales pondérées et un joueur artificiel pour le jeu coopératif Hanabi dont la prise de décision repose sur un raisonnement sur ses propres croyances. / In the field of reasoning models, many approaches are based on modal logics, which allow to formalise the non-factual reasoning, as belief, knowledge or necessity reasoning. A weighted extension for these modal logics aims at modulating the considered non-factual elements. In particular, we examine the weighted extension of modal logics for graded beliefs: we study their semantical and axiomatical issues related to manipulating such modulated beliefs. Therefore, this thesis works are organised in three parts. We first propose a proportional semantics which extends the Kripke semantics, classically used for modal logics. We also study modal axioms regarding the proposed semantics. Then, we propose a fuzzy set model for representing and manipulating belief degrees. We finally use these two formal models in two different applications: a model checking tool for weighted modal formulae and an artifical player for a cooperative game called Hanabi in which decision making is based on graded belief reasoning.
|
9 |
Réalisabilité classique et effets de bord / Classical realizability and side effectsMiquey, Étienne 17 November 2017 (has links)
Cette thèse s'intéresse au contenu calculatoire des preuves classiques, et plus spécifiquement aux preuves avec effets de bord et à la réalisabilité classique de Krivine. Le manuscrit est divisé en trois parties, dont la première consiste en une introduction étendue des concepts utilisés par la suite. La seconde partie porte sur l’interprétation calculatoire de l’axiome du choix dépendant en logique classique. Ce travail s'inscrit dans la continuité du système dPAω d'Hugo Herbelin, qui permet d’adapter la preuve constructive de l’axiome du choix en théorie des types de Martin-Löf pour en faire une preuve constructive de l’axiome du choix dépendant dans un cadre compatible avec la logique classique. L'objectif principal de cette partie est de démontrer la propriété de normalisation pour dPAω, sur laquelle repose la cohérence du système. La difficulté d'une telle preuve est liée à la présence simultanée de types dépendants (pour la partie constructive du choix), d'opérateurs de contrôle (pour la logique classique), d'objets co-inductifs (pour "encoder" les fonctions de type N → A par des streams (a₀,a₁,...)) et d'évaluation paresseuse avec partage (pour ces objets co-inductifs). Ces difficultés sont étudiées séparément dans un premier temps. En particulier, on montre la normalisation du call-by-need classique (présenté comme une extension du λµµ̃-calcul avec des environnements partagé), en utilisant notamment des techniques de réalisabilité à la Krivine. On développe ensuite un calcul des séquents classique avec types dépendants, définie comme une adaptation du λµµ̃-calcul, dont la correction est prouvée à l'aide d'une traduction CPS tenant compte des dépendances. Enfin, une variante en calcul des séquents du système dPAω est introduite, combinant les deux points précédents, dont la normalisation est finalement prouvée à l'aide de techniques de réalisabilité. La dernière partie, d'avantage orientée vers la sémantique, porte sur l’étude de la dualité entre l’appel par nom (call-by-name) et l’appel par valeur (call-by-value) dans un cadre purement algébrique inspiré par les travaux autour de la réalisabilité classique (et notamment les algèbres de réalisabilité de Krivine). Ce travail se base sur une notion d'algèbres implicatives développée par Alexandre Miquel, une structure algébrique très simple généralisant à la fois les algèbres de Boole complètes et les algèbres de réalisabilité de Krivine, de manière à exprimer dans un même cadre la théorie du forcing (au sens de Cohen) et la théorie de la réalisabilité classique (au sens de Krivine). Le principal défaut de cette structure est qu’elle est très orientée vers le λ-calcul, et ne permet d’interpréter fidèlement que les langages en appel par nom. Pour remédier à cette situation, on introduit deux variantes des algèbres implicatives les algèbres disjonctives, centrées sur le “par” de la logique linéaire (mais dans un cadre non linéaire) et naturellement adaptées aux langages en appel par nom, et les algèbres conjonctives, centrées sur le “tenseur” de la logique linéaire et adaptées aux langages en appel par valeur. On prouve en particulier que les algèbres disjonctives ne sont que des cas particuliers d'algèbres implicatives et que l'on peut obtenir une algèbre conjonctive à partir d'une algèbre disjonctive (par renversement de l’ordre sous-jacent). De plus, on montre comment interpréter dans ces cadres les fragments du système L de Guillaume Munch-Maccagnoni en appel par valeur (dans les algèbres conjonctives) et en appel par nom (dans les algèbres disjonctives). / This thesis focuses on the computational content of classical proofs, and specifically on proofs with side-effects and Krivine classical realizability. The manuscript is divided in three parts, the first of which consists of a detailed introduction to the concepts used in the sequel.The second part deals with the computational content of the axiom of dependent choice in classical logic. This works is in the continuity of the system dPAω developed Hugo Herbelin. This calculus allows us to adapt the constructive proof of the axiom of choice in Martin-Löf's type theory in order to turn it into a constructive proof of the axiom of dependent choice in a setting compatible with classical logic. The principal goal of this part is to prove the property of normalization for dPAω, on which relies the consistency of the system. Such a proof is hard to obtain, due to the simultaneous presence of dependent types (for the constructive part of the choice), of control operators (for classical logic), of co-inductive objects (in order to "encode" functions of type N → A as streams (a₀,a₁,...)) and of lazy evaluation with sharing (for this co-inductive objects). These difficulties are first studied separately. In particular, we prove the normalization of classical call-by-need (presented as an extension of the λµ̃µ-calculus with shared environments) by means of realizability techniques. Next, we develop a classical sequent calculus with dependent types, defined again as an adaptation of the λµ̃µ-calculus, whose soundness is proved thanks to a CPS translation which takes the dependencies into account. Last, a sequent-calculus variant of dPAω is introduced, combining the two previous systems. Its normalization is finally proved using realizability techniques. The last part, more oriented towards semantics, studies the duality between the call-by-name and the call-by-value evaluation strategies in a purely algebraic setting, inspired from several works around classical realizability (and in particular Krivine realizability algebras). This work relies on the notion of implicative algebras developed by Alexandre Miquel, a very simple algebraic structure generalizing at the same time complete Boolean algebras and Krivine realizability algebras, in such a way that it allows us to express in a same setting the theory of forcing (in the sense of Cohen) and the theory of classical realizability (in the sense of Krivine). The main default of these structures is that they are deeply oriented towards the λ-calculus, and that they only allows to faithfully interpret languages in call-by-name. To remediate the situation, we introduce two variants of implicative algebras: disjunctive algebras, centered on the "par" connective of linear logic (but in a non-linear framework) and naturally adapted to languages in call-by-name; and conjunctives algebras, centered on the "tensor" connective of linear logic and adapted to languages in call-by-value. Amongst other things, we prove that disjunctive algebras are particular cases of implicative algebras and that conjunctive algebras can be obtained from disjunctive algebras (by reversing the underlying order). Moreover, we show how to interpret in these frameworks the fragments of Guillaume Munch-Maccagnoni's system L corresponding to a call-by-value calculus (within conjunctive algebras) and to a call-by-name calculus (within disjunctive algebras).
|
Page generated in 0.0337 seconds