• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 34
  • 8
  • Tagged with
  • 105
  • 43
  • 42
  • 26
  • 22
  • 19
  • 16
  • 16
  • 15
  • 15
  • 13
  • 13
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Le pouvoir discrétionnaire du juge pénal / The discretionary power of the penal judge

Al-Amiri, Samer Saadoun 11 January 2013 (has links)
Dans toutes les étapes d'un procès pénal, dès son ouverture jusqu'à sa clôture et le prononcé du verdict, le juge dispose d'un pouvoir particulier, dit "discrétionnaire", qui n'est pas soumis à un contrôle par une cour supérieure. La latitude du pouvoir discrétionnaire du juge pénal a suscité plusieurs enjeux afin de déterminer sa nature juridique et son étendue. À plusieurs reprises, l'ampleur de ce pouvoir a aussi conduit à l'enchevêtrer avec certaines notions voisines, telles que le pouvoir arbitraire, pouvoir souverain et l'intime conviction du juge. En outre, dans le but de prévenir tout risque de pouvoir arbitraire, le législateur a imposé à la Cour d'assises, sous la loi n° 939-2011 du 10 août 2011, de motiver sa décision. Nonobstant, le pouvoir discrétionnaire demeure toujours pourvu d'une portée large durant le déroulement du procès. En conséquence, ce pouvoir produit des effets contestables sur le principe de l'impartialité du juge et celui de l'égalité des citoyens devant la loi. Dans cette optique, on estime opportun de traiter, d'une part, la concordance entre le pouvoir discrétionnaire du juge et le concept de la justice, et d'autre part, l'impact de son opinion subjective sur la mise en œuvre de la justice. Cette étude souligne aussi l'exercice du pouvoir discrétionnaire par le juge notamment en relation avec la prise en considération des preuves et le choix de la peine. À cet égard, cette étude a été mise en lumière sous certains systèmes juridiques arabes et étrangers. / At the various stages of the proceedings, from the start of the trial until its closure and the pronunciation of the verdict, the judge has a specific power called "discretionary". Such power is not subject to the control of a supreme court. The latitude of discretion of the judge raises several issues to determine its legal nature and essence. At several occasions, the extent of this power has also created a confusion with some related concepts, such as arbitrary power, sovereign power and the intimate conviction of the judge. In addition, to prevent any risk of arbitrary power, the legislator has imposed the Criminal Court, under Law No. 939-2011 of 10 August 2011, to provide a motivation of its sentence. Notwithstanding this obligation, the scope of such discretion remains wide during the trial. Consequently, it greatly affects the principle of impartiality of the judge and the principle of equality of citizens before the law. In this light, we consider appropriate to study, firstly, the extent of compatibility between this power and the ideological concept of justice, and the impact of his personal view to implement the justice. Secondly, we emphasize the exercise of the discretionary power by the judge with regard to the rules of evidence and the choice of sentence. The study also highlighted some foreign and Arab legal systems.
32

Logiques de ressources dynamiques : modèles, propriétés et preuves / Dynamic Resource Logic : Models, Properties et Proofs

Courtault, Jean-René 15 April 2015 (has links)
En informatique, la notion de ressource est une notion centrale. Nous considérons comme ressource toute entité pouvant être composée ou décomposée en sous-entités. Plusieurs logiques ont été proposées afin de modéliser et d’exprimer des propriétés sur celles-ci, comme la logique BI exprimant des propriétés de partage et de séparation. Puisque les systèmes informatiques manipulent des ressources, la proposition de nouveaux modèles capturant la dynamique de ces ressources, ainsi que la vérification et la preuve de propriétés sur ces modèles, sont des enjeux cruciaux. Dans ce contexte, nous définissons de nouvelles logiques permettant la modélisation logique de la dynamique des ressources, proposant de nouveaux modèles et permettant l’expression de nouvelles propriétés sur cette dynamique. De plus, pour ces logiques, nous proposons des méthodes des tableaux et d’extraction de contre-modèles. Dans un premier temps, nous définissons de nouveaux réseaux de Petri, nommés ß-PN, et proposons une nouvelle sémantique à base de ß-PN pour BI. Puis nous proposons une première extension modale de BI, nommée DBI, permettant la modélisation de ressources ayant des propriétés dynamiques, c’est-à-dire évoluant en fonction de l’état courant d’un système. Ensuite, nous proposons une logique, nommée DMBI, modélisant des systèmes manipulant/produisant/consommant des ressources. Par ailleurs, nous proposons une nouvelle logique (LSM) possédant de nouvelles modalités multiplicatives (en lien avec les ressources). Pour finir, nous introduisons la séparation au sein des logiques épistémiques, obtenant ainsi une nouvelle logique ESL, exprimant de nouvelles propriétés épistémiques / In computer science, the notion of resource is a central concern. We consider as a resource, any entity that can be composed or decomposed into sub-entities. Many logics were proposed to model and express properties on these resources, like BI logic, a logic about sharing and separation of resources. As the computer systems manipulate resources, a crucial issue consists in providing new models that capture the dynamics of resources, and also in verifying and proving properties on these models. In this context, we define new logics with new models and new languages allowing to respectively capture and express new properties on the dynamics of resources. Moreover, for all these logics, we also study the foundations of proof search and provide tableau methods and counter-model extraction methods. After defining new Petri nets, called ß-PN, we propose a new semantics based on ß-PN for BI logic, that allows us to show that BI is able to capture a kind of dynamics of resources. After observing that it is necessary to introduce new modalities in BI logic, we study successively different modal extensions of BI. We define a logic, called DBI, that allows us to model resources having dynamic properties, meaning that they evolve during the iterations of a system. Then, we define a logic, called DMBI, that allows us to model systems that manipulate/produce/consume resources. Moreover, we define a new modal logic, called LSM, having new multiplicative modalities, that deals with resources. Finally, we introduce the notion of separation in Epistemic Logic, obtaining a new logic, called ESL, that models and expresses new properties on agent knowledge
33

Evidence in Epistemic Logic : A Topological Perspective / Preuves en logique épistémique : une perspective topologique

Özgün, Aybüke 04 October 2017 (has links)
Cette thèse de doctorat est une investigation des logiques de la connaissance, de la croyance et de la dynamique d'information, en utilisant des outils de topologie et logique épistémique (dynamique). La partie I concerne les interprétations fondées sur des preuves de croyances justifiées et connaissance. Commencer par une interprétation topologique des connaissances désormais standard en tant qu'opérateur intérieur, nous développons, de manière progressive, un cadre qui (1) peut parler de preuves non seulement sémantiquement, mais aussi le niveau syntaxique, rendant ainsi la notion de preuve plus explicite; (2) prend la preuve comme la notion la plus primitive, et définit la croyance et la connaissance purement basé sur elle. Dans la partie II de cette dissertation, nous nous concentrons sur notions de connaissances ainsi que divers types de dynamique de l'information comprenant apprendre de nouvelles preuves. Plus précisément, cette partie est centrée autour des notions de certaines connaissances et savoir-faire en tant que «connaissances potentielles», ainsi que les liens entre la notion abstraite d'effort épistémique englobant toute méthode l'acquisition de preuves et les attitudes dynamiques bien étudiées telles que les annonces publiques arbitraires. Pour résumer, cette thèse réinterprète d'une part certaines logiques épistémiques et doxastiques existantes et leurs extensions dynamiques d'un point de vue topologique, fournissant une interprétation fondée sur des preuves. D'un autre côté, elle utilise des outils topologiques pour affiner et étendre les analyses antérieures, conduisant à de nouvelles logiques de la dynamique des preuves et de l'information / This dissertation brings together epistemic logic and topology. It studies formal representations of the notion of evidence and its link to justification, justified belief, knowledge, and evidence-based information dynamics, by using tools from topology and (dynamic) epistemic logic. Part I is concerned with evidence-based interpretations of justified belief and knowledge. Starting with a by-now-standard topological interpretation of knowledge as the interior operator, we develop, in a gradual manner, a topological framework that (1) can talk about evidence not only semantically, but also at the syntactic level, thereby making the notion of evidence more explicit; (2) takes evidence as the most primitive notion, and defines belief and knowledge purely based on it, thereby linking these two crucial notions of epistemology at a deeper, more basic level. In Part II of this dissertation, we focus on notions of knowledge as well as various types of information dynamics comprising learning new evidence. More precisely, this part is centered around the notions of absolutely certain knowledge and know ability as "potential knowledge", as well as the connections between the abstract notion of epistemic effort encompassing any method of evidence acquisition and the well-studied dynamic attitudes such as public and arbitrary public announcements. To sum up, this dissertation on one hand re-interprets some existing epistemic and doxastic logics and their dynamic extensions from a topological perspective, providing an evidence-based interpretation. On the other hand, it uses topological tools to refine and extend earlier analysis, leading to novel logics of evidence and information dynamics
34

La médecine moderne est-elle fondée sur les preuves ? : à propos du cas des maladies respiratoires chroniques / Are we practicing evidence-based medicine ? : example of chronic respiratory diseases

Pahus, Laurie 27 September 2018 (has links)
L’essor de la statistique en médecine est l’ultime étape de la quête d’une médecine scientifique poursuivie tout au long de l’histoire de la discipline. Cette méthodologie de production des preuves médicales est reconnue par tous comme un gage de qualité justifiant les prises de décisions médicales au niveau individuel et collectif.Initialement, le concept est une démarche pédagogique prônant l’autonomie de chaque praticien dans la recherche, l’analyse critique et l’application personnalisée des preuves disponibles. La démarche rejette le dogmatisme médical. Ce concept a été et demeure largement controversé. Pour autant, il a rapidement traversé les frontières pour devenir une exigence déontologique et juridique au risque d’une dérive normative.La priorité laissée à la qualité méthodologique des preuves médicales au détriment de leur applicabilité en vraie-vie pose question.L’hypothèse de ce travail est qu’il existe, aux différentes étapes du circuit de la preuve médicale, des biais cognitifs et/ou méthodologiques qui peuvent impacter l’exercice pertinent de la médecine malgré son alibi scientifique.Au travers de l’exemple des maladies respiratoires chroniques, ce travail épistémologique se propose de caractériser la preuve médicale. Il décompose le circuit de la preuve médicale pour analyser sa méthodologie de production, ses sources, vecteurs et cibles de diffusion, les conséquences de l’implication des agences réglementaires et de l’Etat dans son applicabilité mais aussi les biais cognitifs auxquels sont soumis médecins et patients. Il vise à déterminer avec transparence sur quelles preuves la médecine se fonde pour en permettre une utilisation pertinente. / The use of statistics in medicine is the final step for the development of scientific medicine pursued throughout the history of the discipline. This method of production of medical evidence is recognized by healthcare professionals, drug manufacturers and political institutions as a pledge of quality that justifies medical decision-making at the individual and collective levels. Initially, the concept is an educational approach advocating the autonomy of each practitioner in bibliographic research and critical appraisal of available evidence for their use in the context of personalized medicine. The approach rejects medical dogmatism. This concept has been and remains largely controversial. However, it has quickly become a deontological and legal requirement that could drift back to dogmatism. The priority given to the methodological quality of medical evidence while poor attention is paid to its real-life applicability raises concerns. In this work we hypothesize that, from the production to the use of medical evidence there are cognitive and/or methodological biases that may alter the relevance of medicine practice despite its scientific alibi. Through the example of chronic respiratory diseases, this epistemological work aims at characterizing the medical evidence. To do so, we analyzed its production methodology, the sources, vectors and targets for dissemination, the consequences of the involvement of regulatory agencies and governments in its applicability and the cognitive biases that may apply to physicians and patients. It aims at determining transparently on what type of evidence medicine is based to enable its relevant practice.
35

Modèles et normalisation des preuves

Cousineau, Denis 01 December 2009 (has links) (PDF)
La notion de théorie s'est séparée de la notion de logique à la fin des années 1920, lorsque Hilbert et Ackermann ont distingué les règles de déduction, indépendantes de l'ob jet du discours, des axiomes qui lui sont spécifiques. S'est alors posée la question de caractériser les théories, définies donc comme des ensembles d'axiomes, que l'on peut utiliser pour formaliser une partie du raisonnement mathématique. Un premier critère est la cohérence de cette théorie : le fait qu'on ne puisse pas démontrer toutes les propositions de cette théorie. Cependant il est progressivement apparu que la cohérence n'était pas une propriété suffisante. Le fait que les démonstrations constructives vérifient les propriétés de la dijonction ou du témoin, ou la complétude de certaines méthodes de démonstration automatique ne découlent pas de la seule cohérence d'une théorie. Mais toutes trois sont par contre conséquentes d'une même propriété : la normalisation des démonstrations. En 1930, le théorème de complétude de Gödel montra que le critére de cohérence pouvait être vu sous différents angles. En plus de la définition précédente interne à la théorie de la démonstration, on peut également définir de manière algébrique la cohérence d'une théorie comme le fait qu'elle possède un modèle. L'équivalence entre ces deux définitions constitue un outil fondamental, qui a permis notamment la démonstration de la cohérence de nombreuses théories : la théorie des ensembles avec la négation de l'axiome du choix par Fraenkel et Mostovski, la théorie des ensembles avec l'axiome du choix et l'hypothèse du continue par Gödel, la théorie des ensembles avec la négation de l'hypothèse du continu par Cohen, . . . A l'inverse, la normalisation des démonstrations semblait ne pouvoir se définir que de manière interne à la théorie de la démonstration. Certains critères inspirés de la théorie des modèles étaient certes parfois utilisés pour démontrer la propriété de normalisation des démonstrations de certaines théories, mais la nécéssité de ces critéres n'avait pas été établie. Nous proposons dans cette thèse un critère algébrique à la fois nécessaire et suffisant pour la normalisation des démonstrations. Nous montrons ainsi que la propriété de normalisation des démonstrations peut également se définir comme un critère algébrique, à l'instar de la propriété de cohérence. Nous avons pour cela défini une nouvelle notion d'algèbre de valeurs de vérités (TVA) appelée algèbres de vérité dépendant du langage (LDTVA). La notion de TVA permet d'exhiber l'algèbre de valeurs de vérité des candidats de réductibilité définis par Girard en 1970. L'existence d'un modèle à valeurs dans cette algèbre définit un critère algébrique suffisant pour la propriété de normalisation des démonstrations. Puis nous avons défini un raffinement de la notion de candidats de réductibilité comme une de ces LDTVAs et avons montré que l'existence d'un modèle à valeurs dans cette algèbre définit un critère algébrique toujours suffisant mais également nécessaire pour la propriété de normalisation des démonstrations. Ce critère est défini pour les cadres logiques de la déduction minimale et du λΠ-calcul modulo. Et nous exhibons finalement la puissance du λΠ-calcul modulo en montrant que tous les systèmes de types purs fonctionnels peuvent être simulés dans ce cadre logique.
36

Une méthode de sélection de tests à partir de spécifications algébriques.

Boin, Clément 09 July 2007 (has links) (PDF)
Les travaux de cette thèse s'inscrivent dans le cadre de la vérification des logiciels et plus particulièrement du test à partir de spécifications algébriques. La soumission d'un jeu de tests exhaustif pour trouver toutes les erreurs d'un programme est généralement impossible. Il faut donc sélectionner un jeu de tests le plus judicieusement possible. Nous avons donc donné une méthode de sélection de tests par dépliage des axiomes de spécifications conditionnelles positives (clauses de Horn pour la logique équationnelle). Celle-ci permet de partitionner le jeu exhaustif des tests. Nous utilisons pour cela un critère de sélection qui utilise les axiomes de la spécification et qui peut être appliqué plusieurs fois de suite. Pour garantir de bonnes propriétés sur ce critère de sélection, nous avons également donné un cadre général pour la normalisation d'arbre de preuve. Il fonctionne pour n'importe quel système formel, et permet d'unifier un grand nombre de résultats en logique.
37

Approche logique des grammaires pour les langues naturelles

Anoun, Houda 24 October 2007 (has links) (PDF)
Les contributions majeures de cette thèse s'articulent autour des trois axes de base de la linguistique computationnelle, à savoir la logique, la linguistique et l'informatique. Nous proposons ainsi un nouveau système non-directionnel GLE permettant de simuler les opérations transformationnelles du Programme Minimaliste dans un cadre logique qui fait appel au raisonnement hypothétique de manière contrôlée. La pertinence de ce formalisme est soulignée en montrant sa capacité à prendre en charge des phénomènes linguistiques complexes, nécessitant un partage contraint de ressources, tels que le liage d'anaphores ou la résolution d'ellipse. En outre, nous présentons un atelier logique, nommé ICHARATE, destiné à la recherche et l'enseignement de la linguistique computationnelle. Cet outil est composé de bibliothèques pour l'assistant à la démonstration Coq, qui comprennent la formalisation de systèmes logiques avancés dédiés au traitement des langues naturelles, dont la logique multimodale.
38

Vérification des programmes logiques.

Craciunescu, Sorin 24 March 2004 (has links) (PDF)
Le but de ce travail est de proposer un système formel pour prouver que l'ensemble des succès d'un programme logique est inclus dans l'ensemble correspondant d'un autre programme. Cela permet de prouver que deux programmes logiques, un qui représente la spécification et un représentant l'implantation sont équivalents. Le langage logique considéré est CLPforall qui est le langage le langage de programmation logique avec contraintes (CLP) auquel est ajouté le quantificateur universel. Nous présentons les sémantiques des succès finis et infinis et montrons qu'elles sont données par le plus petit et le plus grand point fixe du même opérateur. Un système de preuve pour l'inclusion des succès finis est présenté. Le système utilise pour les opérateurs et les quantificateurs logiques les mêmes règles que la logique du premier ordre. Pour raisonner sur les prédicats récursifs le système contient une règle d'induction. Nous prouvons la correction du système sous certains conditions. Un système analogue pour l'inclusion des succès infinis est présenté. La règle d'induction est remplacée par une règle de coinduction. La correction est démontrée sous conditions analogues. Les deux systèmes sont équivalents sous certains conditions. Une implantation a été réalisée sous la forme d'assistant de preuve écrit en Prolog. Le programme a environ 4000 lignes et contient des procédures simples mais efficaces de recherche de preuves. Nous présentons des exemples de preuves réalises avec ce programme parmi lesquels la preuve de correction de quicksort.
39

Certification formelle de preuves cryptographiques basées sur les séquences de jeux

Zanella Beguelin, Santiago 09 December 2010 (has links) (PDF)
Les séquences de jeux sont une méthodologie établie pour structurer les preuves cryptographiques. De telles preuves peuvent être formalisées rigoureusement en regardant les jeux comme des programmes probabilistes et en utilisant des méthodes de vérification de programmes. Cette thèse décrit CertiCrypt, un outil permettant la construction et vérification automatique de preuves basées sur les jeux. CertiCrypt est implémenté dans l'assistant à la preuve Coq, et repose sur de nombreux domaines, en particulier les probabilités, la complexité, l'algèbre, et la sémantique des langages de programmation. CertiCrypt fournit des outils certifiés pour raisonner sur l'équivalence de programmes probabilistes, en particulier une logique de Hoare relationnelle, une théorie équationnelle pour l'équivalence observationnelle, une bibliothèque de transformations de programme, et des techniques propres aux preuves cryptographiques, permettant de raisonner sur les évènements. Nous validons l'outil en formalisant les preuves de sécurité de plusieurs exemples emblématiques, notamment le schéma de chiffrement OAEP et le schéma de signature FDH.
40

Extraction de code fonctionnel certifié à partir de spécifications inductives.

Tollitte, Pierre-Nicolas 06 December 2013 (has links) (PDF)
Les outils d'aide à la preuve basés sur la théorie des types permettent à l'utilisateur d'adopter soit un style fonctionnel, soit un style relationnel (c'est-à-dire en utilisant des types inductifs). Chacun des deux styles a des avantages et des inconvénients. Le style relationnel peut être préféré parce qu'il permet à l'utilisateur de décrire seulement ce qui est vrai, de s'abstraire temporairement de la question de la terminaison, et de s'en tenir à une description utilisant des règles. Cependant, une spécification relationnelle n'est pas exécutable.Nous proposons un cadre général pour transformer une spécification inductive en une spécification fonctionnelle, en extrayant à partir de la première une fonction et en produisant éventuellement la preuve de correction de la fonction extraite par rapport à sa spécification inductive. De plus, à partir de modes définis par l'utilisateur, qui permettent de considérer les arguments de la relation comme des entrées ou des sorties (de fonction), nous pouvons extraire plusieurs comportements calculatoires à partir d'un seul type inductif.Nous fournissons également deux implantations de notre approche, l'une dans l'outil d'aide à la preuve Coq et l'autre dans l'environnement Focalize. Les deux sont actuellement distribuées avec leurs outils respectifs.

Page generated in 0.047 seconds