• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 756
  • 83
  • 32
  • 11
  • 7
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 933
  • 419
  • 341
  • 269
  • 155
  • 148
  • 119
  • 108
  • 102
  • 88
  • 88
  • 87
  • 81
  • 81
  • 77
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

De l'interprétation des clauses contractuelles à la qualification du contrat / From the interpretation of the contractuel terms to the characterization of the contract

Lagadec, Alain 12 April 2017 (has links)
De la volonté des parties de s’accorder sur les éléments essentiels d’un contrat, naît tout un processus contractuel qui se traduit par la création d’obligations, éléments susceptibles d’être à l’origine d’un désaccord. Dès lors qu’un juge est saisi d’un litige, les opérations d’interprétation et de qualification du contrat litigieux auxquelles il se consacre se définissent par une double fonction. Dans un premier temps, l’interprétation du contenu du contrat permet au juge de repérer les éléments de fait qui ont été déterminants de la volonté des parties de contracter. Dans un second temps, une fois déterminés, ces éléments qui sont porteurs du sens du contrat, vont permettre au juge d’apporter, une solution au désaccord qui oppose les parties. Or, la solution ne trouvera son efficacité que si le juge applique aux éléments de fait qu’il a identifiés le droit approprié ; il faut pour cela qualifier le fait au sens où la qualification, consiste à déterminer la catégorie dans laquelle s’inscrit le contrat, afin de lui appliquer le régime juridique qui lui correspond. Elle est en cela le préalable à l’application d’une règle juridique. Opération intellectuelle, la qualification fait ainsi office de charnière entre les deux fonctions attachée à l’opération d’interprétation que sont l’interprétation des données de fait et la solution apportée par le juge sur le contenu contractuel litigieux. / A contractual process begins with the intention of the parties to agree on the essential elements of a contract. This process which results in the creation of obligations, may be the cause of a disagreement. When a judge has to rule on a contractual dispute, the processes of interpretation and characterization of the contract which he has to perform have a double function. First, the interpretation of the contents of the contract allows the judge to identify the factual elements which are evidence of the intention of the parties to enter into a contract. Secondly, once identified, these elements which contain the meaning of the contract, will allow the judge to find a solution to the disagreement between the parties. However, this solution will only be efficient if the judge applies the appropriate law to the facts which he has identified. To do so, the judge will have to characterize the contract, which consists in determining the category in which the contract falls in order to apply the relevant legal framework. Thus, characterization is a prerequisite to the application of a legal provision. The intellectual process of characterization is the link between the two functions involved in the interpretation process, i.e. the interpretation of the factual elements and the solution provided by the judge to the disputed contractual terms.
332

Traduction et interprétation du livre des Proverbes à travers le Talmud et les commentaires juifs médiévaux / Translation and interpretation of the book of the Proverbs through the Talmud and medieval Jewish commentaries

Smilévitch, Éric 15 September 2014 (has links)
Depuis la traduction grecque des Septante, le livre biblique Michlé est traduit par « Livre des Proverbes ». Or, dans la tradition herméneutique juive, la signification correcte n’est pas « proverbes » mais « paraboles ». Ce choix de signification modifie le contenu de l’ensemble du livre, puisqu’il invite à lire et à interpréter ses assertions dans un tout autre horizon que la perspective reçue depuis la Septante. Il fallait donc traduire le texte hébraïque de Michlé sur de nouvelles bases, en suivant l’herméneutique talmudique et midrachique, reprise et développée à l’époque médiévale par les commentateurs, les philosophes et les grammairiens juifs. Nous proposons ainsi une traduction nouvelle, accompagnée de commentaires et de notes philologiques qui explorent « les » sens du texte hébreu en fonction de ses strates métaphoriques et allégoriques, et en déploient le contenu. Cette traduction est précédée d’une longue introduction qui permet de comprendre les prémisses de l’herméneutique juive ; et s’efforce de déchiffrer les processus littéraires et historiques qui en empêchent l’accès, et engendrent les malentendus dont Michlé est un exemple crucial. Il importait encore de faire le point sur l’état actuel de la traduction des textes bibliques, tant du point de vue des travaux réalisés en France que du point de vue des impératifs internes de la tradition hébraïque. Une part importante de l’introduction est donc aussi consacrée aux problèmes méthodologiques particuliers à la traduction des écrits bibliques ; et à l’esquisse d’une démarche dont la traduction de Michlé est la mise en pratique. / Since the Greek Septuagint, the biblical book Mishlei is translated "Book of Proverbs". But in the Jewish hermeneutic tradition, the correct translation is "parables". This new meaning changes the meaning of the whole book. It was therefore necessary to translate the Hebrew text of Mishlei on a new basis, following the Talmudic and midrashic hermeneutics, extended and developed in medieval times by commentators, philosophers and Jewish grammarians. Thus, we propose a new translation, with commentary and philological notes that explore the meanings of the Hebrew text including its metaphorical and allegorical layers. This translation is preceded by a long introduction devoted to locate the premises of Jewish hermeneutics, and to understand the literary and historical proces that prevent access, and create misunderstandings which Mishlei is a crucial example. An important part of the introduction is also devoted to methodological problems of translation of biblical writings.
333

Analyse et détection dynamique de codes viraux dans un contexte cryptographique

Josse, Sébastien 10 April 2009 (has links) (PDF)
Cette thèse est consacrée à la problématique de l'évaluation des produits antivirus. L'utilisateur final d'un produit antivirus ne sait pas toujours quelle confiance il peut placer dans son produit antivirus pour parer convenablement la menace virale. Pour répondre à cette question, il est nécessaire de formuler la problématique de sécurité à laquelle doit répondre un tel produit et de disposer d'outils et de critères méthodologiques, techniques et théoriques permettant d'évaluer la robustesse des fonctions de sécurité et la pertinence des choix de conception au regard d'une menace virale identifiée. Je concentre mon analyse de la menace virale sur quelques mécanismes (mécanismes cryptographiques, transformations de programme) adaptés au contexte boîte blanche, i.e. permettant à un virus de protéger ses données critiques en confidentialité et de masquer son fonctionnement dans un environnement complètement maîtrisé par l'attaquant. Une première étape incontournable avant toute organisation d'une ligne de défense consiste à analyser les virus, afin d'en comprendre le fonctionnement et les effets sur le système. Les méthodes et techniques de la rétro-ingénierie logicielle occupent ici - au côté des techniques de cryptanalyse - une place centrale. J'ai pris le parti de focaliser sur les méthodes dynamiques d'extraction d'information fondées sur une émulation du matériel supportant le système d'exploitation. L'évaluation d'un moteur de détection selon des critères objectifs requiert un effort de modélisation. J'étudie quelques modèles utilisés actuellement (grammaires formelles, interprétation abstraite, statistique). Chacun de ces modèles permet de formaliser certains aspects du problème de la détection virale. Je m'attache à l'étude des critères qu'il est possible de définir dans chacun de ces cadres formels et à leur utilisation pour partie des travaux d'évaluation d'un moteur de détection. Mes travaux m'ont conduit à la mise en oeuvre d'une approche méthodologique et d'une plate-forme de tests pour l'analyse de robustesse des fonctions et mécanismes d'un produit anti-virus. J'ai développé un outil d'analyse de code viral, appelé VxStripper, dont les fonctionnalités sont utiles à la réalisation de plusieurs des tests. Les outils formels sont utilisés pour qualifier en boîte blanche - ou sur la base des documents de conception détaillée - la conformité et l'efficacité d'un moteur de détection.
334

Séquents qu'on calcule: de l'interprétation du calcul des séquents comme calcul de lambda-termes et comme calcul de stratégies gagnantes

Herbelin, Hugo 23 January 1995 (has links) (PDF)
L'objet de cette thèse est l'étude des systèmes formels du type des systèmes LJ et LK de Gentzen (couramment appelés calculs des séquents) dans leur rapport avec la calculabilité. Le procédé de calcul dans ces systèmes consiste en « l'élimination des coupures ». Deux interprétations sont considérées.<br /><br />Le lambda-calcul constitue le support de la première interprétation. Nous établissons une correspondance de type Curry-Howard entre LJ et une variante syntaxique du lambda-calcul avec opérateur explicite de substitution (de type « let _ in _ »). Une procédure de normalisation/élimination des coupures confluente et terminant fortement est donnée et l'extension de la correspondance à LK se fait en considérant l'opérateur mu du lambda-mu-calcul de Parigot.<br /><br />La théorie des jeux constitue le support de la deuxième interprétation: les preuves des calculs des séquents sont vues comme des stratégies gagnantes pour certains types de jeux à deux joueurs (dialogues) se disputant la validité de la formule prouvée. Nous donnons deux résultats.<br /><br />Dans un premier temps, nous montrons qu'il suffit de considérer des restrictions LJQ de LJ puis LKQ de LK pour établir, dans le cas propositionnel, une bijection entre les preuves de ces systèmes et les E-dialogues intuitionnistes puis classiques définis par Lorenzen dans un but de fondement de la prouvabilité en termes de jeux. Ceci affine et généralise un résultat de Felscher d'équivalence entre l'existence d'une preuve d'une formule A dans LJ et l'existence d'une stratégie gagnante pour le premier des joueurs dans un E-dialogue à propos de A.<br /><br />Dans un deuxième temps, nous partons d'une logique propositionnelle infinitaire sans variable considérée par Coquand pour y définir une interaction prouvée terminante entre les preuves vues comme stratégies gagnantes. Nous montrons une correspondance opérationnelle entre ce procédé d'interaction et l'élimination « faible de tête » des coupures, celle-ci étant indépendamment prouvée terminante.
335

Analyse statique d'un calcul d'acteurs par interprétation abstraite

Garoche, Pierre-Loïc 10 June 2008 (has links) (PDF)
Le modèle des Acteurs, introduit par HEWITT et AGHA à la fin des années 80, décrit un système concurrent comme un ensemble d'agents autonomes au comportement non uniforme et communiquant de façon point-à-point par l'envoi de messages étiquetés. Le calcul CAP, proposé par COLAÇO, est un calcul de processus basé sur ce modèle qui permet de décrire sans encodage complexe des systèmes réalistes non triviaux. Ce calcul permet, entre autre, la communication de comportements via les messages et est, en ce sens, un calcul d'ordre supérieur. L'analyse de propriétés sur ce calcul a déjà fait l'objet de plusieurs travaux, essentiellement par inférence de type en utilisant des types comportementaux et du sous-typage.<br /> Par ailleurs, des travaux plus récents, effectués par VENET puis FERET, proposent une utilisation de l'interprétation abstraite pour l'analyse de calculs de processus. Ces approches permettent de calculer des propriétés non uniformes : elles permettent, par exemple, de différencier les instances récursives d'un même processus.<br /> Cette thèse s'inscrit donc dans la suite de ces deux approches, en appliquant l'interprétation abstraite à l'analyse de CAP. Suivant le cadre proposé par FERET, CAP est, tout d'abord, exprimé dans une forme non standard facilitant les analyses. L'ensemble des configurations atteignables est ensuite sur-approximé via une représentation, correcte par construction, dans des domaines abstraits.<br /> Des domaines abstraits généraux sont ensuite introduits afin d'améliorer les analyses existantes ou de représenter des propriétés locales à un sous-terme.<br /> Des propriétés spécifiques à CAP, la linéarité des termes et l'absence de messages orphelins, sont alors étudiées dans ce cadre. Des domaines spécifiques sont définis et utilisés pour vérifier ces propriétés. Le cadre présenté permet de lever toutes les restrictions existantes des analyses précédentes quant à la forme des termes ou l'utilisation du passage de comportement.<br /> L'intégralité des analyses présentées a été implantée dans un prototype.
336

Unification d'arborescences : évaluation sémantique d'énoncés en langue naturelle

Joloboff, Vania 08 September 1978 (has links) (PDF)
Elaboration d'un algorithme d'unification après présentation de la notion de ramification. Cet algorithme peut aussi être utilisé dans le cadre de la transformation de programmes. Puis étude d'un système d'analyse linguistique dans lequel est intégré l'algorithme.
337

Etude et réalisation d'un système d'extraction de connaissances à partir de textes

Cherfi, Hacène 15 November 2004 (has links) (PDF)
Ce travail de thèse porte sur la problématique d'extraction de connaissances à partir de textes, plus communément appelée la fouille de textes (FdT). Il s'articule autour des problèmes liés à l'analyse des textes, la fouille de textes proprement dite, et l'interprétation des éléments de connaissances extraits. Dans ce cadre, un système d'extraction des connaissances nécessaires pour analyser les textes en fonction de leur contenu est étudié et implanté. Les méthodes de fouille de données appliquées sont la recherche de motifs fréquents (avec l'algorithme Close) et l'extraction de règles d'association. Le mémoire s'attache à définir précisément le processus de fouille de textes et ses principales caractéristiques et propriétés en s'appuyant sur l'extraction de motifs fréquents et de règles d'association. En outre, une étude minutieuse d'un ensemble donné de mesures de qualité qu'il est possible d'attacher aux règles d'association est menée, toujours dans le cadre de la fouille de textes. Il est montré quel rôle ces mesures peuvent avoir sur la qualité et sur l'interprétation des règles extraites ; comment peuvent-elles influer sur la qualité globale du processus de fouille de textes.<br />L'utilisation d'un modèle de connaissances vient appuyer et surtout compléter cette première approche. Il est montré, par la définition d'une mesure de vraisemblance, l'intérêt de découvrir de nouvelles connaissances en écartant les connaissances déjà répertoriées et décrites par un modèle de connaissances du domaine. Les règles d'association peuvent donc être utilisées pour alimenter un modèle de connaissances terminologiques du domaine des textes choisi. La thèse inclut la réalisation d'un système appelé TAMIS : "Text Analysis by Mining Interesting ruleS" ainsi qu'une expérimentation et une validation sur des données réelles de résumés de textes en biologie moléculaire.
338

Composition sémantique pour la langue orale

Duvert, Frédéric 10 November 2010 (has links) (PDF)
La thèse présentée ici a pour but de proposer des systèmes de détection, de composition de constituants sémantiques et d'interprétation dans la compréhension de la langue naturelle parlée. Cette compréhension se base sur un système de reconnaissance automatique de la parole qui traduit les signaux oraux en énoncés utilisables par la machine. Le signal de la parole, ainsi transcrit, comporte un ensemble d'erreurs liées aux erreurs de reconnaissance (bruits, parasites, mauvaise prononciation...). L'interprétation de cet énoncé est d'autant plus difficile qu'il est issu d'un discours parlé, soumis à la disfluence du discours, aux auto-corrections... L'énoncé est de plus agrammatical, car le discours parlé lui-même est agrammatical. L'application de méthodes d'analyses grammaticales ne produit pas de bons résultats d'interprétation, sur des textes issus de transcriptions de la parole. L'utilisation de méthodes d'analyses syntaxiques profondes est à éviter. De ce fait, une analyse superficielle est envisagée. Un des premiers objectifs est de proposer une représentation du sens. Il s'agit de considérer des ontologies afin de conceptualiser le monde que l'on décrit. On peut exprimer les composants sémantiques en logique du premier ordre avec des prédicats. Dans les travaux décrits ici, nous représentons les éléments sémantiques par des frames (FrameNet ). Les structures de frames sont hiérarchisées, et sont des fragments de connaissances auxquels on peut insérer, fusionner ou inférer d'autres fragments de connaissances. Les structures de frames sont dérivables en formules logiques. Nous proposons un système de compréhension de la parole à partir de règles logiques avec le support d'une ontologie, afin de pouvoir créer des liens à partir de composants sémantiques. Puis, nous avons mené une étude sur la découverte des supports syntaxiques des relations sémantiques. Nous proposons une expérience de composition sémantique afin d'enrichir les composants sémantiques de base. Enfin, nous présentons un système de détection de lambda-expression pour mettre en hypothèse les relations à trouver à travers le discours
339

Domaines numériques abstraits faiblement relationnels

Miné, Antoine 06 December 2004 (has links) (PDF)
Le sujet de cette thèse est le développement de méthodes pour l'analyse automatique des programmes informatiques. Une des applications majeures est la conception d'outils pour découvrir les erreurs de programmations avant qu'elles ne se produisent, ce qui est crucial à l'heure où des tâches critiques mais complexes sont confiées à des ordinateurs. Nous nous plaçons dans le cadre de l'interprétation abstraite, qui est une théorie de l'approximation sûre des sémantiques de programmes, et nous nous intéressons en particulier aux domaines abstraits numériques spécialisés dans la découverte automatique des propriétés des variables numérique d'un programme.<br />Dans cette thèse, nous introduisons plusieurs nouveaux domaines numériques abstraits et en particulier le domaine des zones (permettant de découvrir des invariants de la forme X-Y≤c, des zones de congruence (X≡Y+c [b]) et des octogones (±X ±Y≤c). Ces domaines sont basés sur les concepts existants de graphe de potentiel, de matrice de différences bornées et sur l'algorithmique des plus courts chemins. Ils sont intermédiaires, en terme de précision et de coût, entre les domaines non relationnels (tel celui des intervalles), très peu précis, et les domaines relationnels classiques (tel celui des polyèdres), très coûteux. Nous les nommons " faiblement relationnels ". Nous présentons également des méthodes permettant d'appliquer les domaines relationnels à l'analyse de nombres à virgule flottante, jusqu'à présent uniquement réalisable par des domaines non relationnels donc peu précis. Enfin, nous présentons des méthodes génériques dites de " linéarisation " et de " propagation de constantes symboliques " permettant d'améliorer la précision de tout domaine numérique, pour un surcoût réduit.<br />Les méthodes introduites dans cette thèse ont été intégrées à Astrée, un analyseur spécialisé dans la vérification de logiciels embarqués critiques et se sont révélées indispensables pour prouver l'absence d'erreurs à l'exécution de logiciels de commande de vol électrique. Ces résultats expérimentaux viennent justifier l'intérêt de nos méthodes pour des cadre d'applications réelles.
340

Vérification de descriptions VHDL par interprétation abstraite.

Hymans, Charles 04 September 2004 (has links) (PDF)
Cette thèse traite de la vérification automatique de composants matériels décrits en VHDL. C'est une étude de faisabilité d'un outil de vérification automatique qui réunit: exhaustivité, efficacité de calcul et simplicité d'utilisation. La méthodologie de l'interprétation abstraite a été adoptée: l'algorithme de simulation de VHDL est d'abord formalisé par une sémantique opérationnelle, de laquelle une analyse statique est dérivée de façon systématique par abstraction. L'analyse calcule un sur-ensemble des états accessibles. Le domaine numérique utilisé pour représenter les valeurs possibles des signaux de la description peut être choisi librement. Une instance possible de l'analyse a été implémenté en OCaml. Le domaine numérique choisi ici est celui des égalités linéaires entre variables booléennes. L'outil a permi de valider un code correcteur d'erreur de type Reed Solomon. Les performances sont excellentes, en particulier meilleures que celles du model checker à base de BDDs VIS.

Page generated in 0.0958 seconds