• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2915
  • 1233
  • 398
  • 51
  • 18
  • 6
  • 6
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 4745
  • 2583
  • 739
  • 606
  • 546
  • 439
  • 386
  • 367
  • 359
  • 346
  • 326
  • 300
  • 248
  • 246
  • 244
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Fonction de corrélation à 3 champs grâce à l'OPE dans l'espace de plongement

Khalfoun, Meriem 01 March 2024 (has links)
Titre de l'écran-titre (visionné le 29 février 2024) / La théorie quantique des champs (QFT), née de la combinaison entre la mécanique quantique et de la relativité restreinte, est aujourd'hui l'approche la plus fondamentale utilisée en physique théorique. Les théories conformes des champs (CFTs) sont des cas particuliers de QFTs qui possèdent des symétries conformes supplémentaires qui sont très intéressantes puisqu'elles nous permettent de résoudre des CFTs sans avoir recours à leur lagrangien. En effet, elles permettent de fixer complètement la forme des fonctions de corrélation à 2 et 3 points. Pour les fonctions de corrélations à 4 points et plus, le développement en produit d'opérateurs (OPE) est l'un des outils les plus importants, qui nous permet de réécrire le produit de deux champs en une somme d'un champ sur lequel s'applique un opérateur différentiel. L'OPE nous permet de réduire les fonctions de corrélation à plusieurs points en une somme de fonctions de corrélation plus petites dont nous connaissons la forme. Cependant, l'opérateur différentiel apparaissant dans l'OPE est plus facilement utilisable dans l'espace de plongement, qui est un espace à d+2 dimensions, dans lequel l'algèbre conforme vit naturellement et qui simplifie grandement les calculs impliquant l'OPE. Pourtant, il existe peu de résultats analytiques utilisant l'OPE directement dans l'espace de plongement pour calculer les fonctions de corrélations à 4 points non scalaires. Le but de mon projet est de calculer les fonctions de corrélation à 3 points en utilisant l'OPE directement dans l'espace de plongement, afin de mieux comprendre la base de l'OPE dans l'espace de plongement pour éventuellement calculer les fonctions de corrélations à 4 points. Nous avons alors trouvé que les fonctions de corrélations à 3 points s'écrivent comme une somme de fonctions de Gegenbauer, ce qui était effectivement ce à quoi on s'attendait. Cela est la première étape pour trouver la meilleure base de l'OPE pour les fonctions de corrélation à 3 points qui nous permettrait de diagonaliser un ensemble complet d'opérateurs qui commutent puis d'éventuellement obtenir une base d'OPE pour toutes les fonctions de corrélation de théories conformes des champs. / Quantum field theory (QFT), born from the combination of quantum mechanics and special relativity, is today the most fundamental approach used in theoretical physics. Conformal field theories (CFTs) are special cases of QFTs which have additional conformal symmetries which are very interesting since they allow us to solve CFTs without resorting to their Lagrangian. Indeed, they make it possible to completely fix the form of the correlation functions at 2 and 3 points. For correlation functions with 4 points and more, operator product expansion (OPE) is one of the most important tools, which allows us to rewrite the product of two fields into a sum of a field over which applies a differential operator. OPE allows us to reduce multipoint correlation functions to a sum of smaller correlation functions whose form we know. However, the differential operator appearing in the OPE is more easily usable in the embedding space, which is a (d + 2)-dimensional space, in which conformal algebra naturally lives and which greatly simplifies calculations involving the OPE. However, there are few analytical results using the OPE directly in the embedding space to compute nonscalar 4-point correlation functions. The goal of my project is to compute the 3-point correlation functions using the OPE directly in the embedding space, in order to better understand the basis of the OPE in the embedding space to eventually compute the 4-point correlation functions. We have found that the 3-point correlation functions are expressible as a sum of Gegenbauer functions, which was indeed what we expected. This is the first step in finding the best basis of the OPE for the 3-point correlation functions which would allow us to diagonalize a complete set of commuting operators and then eventually obtain a basis of the OPE for all the functions of correlation of conformal field theories.
142

Les racines philosophiques et anthropologiques du destin de l'ordre catallactique chez Friedrich August von Hayek

Rowley, John Eric January 2016 (has links)
Cette thèse s’intitule Les racines philosophiques et anthropologiques du destin de l’ordre catallactique chez Friedrich August von Hayek. Von Hayek fut économiste, psychologue théorique, juriste et historien. Mais l’étude de son oeuvre montre aussi qu’il fut philosophe et anthropologue. Et, dans une certaine mesure, même s’il ne respectait pas toujours les politiciens, il fit, à sa manière, de la politique, dans son acception non politicienne, puisqu’il eut une réelle compréhension et un très grand respect pour la démocratie. Il tenta plutôt d’influencer, à l’université, lors de conférences internationales, dans ses ouvrages, les intellectuels, spécialement les rationalistes constructivistes, les hommes d’État ou de gouvernement, particulièrement les socialistes et les conservateurs, et, surtout, l’homme de la rue, finalement sur qui portait tout le poids de l’avenir de la civilisation occidentale. À ce sujet précis, il eut tellement de choses à dire. Et ces choses furent le prétexte à l’écriture d’un ouvrage philosophique. En effet, 1943 fut une date importante, pour lui. Il fit paraître La Route de la servitude. Déjà le titre était annonciateur. Dans cet ouvrage, von Hayek voulait alerter le monde des intellectuels, des hommes politiques et administratifs et de l’opinion publique au sujet de la prison vers laquelle tout ce monde, nonchalamment, volontairement, se dirigeait. Et en s’asservissant ainsi, l’homme du XXe siècle menaçait de mort ou d’appauvrissement, à terme, insidieusement, l’Occident. La mort ou l’appauvrissement de la civilisation occidentale, pour von Hayek, serait cataclysmique. Des milliards de personnes, au XXe siècle, survivaient justement grâce à ce qui avait permis à cette grande civilisation de la liberté de l’homme d’apparaître, de se développer et de se maintenir : il s’agissait de l’ordre catallactique. Mais qu’arrivait-il, au XXe siècle, à cet ordre catallactique riche de vies humaines? En fait, ce questionnement portait justement sur cet ordre et surtout sur son destin de plus en plus incertain. L’ordre catallactique, qui apparut, se développa et se maintint, s’affaiblissait ou disparaissait de plus en plus au XXe siècle et ce, malgré le fait qu’il favorisa, il y a des millénaires de cela, la vie à travers un mode différent et nouveau de survie. C’est pourquoi la déchéance de cet ordre, au XXe siècle, le préoccupa et le fit penser et écrire. L’objet de ses réflexions à l’égard du destin incertain de l’ordre catallactique est précisément ce que vise cette thèse : élucider et exposer, dans une perspective exégétique, les racines philosophiques et anthropologiques qui, dans la pensée de von Hayek, ont favorisé l’apparition, le développement et le maintien de l’ordre catallactique et de son déclin. Ainsi, nous avons eu besoin de nous appuyer sur quatre parties, qui sont, elles-mêmes, distribuées en sept chapitres. Première partie et ses deux chapitres. D’abord, nous avons tracé le profil biographique de Friedrich August von Hayek et enfin nous avons présenté une thématique intégratrice autour de laquelle gravite sa réflexion à l’égard du destin de l’ordre catallactique : il s’agit de la vie qui est essentiellement comprise comme une survie. Deuxième partie et son seul chapitre. Nous avons présenté la théorie de la connaissance de von Hayek, qui pourrait se ramener à l’idée suivante : l’homme ou l’intellectuel, du reste, reste un être de limites et d’ignorance. Cette conception, qui peut sembler étrange, possédait le mérite, selon von Hayek, de pouvoir voir au-delà de ce que les sens offrent à l’observation : l’invisible, l’inobservable et l’intangible qui caractérisent les pratiques économiques et les règles juridiques catallactiques qui apparurent, se développèrent et se maintinrent de façon spontanée, abstraite et complexe. Troisième partie et ses trois chapitres. En fait, ils viendront élucider et exposer les racines philosophiques et anthropologiques du destin incertain de l’ordre catallactique. D’abord, nous présenterons les concepts économiques et juridiques d’ordre et de catallaxie, qui sont à la base de l’ordre catallactique. Ensuite, nous tracerons le profil psychologique et anthropologique de l’homme : l’homme sensoriel ou phénoménal, l’homme biologique et l’homme culturel, qui furent à la base de la naissance de l’ordre catallactique et de son déclin. Enfin, nous avons repéré cette biologie immémoriale et psychophysiologique, et cette culture récente et lente au sein de l’histoire de l’évolution humaine afin d’y détecter des mouvements d’évolution – de la biologie à la culture – et d’autres de retour en arrière – de la culture vers la biologie. Quatrième partie et son chapitre. Nous avons présenté la problématique morale ou éthique que le destin de l’ordre catallactique, incertain au XXe siècle, portait en lui. En effet, pour certaines raisons, le système moral ou éthique catallactique n’arrivait plus, au XXe siècle, à concurrencer le système moral ou éthique socialiste ou socialisant issu de la pensée rationaliste constructiviste.
143

Agrégation de relations valuées par la méthode de Borda, en vue d'un rangement. Considérations axiomatiques

Marchant, Thierry 15 October 1996 (has links)
<p align="justify">Depuis 20 à 30 ans, l'aide multicritère à la décision est apparue. L'expansion de cette nouvelle discipline s'est marquée dans la littérature essentiellement par un foisonnement de nouvelles méthodes multicritères d'aide à la décision et par des applications de celles-ci à des problèmes "réels". Pour la plupart de ces méthodes, il n'y pas ou peu de fondements théoriques. Seul le bon sens a guidé les créateurs de ces méthodes.</p> <p align="justify">Depuis une dizaine d'années, le besoin de bases théoriques solides se fait de plus en plus sentir. C'est dans cette perspective que nous avons réalisé le présent travail. Ceci étant dit, nous n'allons pas vraiment nous occuper de méthodes multicritères à la décision dans ce travail, mais seulement de fragments de méthodes. En effet, les méthodes multicritères d'aide à la décision peuvent généralement être décomposées en trois parties (outre la définition de l'ensemble des alternatives et le choix des critères):</p> <p align="justify"><ol><li>Modélisation des préférences: pendant cette étape, les préférences du décideur sont modélisées le long de chaque critère. <li>Agrégation des préférences: un modèle global de préférences est construit au départ des modèles obtenus critère par critère à la fin de la phase précédente. <li>Exploitation des résultats de l'agrégation: du modèle global de préférences issu de la phase 2, on déduit un choix, un rangement, une partition, ... selon les besoins.</ol></p> <p align="justify">Jusqu'à présent, à cause de la difficulté du problème, peu de méthodes ont été axiomatisées de bout en bout; la plupart des travaux ne s'intéressent qu'à une ou deux des trois étapes que nous venons de décrire.</p> <p align="justify">Nous nous sommes intéressés à une méthode bien connue: la méthode de Borda. Elle accepte comme données de départ des relations binaires. Elle intervient donc après la phase de modélisation des préférences. Le résultat de cette méthode est un rangement. Elle effectue donc les opérations correspondant aux étapes 2 et 3. Dans la suite de ce travail nous appellerons méthode de rangement toute méthode effectuant les étapes 2 et 3 pour aboutir à un rangement. Etant donné que les méthodes de rangement, celle de Borda en particulier, sont utilisées également en choix social, nous puiserons abondamment dans le vocabulaire, les outils et les résultats du choix social. Les résultats présentés seront valides en choix social, mais nous nous sommes efforcés de les rendre aussi pertinents que possible en aide multicritère à la décision.</p> <p align="justify">Dans le chapitre II, après quelques définitions et notations, nous présentons quelques méthodes de rangement classiques, y compris la méthode de Borda, et quelques résultats majeurs de la littérature. Nous généralisons une caractérisation des méthodes de scorage due à Myerson (1995).</p> <p align="justify">Nous nous tournons ensuite vers les relations valuées. La raison en est la suivante: elles sont utilisées depuis longtemps dans plusieurs méthodes multicritères et, depuis peu, elles le sont aussi en choix social (p.ex. Banerjec 1994) car elles permettent de modéliser plus finement les préférences des décideurs confrontés à des informations incertaines, imprécises, contradictoires, lacunaires, ... Nous commençons donc le chapitre III par des notations et définitions relatives aux relations valuées.</p> <p align="justify">Ensuite, nous présentons quelques méthodes de rangement opérant au départ de relations valuées. C'est-à-dire des méthodes de rangement qui agissent non pas sur des relations nettes, mais sur des relations valuées et qui fournissent comme précédemment un rangement des alternatives. N'ayant trouvé dans la littérature aucune méthode de ce type, toutes celles que nous présentons sont neuves ou des généralisations de méthodes existantes; comme par exemple, les méthodes de scorage généralisées, que nous caractérisons en généralisant encore une fois le résultat de Myerson.</p> <p align="justify">Nous présentons enfin ce que nous appelons la méthode de Borda généralisée, qui est une des généralisations possibles de la méthode de Borda au cas valué. Nous basant sur un article de Farkas et Nitzan (1979), nous montrons que contrairement à ce qui se passait dans le cas particulier envisagé par Farkas et Nitzan (agrégation d'ordres totaux), la méthode de Borda généralisée (et sa particularisation au cas net) n'est pas toujours équivalente à la méthode proximité à l'unanimité. Cette dernière méthode classe chaque alternative en fonction de l'importance des changements qu'il faudrait faire subir à un ensemble de relations pour que l’alternative considérée gagne à l'unanimité. Nous identifions quelques cas où l'équivalence est vraie.</p> <p align="justify">Ensuite, nous reprenons un résultat de Debord (1987). Il s'agit d'une caractérisation de la méthode de Borda en tant que méthode de choix appliquée à des préordres totaux. Nous la généralisons de deux façons au cas de la méthode de Borda en tant que méthode de rangement appliquée à des relations valuées. Lorsqu'on applique la méthode de Borda, on est amené à calculer une fonction à valeurs réelles sur l'ensemble des alternatives.</p> <p align="justify">La valeur prise par cette fonction pour une alternative s'appelle le score de Borda de cette alternative. Ensuite, on range les alternatives par ordre décroissant de leur score de Borda. La tentation est grande - et beaucoup y succombent (peut-être avec raison) d'utiliser le score de Borda non seulement pour calculer le rangement mais aussi pour estimer si l'écart entre deux alternatives est important ou non (voir par exemple Brans 1994). Cette approche n'a, à notre connaissance, jamais été étudiée d'un point de vue théorique. Nous présentons deux caractérisations de la méthode de Borda utilisée à cette fin.</p> <p align="justify">Dans la dernière partie du chapitre III, nous abandonnons la démarche qui visait à caractériser une méthode par un ensemble de propriétés le plus petit possible. Nous comparons 12 méthodes sur base d'une vingtaine de propriétés. Les résultats de cette partie sont résumés dans quelques tableaux.</p> <p align="justify">Ce travail aborde donc la méthode de Borda et sa généralisation au cas valué sous différents angles. Il livre une série de résultats qui, espérons-le, devraient permettre de mieux comprendre la méthode de Borda et peut-être de l'utiliser à meilleur escient. Toutefois, quoique notre objectif ait été de présenter des résultats pertinents en aide multicritère à la décision (et nous avons fait des progrès dans ce sens), il reste du chemin à faire. Nous sommes probablement encore trop proche du choix social. Ceci constitue donc une voie de recherche intéressante, de même que l'étude d'autres méthodes de rangement et l'étude de méthodes complètes d'aide multicritère à la décision: modélisation du problème (identification du ou des décideur(s), des alternatives et des critères), modélisation des préférences, agrégation des préférences et exploitation des résultats de l'agrégation.</p>
144

La réanalyse historique comme outil de validation des théories

Noske, Roland 10 December 2001 (has links) (PDF)
Dans la partie oeuvre originale de ce mémoire d'habilitation, la validité de deux analyses phonologiques synchroniques sont testée par des comparaison avec des données historiques. Les deux analyses concernent l'alternance schwa/zéro en allemand et le r intrusif en anglais britannique.<br /> En ce qui concerne l'allemand, nous montrons que notre analyse de 1992 est confirmée par les donnée historiques. Dans cette annalyse, le comportement différent d'adjectifs d'une part et de verbes et de substantif d'autres part était analysé comme étant le résultat de l'existence d'un morphème adjectival sous forme de schwa. par des données historiques. Dans l'histoire de l'allemand on voit naître le comportement différent de schwa en ce qui concerne les adjectifs.<br />En ce qui concerne le r instrusif en anglais, nous montrons que l'analyse d'Anttila et Cho (1968) dans le cadre de la Théorie d'optimalité présente de sérieux problèmes comparée à l'analyse d'inversion de règles de Vennemann (1972) : elle n'explique ni le fait que les segments effacés et insérés sont identiques, ni le fait qu'il s'agit précisément de r (oude n dans un cas pareil en du néerlandais). En outre, la spécificité des contextes des<br />deux processus est ignorée.
145

Fondations logiques des jeux à information imparfaite : stratégies uniformes

Maubert, Bastien 17 January 2014 (has links) (PDF)
On trouve dans la littérature de nombreux exemples de jeux où les stratégies souhaitées sont soumises à des contraintes ''transversales'' portant sur des ensembles de parties, reliées entre elles par quelque relation sémantique. L'exemple le plus fameux est celui des stratégies dans les jeux à information imparfaite, et les jeux où la condition de gain a un aspect épistémique en sont d'autres. Cependant, aucune étude approfondie n'a à notre connaissance été menée sur ce type de contraintes dans leur généralité. C'est ce que nous nous proposons de commencer dans cette thèse. Nous définissons donc une notion générale de stratégies uniformes. Les propriétés d'uniformité des stratégies sont exprimées dans un langage logique qui étend CTL∗ avec deux quantificateurs originaux. Ces quantificateurs sont très proches des opérateurs de connaissance classiques en logique épistémique, et font intervenir des ensembles de parties reliées entre elles par des relations binaires. Nous montrons comment cette notion de stratégies uniformes capture les exemples connus de la littérature, puis nous étudions en profondeur le problème de la synthèse de stratégies uniformes, en considérant que les relations binaires entre les parties sont reconnaissables par des automates finis (relations rationnelles). Nous établissons plusieurs résultats de décidabilité et de complexité, reposant largement sur des techniques d'automates : nous introduisons notamment comme outils les automates d'arbres bondissants et les automates d'ensembles d'informations. Par ailleurs, nos résultats permettent d'améliorer des résultats existants et d'en établir de nouveaux, dans les domaines du model-checking des logiques temporelles et épistémiques, ainsi que de la planification épistémique.
146

La communication dans le syndrome d’Asperger / Communication in the Asperger's syndrom

Chevallier, Coralie 19 January 2009 (has links)
Communiquer efficacement nécessite de produire une multitude d’inférences pragmatiques. Celles-ci reposent sur la capacité à prendre en compte un grand nombre d’indices, tels que le contexte ou l’état mental et physique du locuteur. Dans le cas du langage oral, l’interlocuteur s’appuie également sur les indices prosodiques. Ainsi, une prosodie enthousiaste associée à l’énoncé « Excellent. » aidera un interlocuteur à inférer que le locuteur est content tandis qu’une intonation plate le conduira au contraire à penser qu’il était ironique. Ces situations peuvent être particulièrement délicates pour les patients atteints d’un Trouble du Spectre Autistique (TSA) qui éprouvent des difficultés pour reconnaître et interpréter les états mentaux d’autrui. Nous prédisons donc que l’interprétation des indices prosodiques est délicate dans les TSA. Cependant, tous les aspects de l’interprétation prosodique ne requièrent pas d’attribuer des états mentaux. Par exemple, la distinction entre « PREsent » et « preSENT » (en anglais) est basée sur une simple connaissance du lexique, indépendante des pensées du locuteur. Dans ce travail, j’explore différents aspects de la prosodie afin de déterminer si les personnes avec un TSA sont spécifiquement atteintes dans leur capacité à comprendre les signaux prosodiques reposant sur la compréhension des intentions du locuteur. Je présente une série de travaux traitant de la prosodie grammaticale (Article 1), de la transmission accidentelle d’informations (Article 2), de l’accent contrastif (Articles 3 et 4), et de l’identification des états mentaux du locuteur (Article 5). Les résultats présentés dans ces travaux me conduisent ensuite à discuter des questions plus générales concernant la Théorie de l’Esprit (Article 6) et à proposer une explication alternative des déficits sociaux observés dans les TSA (Article 7). / Efficient communication requires a great deal of pragmatic inferencing. This is rooted in the ability to take into account a variety of cues, such as the context and the speaker’s mental or emotional states. Crucially, in spoken language, hearers can also rely on prosodic cues. For instance, if someone utters “That was brilliant”, using an enthusiastic prosody, this will help the hearer to decipher that the speaker is happy. In contrast, if the speaker’s comment is uttered in a deadpan tone of voice, she will be thought to be ironical. These situations can be especially challenging for people with an Autism Spectrum Disorder. Indeed, these individuals have well-known difficulties in recognising and interpreting others’ mental states. This leads to the prediction that interpreting prosodic cues should be problematic in ASDs. However, not all aspects of prosodic interpretation involve mental states attribution. For instance, differentiating “PREsent” from “preSENT” merely requires one to be aware of the fact that these words stand for different things, without needing to attribute any particular thoughts to the speaker. In this work, I explore the various components of prosody and assess whether people with an ASD are specifically impaired in interpreting prosodic cues that rely on the understanding of the speaker’s intentions. I present a series of papers focusing on grammatical prosody (Paper 1), accidental information transmission (Paper 2), contrastive stress (Papers 3 and 4), and identification of the speaker’s attitude and emotional state (Paper 5). The results presented in these papers then lead me to address more general questions concerning Theory of Mind (Paper 6) and to discuss the possible origins of the social impairments found in ASDs (Paper 7).
147

Control of adaptation to load in point-to-point arm movements

Foisy, Martin January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
148

Essais sur la fraude à l'impôt sur le revenu / Essais on income tax evasion

Trotin, Gwenola 26 June 2012 (has links)
L'objectif central de cette thèse est d'étudier le comportement de fraude fiscale des contribuables quand ils ne déclarent qu'une partie de leur revenu. Le premier chapitre complète la littérature existante en étudiant le niveau de déclaration du revenu et les effets de changements des taux de taxe, de pénalité et de probabilité de contrôle, en considérant des fonctions d'imposition et de pénalité non linéaire, dans le cadre de la théorie de l'espérance de l'utilité.Le cadre fourni par la théorie des perspectives cumulatives est ensuite utilisé dans le second chapitre. L'accent est mis sur la dépendance des décisions du contribuable vis-à-vis du revenu de référence introduit par cette théorie. Le troisième chapitre caractérise le barème optimal d'imposition du revenu et la stratégie de contrôle et de pénalité que doit mettre en place l'État quand le comportement de fraude des contribuables vérifie les propriétés de la théorie des perspectives. / This dissertation analyzes the tax evasion behavior of taxpayers when they do not declare their entire income. The first chapter studies the declaration of the taxpayer and the effects of changes in the tax rate, the penalty rate and the probability of audit. The tax and the penalty functions are assumed to be non linear. The setting is provided by expected utility theory. The setting provided by cumulative prospect theory is used in the second chapter. Reference dependence, which is a central point in this theory, is particularly studied. The third chapter characterizes the optimal income tax and audit schemes under taxe evasion behavior, when of tax payers behave as predicted by prospect theory.
149

Algorithmes et généricité dans les groupes de tresses / Algorithms and genericity in the braid groups

Caruso, Sandrine 22 October 2013 (has links)
La théorie des groupes de tresses s'inscrit au croisement de plusieurs domaines des mathématiques, en particulier, l'algèbre et la géométrie. La recherche actuelle s'étend dans chacune de ces directions, et de riches développements naissent du mariage de ces deux aspects. D'un point de vue géométrique, le groupe des tresses à n brins est vu comme le groupe modulaire d'un disque à n trous, avec composante de bord. On peut représenter une tresse par un diagramme de courbes, c'est-à-dire l'image d'une famille fixée d'arcs sur le disque, par l'élément correspondant du groupe modulaire. Dans cette thèse est présenté l'algorithme de relaxations par la droite, qui permet de retrouver, étant donné un diagramme de courbes, la tresse à partir de laquelle il a été obtenu. Cet algorithme aide à faire le lien entre des propriétés géométriques du diagramme de courbes, et des propriétés algébriques du mot de tresse, en permettant de repérer de grandes puissances d'un générateur sous forme de spirales dans le diagramme de courbes. D'un point de vue algébrique, le groupe de tresses est l'exemple classique de groupe de Garside. L'un des objectifs actuels des recherches en théorie de Garside est d'obtenir un algorithme de résolution en temps polynomial du problème de conjugaison dans les groupes de tresses. À cette fin, on cherche à exploiter les propriétés de certains ensembles finis de conjugués d'une tresse, qui sont des invariants de conjugaison. L'un des résultats de cette thèse concerne la taille d'un de ces invariants, l'ensemble super-sommital : on exhibe une famille de tresses pseudo-anosoviennes dont l'ensemble super-sommital est de taille exponentielle. González-Meneses avait déjà établi le résultat similaire pour une famille de tresses réductibles. La conséquence de ces résultats est qu'on ne peut pas espérer résoudre le problème de conjugaison en temps polynomial au moyen de cet ensemble, et qu'il vaut mieux chercher à exploiter des invariants plus petits. Dans le cas des tresses pseudo-anosoviennes, des espoirs résident actuellement en l'ensemble des circuits glissants. Dans cette thèse, un algorithme en temps polynomial s'appuyant sur ce dernier ensemble résout génériquement le problème de conjugaison, c'est-à-dire qu'il le résout pour une proportion de tresses tendant exponentiellement vite vers 1 lorsque la longueur de la tresse tend vers l'infini. On montre également que, dans une boule du graphe de Cayley avec pour générateurs les tresses simples, une tresse générique est pseudo-anosovienne, ce qui était une conjecture bien connue des spécialistes de la théorie de Garside. / The theory of braid groups is at the intersection of several areas of mathematics, especially algebra and geometry. The current research extends in each of these directions, leading to rich developments. From a geometrical point of view, the braid group on n strands is seen as the mapping class group of a disc with n punctures, with boundary component. A braid can be represented by a curve diagram, that is to say, the image of a family of arcs attached to the disc, by the corresponding mapping class. In this thesis we present the algorithm of relaxations from the right, which, given a curve diagram, determines the braid from which it was obtained. This algorithm helps us to make the link between geometric properties of the curve diagram and algebraic properties of the braid word, allowing us to identify great powers of a generator as spirals in the curve diagram. From an algebraic point of view, the braid group is the classical example of a Garside group. One of the objectives of current research in Garside theory is to obtain a polynomial time algorithm to solve the conjugacy problem in braid groups. For this, a possibility is to exploit the properties of some finite sets of conjugates of a braid, which are invariants of the conjugacy classes. One of the results of this thesis concerns the size of one of these invariants, the super summit set: we construct a family of pseudo-Anosov braids whose super summit set has exponential size. González- Meneses had already established the similar result for a family of reducible braids. These results implies that we cannot hope to solve the conjugacy problem in polynomial time through this set, and it is better to try to use smaller invariants. In the case of pseudo-Anosov braids, one may hope that the so-called sliding circuit set is more useful. In this thesis, we present a polynomial time algorithm based on this last set which generically solves the conjugacy problem, that is to say, it solves it for a proportion of braids that tends exponentially fast to 1 as the length of the braid tends to infinity. We also show that, in a ball of the Cayley graph with generators the simple braids, a braid is generically pseudo-Anosov, which was a well-known conjecture for the specialists in Garside theory.
150

Représentation et interaction des preuves en superdéduction modulo / Representation and Interaction of Proofs in Superdeduction Modulo

Houtmann, Clément 12 March 2010 (has links)
Cette thèse propose et étudie de nouveaux systèmes déductifs mêlant calculs et déductions. La déduction modulo est un premier formalisme qui traduit un pouvoir calculatoire grâce à un système de réécriture. Nous présentons un paradigme dual appelé superdéduction qui traduit un pouvoir déductif par de nouvelles inférences. Ces pouvoirs calculatoires et déductifs modifient la représentation des preuves et leur interaction par les processus d'élimination des coupures. La normalisation forte ou l'admissibilité des coupures ne sont plus garanties et apparaissent alors comme des propriétés intrinsèques des théories représentées sous forme de systèmes de réécriture. Nous démontrons que certains critères permettent d'assurer ces propriétés, notamment en définissant un langage de termes de preuve pour la superdéduction et en étudiant la permutabilité des inférences en calcul des séquents classique. Notre attention est focalisée sur les calculs des séquents classiques et la représentation des preuves dans de tels systèmes. D'autres formalismes connexes sont envisagés, notamment les réseaux de preuve et le focusing. Nous comparons cette dernière approche à la superdéduction, ce qui nous amène à proposer une refonte du paradigme de superdéduction basée sur un système de multifocusing pour la logique classique. Nous en montrons les effets bénéfiques en démontrant la complétude des systèmes déductifs obtenus. / In this thesis we propose and study several deduction systems that mix deduction and computation. Deduction modulo proposes to translate a computational power through a rewriting system. We present the dual concept called superdeduction. It translates a deductive power into custom inference rules that enrich the deduction system. These computational and deductive powers modify the representation of proofs as well as their interaction through cut-elimination processes. Strong normalisation or cut-admissibility may be lost and therefore appear as intrinsic properties of theories represented as rewriting systems. We prove that certain criteria imply these properties by defining a proof-term language for superdeduction and by studying the permutability of inferences in classical sequent calculus. Our attention is focused on classical sequent calculi and on the representation of proofs in such systems. Other related paradigms are considered, namely proof-nets and focusing. We compare this latter approach with superdeduction. We consequently reforge the superdeduction paradigm on top of a multifocusing system for classical logic. We demonstrate the benefits of this approach by proving the completeness of the obtained deduction systems.

Page generated in 0.0565 seconds