• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 11
  • 3
  • Tagged with
  • 44
  • 21
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Localisation des aires cérébrales impliquées dans le rappel de mots : validation d’un protocole d’imagerie optique

Lefrançois, Mélanie 08 1900 (has links)
Jusqu'à récemment, les patients souffrant d'épilepsie réfractaire aux traitements médicamenteux étaient destinés à un avenir incertain. Le recours à la chirurgie comme traitement alternatif offre l'espoir de mener un jour une vie normale. Pour déterminer si un patient peut bénéficier d’une intervention chirurgicale, une évaluation complète est cruciale. Les méthodes d’évaluation préchirurgicale ont connu des progrès importants au cours des dernières décennies avec le perfectionnement des techniques d’imagerie cérébrale. Parmi ces techniques, la spectroscopie proche infrarouge (SPIR), aussi connue sous le nom d’imagerie optique, présente de nombreux avantages (coût, mobilité du participant, résolution spatiale et temporelle, etc.). L’objectif principal de cette étude est de développer un protocole d'évaluation préchirurgicale de la mémoire. Une tâche de mémoire verbale incluant l’encodage, le rappel immédiat et le rappel différé de listes de mots a été administrée à dix adultes sains lors d’un enregistrement en imagerie optique. Les résultats obtenus suggèrent l’activation bilatérale des aires préfrontales antérieures et dorsolatérales ainsi que des aires temporales antérieures et moyennes. Les aires préfrontales et temporales antérieures semblent modulées par les différents processus mnésiques et la position du rappel dans le temps. La première fois qu’une liste est rappelée, l’activité hémodynamique est plus élevée que lors des rappels subséquents, et ce, davantage dans l’hémisphère gauche que dans l’hémisphère droit. Cette étude constitue la première étape dans le processus de validation du protocole à des fins cliniques auprès de patients épileptiques. / Until recently, patients with epilepsy refractory to drug treatments were intended to an uncertain future. Surgery as an alternative treatment offers hope to, one day, lead a normal life. In order to determine if a patient may benefit from a surgical intervention, a complete evaluation is essential. With the advancements in brain imagery techniques over the last few decades, preoperative evaluation methods have seen important progress. Among these techniques, near infrared spectroscopy (NIRS), also known as optical imaging, presents numerous advantages (cost, participant mobility, spatial and temporal resolution, etc.). The purpose of this study is to develop a preoperative evaluation protocol for memory assessment. During a NIRS recording, a verbal memory task including encoding, immediate and delayed free-recall of a list of words was administered to ten healthy adults. The results obtained revealed bilateral activation of anterior and dorsolateral prefrontal areas as well as anterior and median temporal areas. Prefrontal and anterior temporal areas seemed to be regulated by different memory processes and the recall location in time. The first time that a list is recalled, increased hemodynamic activity is observed in comparison to subsequent recalls, with a greater activity in the left hemisphere than in the right hemisphere. This study constitutes the first step in the validation process of the protocol for clinical needs among epileptic patients.
32

Constructive Visualization : A token-based paradigm allowing to assemble dynamic visual representation for non-experts / La visualisation constructive : un paradigme de design de visualisation qui permet d'assembler des représentations visuel dynamique pour des personnes non expertes

Huron, Samuel 29 September 2014 (has links)
Durant les 20 dernières années, la recherche en visualisation d’informations (InfoVis) a permis l’émergence de nouvelles techniques et méthodes qui permettent d’assister l’analyse de données intensives pour la science, l’industrie, et les gouvernements. Cependant, la plupart de ces travaux de recherches furent orientés sur des données statiques pour des utilisateurs experts.Dernièrement, des évolutions technologique et sociétales ont eu pour effet de rendre les données de plus en plus dynamiques et accessibles pour une population plus diverse. Par exemple des flux de données tels que les emails, les mises à jours de statuts sur les réseaux sociaux, les flux RSS, les systèmes de
gestion de versions, et bien d’autres. Ces nouveaux types de données sont utilisés par une population qui n’est pas forcément entraînée ou éduquée à utiliser des visualisations de données. La plupart de ces personnes sont des utilisateurs occasionnels, d’autres utilisent très souvent ces données dans leurs travaux. Dans les deux cas, il est probable que ces personnes n’aient pas reçu de formation formelle en visualisation de données.Ces changements technologiques et sociétaux ont généré une multitude de nouveaux défis, car la plupart des techniques de visualisations sont conçues pour des experts et des bases de données statiques. Peu d’études ont été conduites pour explorer ces défis. Dans ce rapport de thèse, j’adresse la question suivante : « Peut-­on permettre à des utilisateurs non­-experts de créer leur propre visualisation et de contribuer à l’analyse de flux de données ? »La première étape pour répondre à cette question est d’évaluer si des personnes non formées à la visualisation d’informations ou aux « data sciences » peuvent effectuer des tâches d’analyse de données dynamiques utiles, en utilisant un système de visualisation adapté pour supporter cette tâche. Dans la première partie de cette dissertation, je présente différents scénarios et systèmes, qui permettent à des utilisateurs non­-experts (de 20 à 300 ou 2000 à 700 000 personnes) d’utiliser la visualisation d’informations pour analyser des données dynamiques.Un autre problème important est le manque de principes génériques de design pour l’encodage visuel de visualisations d’informations dynamiques. Dans cette dissertation, je conçois, définis, et explore un espace de design pour représenter des donnés dynamiques pour des utilisateurs non­-experts. Cette espace de design est structuré par des jetons graphiques représentant des éléments de données qui permettent de construire dans le temps différentes visualisations, tant classiques que nouvelles.Dans cette thèse, je propose un nouveau paradigme de conception (design) pour faciliter la réalisation de visualisation d’informations par les utilisateurs non­-experts. Ce paradigme est inspiré par des théories établies en psychologie du développement, tout autant que par des pratiques passées et présentes de création de visualisation à partir d’objets tangibles. Je décris tout d’abord les composants et processus de bases qui structurent ce paradigme. Ensuite, j’utiliserai cette description pour étudier *si et comment* des utilisateur non­-experts sont capables de créer, discuter, et mettre à jour leurs propres visualisations. Cette étude nous permettra de réviser notre modèle précédent et de fournir une première exploration des phénomènes relatifs à la création d’encodages visuels par des utilisateurs non­-experts sans logiciel. En résumé, cette thèse contribue à la compréhension des visualisations dynamiques pour des utilisateurs non­-experts. / During the past two decades, information visualisation (InfoVis) research has created new techniques and methods to support data- intensive analyses in science, industry and government. These have enabled a wide range of analyses tasks to be executed, with tasks varying in terms of the type and volume of data involved. However, the majority of this research has focused on static datasets, and the analysis and visualisation tasks tend to be carried out by trained expert users. In more recent years, social changes and technological advances have meant that data have become more and more dynamic, and are consumed by a wider audience. Examples of such dynamic data streams include e-mails, status updates, RSS 1 feeds, versioning systems, social networks and others. These new types of data are used by populations that are not specifically trained in information visualization. Some of these people might consist of casual users, while others might consist of people deeply involved with the data, but in both cases, they would not have received formal training in information visualization. For simplicity, throughout this dissertation, I refer to the people (casual users, novices, data experts) who have not been trained in information visualisation as non-experts.These social and technological changes have given rise to multiple challenges because most existing visualisation models and techniques are intended for experts, and assume static datasets. Few studies have been conducted that explore these challenges. In this dissertation, with my collaborators, I address the question: Can we empower non-experts in their use of visualisation by enabling them to contribute to data stream analysis as well as to create their own visualizations?The first step to answering this question is to determine whether people who are not trained in information visualisation and the data sciences can conduct useful dynamic analysis tasks using a visualisation system that is adapted to support their tasks. In the first part of this dissertation I focus on several scenarios and systems where different sized crowds of InfoVis non-experts users (20 to 300 and 2 000 to 700 000 people) use dynamic information visualisation to analyse dynamic data.Another important issue is the lack of generic design principles for the visual encoding of dynamic visualization. In this dissertation I design, define and explore a design space to represent dynamic data for non-experts. This design space is structured by visual tokens representing data items that provide the constructive material for the assembly over time of different visualizations, from classic represen- tations to new ones. To date, research on visual encoding has been focused on static datasets for specific tasks, leaving generic dynamic approaches unexplored and unexploited.In this thesis, I propose construction as a design paradigm for non-experts to author simple and dynamic visualizations. This paradigm is inspired by well-established developmental psychological theory as well as past and existing practices of visualisation authoring with tangible elements. I describe the simple conceptual components and processes underlying this paradigm, making it easier for the human computer interaction community to study and support this process for a wide range of visualizations. Finally, I use this paradigm and tangible tokens to study if and how non-experts are able to create, discuss and update their own visualizations. This study allows us to refine our previous model and provide a first exploration into how non-experts perform a visual mapping without software. In summary, this thesis contributes to the understanding of dynamic visualisation for non-expert users.
33

La poétique du parler populaire dans l'oeuvre barrytownienne de Roddy Doyle : étude stylistique de l'oralité et de l'irlandité / The poetics of popular language in Roddy Doyle's Barrytown novel : a stylistic study of orality and Irishness

Boichard, Léa 04 December 2018 (has links)
Ce travail interroge les relations entre langue écrite et langue orale et les effets de la représentation de l’oralité et du dialecte dans l’écriture littéraire. Plus spécifiquement, il établit un cadre théorique d’analyse stylistique permettant de faire émerger la poétique du parler populaire dans l’œuvre de Barrytown de Roddy Doyle. Cette étude s’articule autour de trois chapitres. Les deux premiers sont à visée théorique, et ont pour objectif de mettre en place les outils stylistiques, linguistiques et littéraires à partir desquels l’étude du corpus est abordée. Ainsi, après un retour diachronique et synchronique sur les rapports qu’entretiennent les deux media de communication orale et écrite, nous établissons un cadre d’analyse stylistique de la représentation de l’oralité et du dialecte dans la littérature. Nous étudions ensuite cette problématique plus spécifiquement dans le contexte irlandais, puisque la littérature et la culture irlandaises sont marquées par un la tradition orale. Cela nous conduit à une description détaillée du dialecte anglais-irlandais sous l’angle de la grammaire, du lexique et de l’accent. Nous abordons enfin les effets de la représentation de l’oralité et de l’irlandité dans l’œuvre barrytownienne de Roddy Doyle et faisons émerger la poétique du parler populaire qui l’anime. / This study focuses on the relations between spoken and written language and on the effects created by the representation of orality and dialect in literary writing. More specifically, it proposes a theoretical framework of stylistic analysis which allows for the study of the poetics of popular language in Roddy Doyle’s Barrytown novels. This study is divided into three chapters. The first two chapters aim to define the stylistic, linguistic and literary tools that are used in the third chapter in order to carry out the corpus analysis. This study starts with a diachronic and a synchronic overview of the relationship between the oral and written media of communication. A workable framework for the stylistic analysis of the representation of orality and dialect in literature is then established. The second chapter considers this issue in an Irish context. Indeed, a strong oral tradition has always been present in Ireland and its impact is still felt in literature and culture. The linguistic situation in Ireland is studied from the point of view of grammar, lexicon and accent. Finally, the third chapter applies the framework previously presented and explores the effects created by the representation of orality and Irishness in Roddy Doyle’s Barrytown novels. It finally exposes the poetics of popular language.
34

Analyse de nouvelles primitives cryptographiques pour les schémas Diffie-Hellman / Analysis of new cryptographic primitives for Diffie-Hellman schemes

Kammerer, Jean-Gabriel 23 May 2013 (has links)
L'objet de cette thèse est l'étude de diverses primitives cryptographiques utiles dans des protocoles Diffie-Hellman. Nous étudions tout d'abord les protocoles Diffie-Helmman sur des structures commutatives ou non. Nous en proposons une formulation unifiée et mettons en évidence les différents problèmes difficiles associés dans les deux contextes. La première partie est consacrée à l'étude de pseudo-paramétrisations de courbes algébriques en temps constant déterministe, avec application aux fonctions de hachage vers les courbes. Les propriétés des courbes algébriques en font une structure de choix pour l'instanciation de protocoles reposant sur le problème Diffie-Hellman. En particulier, ces protocoles utilisent des fonctions qui hachent directement un message vers la courbe. Nous proposons de nouvelles fonctions d'encodage vers les courbes elliptiques et pour de larges classes de fonctions hyperelliptiques. Nous montrons ensuite comment l'étude de la géométrie des tangentes aux points d'inflexion des courbes elliptiques permet d'unifier les fonctions proposées tant dans la littérature que dans cette thèse. Dans la troisième partie, nous nous intéressons à une nouvelle instanciation de l'échange Diffie-Hellman. Elle repose sur la difficulté de résoudre un problème de factorisation dans un anneau de polynômes non-commutatifs. Nous montrons comment un problème de décomposition Diffie-Hellman sur un groupe non-commutatif peut se ramener à un simple problème d'algèbre linéaire pourvu que les éléments du groupe admettent une représentation par des matrices. Bien qu'elle ne soit pas applicable directement au cas des polynômes tordus puisqu'ils n'ont pas d'inverse, nous profitons de l'existence d'une notion de divisibilité pour contourner cette difficulté. Finalement, nous montrons qu'il est possible de résoudre le problème Diffie-Hellman sur les polynômes tordus avec complexité polynomiale. / In this thesis, we study several cryptographic primitives of use in Diffie-Hellman like protocols. We first study Diffie-Hellman protocols on commutative or noncommutative structures. We propose an unified wording of such protocols and bring out on which supposedly hard problem both constructions rely on. The first part is devoted to the study of pseudo-parameterization of algebraic curves in deterministic constant time, with application to hash function into curves. Algebraic curves are indeed particularly interesting for Diffie-Hellman like protocols. These protocols often use hash functions which directly hash into the curve. We propose new encoding functions toward elliptic curves and toward large classes of hyperelliptic curves. We then show how the study of the geometry of flex tangent of elliptic curves unifies the encoding functions as proposed in the litterature and in this thesis. In the third part, we are interested in a new instantiation of the Diffie-Hellman key exchange. It relies on the difficulty of factoring in a non-commutative polynomial ring. We show how to reduce a Diffie-Hellman decomposition problem over a noncommutative group to a simple linear algebra problem, provided that group elements can be represented by matrices. Although this is not directly relevant to the skew polynomial ring because they have no inverse, we use the divisibility to circumvent this difficulty. Finally, we show it's possible to solve the Diffie-Hellman problem on skew polynomials with polynomial complexity.
35

Encodage visuel dans le raisonnement moral chez l’adulte neurotypique et ayant un trouble du spectre autistique

Garon, Mathieu 01 1900 (has links)
No description available.
36

Annotation et visualisation interactives de documents hypermédias

ROBERT, Laurent 29 June 2001 (has links) (PDF)
Le développement du multimédia, des capacités de stockage et du matériel de numérisation permet de mettre à disposition sous une forme électronique un nombre toujours croissant de documents " matériels " (journaux, cartes, photographies, peintures, cahiers d'expérimentations, originaux d'œuvres littéraires, rapports, etc.). La numérisation, le stockage et la diffusion de ces matériaux sources ne posent aujourd'hui plus réellement problème. Néanmoins, il s'avère que les utilisateurs ont souvent des difficultés à exploiter ces documents en milieu informatique. Cet état de fait est la conséquence de plusieurs problèmes. Tout d'abord, peu d'outils logiciels permettent aux utilisateurs de réaliser les tâches qu'ils ont l'habitude d‘effectuer avec des documents papiers (annoter, comparer, associer des idées, etc.). Ensuite, l'accès à l'information dans un espace informationnel de vaste envergure s'avère être un problème non trivial. Les utilisateurs éprouvent des difficultés à trouver les données recherchées, à comprendre leur organisation et leurs relations, ainsi qu'à collecter et organiser celles jugées intéressantes afin de pouvoir les retrouver plus rapidement par la suite.<br />A cette problématique de l'utilisation des documents en milieu informatique, nous proposons deux approches complémentaires issues des domaines de l'interaction homme-machine et de la visualisation d'information.<br />La première approche repose sur le concept de lecture active qui vise à transformer le " lecteur " en " acteur " en lui permettant d'enrichir interactivement les documents qu'il est en train de lire par un ensemble de signes graphiques (surlignages, cerclages, etc.) et d'informations textuelles (notes, commentaires, etc.). L'idée consiste à permettre aux utilisateurs de construire leur propre système de repérage afin de faciliter la compréhension et la réutilisation des documents. Une attention particulière est portée à la manière d'associer ces méta-données " ajoutées " (que nous nommons, d'une manière générique, " annotations ") aux documents sources au moyen de liens hypertextes, ainsi qu'à leur codage informatique dans un format normalisé (dérivé de XML).<br />La seconde approche consiste à faciliter l'exploration d'espaces documentaires en exploitant les capacités perceptives et mémorielles humaines au moyen de techniques interactives de visualisation. Nous proposons tout d'abord un système de navigation qui repose sur un fort couplage entre vues globales et vues locales pour aider à trouver les documents. Les vues globales montrent l'organisation de l'espace d'information et en permettent un survol rapide. Elles sont utilisées pour atteindre des zones d'intérêts. Les vues locales présentent le contenu de plusieurs documents en contexte afin d'aider l'utilisateur à les comparer et à choisir celui qu'il va consulter. Nous proposons ensuite un environnement visuel de gestion de bookmarks dans le but de pouvoir retrouver le plus simplement possible les documents préalablement consultés. Les utilisateurs organisent leurs bookmarks de la même manière qu'ils le feraient avec un ensemble de documents papiers sur un bureau. Ils définissent interactivement leur propre organisation conceptuelle de l'espace documentaire en se basant sur des propriétés visuelles et spatiales. Ces propriétés aideront les utilisateurs à retrouver plus efficacement les documents sauvegardés par une stimulation de leurs capacités mémorielles.
37

Optimisation du compromis débit/distorsion pour la compression géométrique de maillages surfaciques triangulaires

Payan, Frédéric 02 December 2004 (has links) (PDF)
les travaux développés dans cette thèse portent sur l'optimisation du compromis débit-distorsion pour des maillages triangulaires quantifiés par un codeur géométrique. De nombreux travaux considèrent que la géométrie est la composante la plus importante d'un maillage polygonal. Les codeurs issus de ces travaux appelés codeurs géométriques, incluent une étape de remaillage et une transformée en ondelettes qui permet une analyse multirésolution efficace. L'objectif de nos travaux est de proposer un codeur géométrique incluant une allocation binaire qui optimise la qualité visuelle du maillage reconstruit en fonction du débit. Le but de l'allocation est de minimiser la distance surface-surface entre le maillage d'entrée et le maillage quantifié en fonction d'un débit de consigne. Cette distance qui traduit la différence géométrique entre deux maillages demande un lourd processus d'un point de vue calculatoire. Utiliser une approximation de cette mesure comme critère de distorsion est donc préférable si l'on souhaite une allocation rapide. Nous avons alors montré que sous certaines hypothèses cette mesure pouvait être estimée par une somme pondérée des erreurs de quantification des coefficients d'ondelettes. De plus, les particularités statistiques des coefficients d'ondelettes<br />géométriques permettent l'utilisation de modèles théoriques pour le<br />débit et la distorsion des sous-bandes de coefficients. Finalement,<br />nous proposons un codeur géométrique incluant une allocation rapide et performante qui optimise la quantification des coefficients pour que la qualité visuelle de l'objet reconstruit soit maximisée sous la contrainte d'un débit total fixé. Expérimentalement, l'algorithme<br />proposé donne de meilleurs résultats que toutes les méthodes de l'état de l'art.
38

Localisation des aires cérébrales impliquées dans le rappel de mots : validation d’un protocole d’imagerie optique

Lefrançois, Mélanie 08 1900 (has links)
Jusqu'à récemment, les patients souffrant d'épilepsie réfractaire aux traitements médicamenteux étaient destinés à un avenir incertain. Le recours à la chirurgie comme traitement alternatif offre l'espoir de mener un jour une vie normale. Pour déterminer si un patient peut bénéficier d’une intervention chirurgicale, une évaluation complète est cruciale. Les méthodes d’évaluation préchirurgicale ont connu des progrès importants au cours des dernières décennies avec le perfectionnement des techniques d’imagerie cérébrale. Parmi ces techniques, la spectroscopie proche infrarouge (SPIR), aussi connue sous le nom d’imagerie optique, présente de nombreux avantages (coût, mobilité du participant, résolution spatiale et temporelle, etc.). L’objectif principal de cette étude est de développer un protocole d'évaluation préchirurgicale de la mémoire. Une tâche de mémoire verbale incluant l’encodage, le rappel immédiat et le rappel différé de listes de mots a été administrée à dix adultes sains lors d’un enregistrement en imagerie optique. Les résultats obtenus suggèrent l’activation bilatérale des aires préfrontales antérieures et dorsolatérales ainsi que des aires temporales antérieures et moyennes. Les aires préfrontales et temporales antérieures semblent modulées par les différents processus mnésiques et la position du rappel dans le temps. La première fois qu’une liste est rappelée, l’activité hémodynamique est plus élevée que lors des rappels subséquents, et ce, davantage dans l’hémisphère gauche que dans l’hémisphère droit. Cette étude constitue la première étape dans le processus de validation du protocole à des fins cliniques auprès de patients épileptiques. / Until recently, patients with epilepsy refractory to drug treatments were intended to an uncertain future. Surgery as an alternative treatment offers hope to, one day, lead a normal life. In order to determine if a patient may benefit from a surgical intervention, a complete evaluation is essential. With the advancements in brain imagery techniques over the last few decades, preoperative evaluation methods have seen important progress. Among these techniques, near infrared spectroscopy (NIRS), also known as optical imaging, presents numerous advantages (cost, participant mobility, spatial and temporal resolution, etc.). The purpose of this study is to develop a preoperative evaluation protocol for memory assessment. During a NIRS recording, a verbal memory task including encoding, immediate and delayed free-recall of a list of words was administered to ten healthy adults. The results obtained revealed bilateral activation of anterior and dorsolateral prefrontal areas as well as anterior and median temporal areas. Prefrontal and anterior temporal areas seemed to be regulated by different memory processes and the recall location in time. The first time that a list is recalled, increased hemodynamic activity is observed in comparison to subsequent recalls, with a greater activity in the left hemisphere than in the right hemisphere. This study constitutes the first step in the validation process of the protocol for clinical needs among epileptic patients.
39

Logique de séparation et vérification déductive / Separation logic and deductive verification

Bobot, François 12 December 2011 (has links)
Cette thèse s'inscrit dans la démarche de preuve de programmes à l'aide de vérification déductive. La vérification déductive consiste à produire, à partir des sources d'un programme, c'est-à-dire ce qu'il fait, et de sa spécification, c'est-à-dire ce qu'il est sensé faire, une conjecture qui si elle est vraie alors le programme et sa spécification concordent. On utilise principalement des démonstrateurs automatiques pour montrer la validité de ces formules. Quand ons'intéresse à la preuve de programmes qui utilisent des structures de données allouées en mémoire, il est élégant et efficace de spécifier son programme en utilisant la logique de séparation qui est apparu il y a une dizaine d'année. Cela implique de prouver des conjectures comportant les connectives de la logique de séparation, or les démonstrateurs automatiques ont surtout fait des progrès dans la logique du premier ordre qui ne les contient pas.Ce travail de thèse propose des techniques pour que les idées de la logique de séparation puissent apparaître dans les spécifications tout en conservant la possibilité d'utiliser des démonstrateurs pour la logique du premier ordre. Cependant les conjectures que l'ont produit ne sont pas dans la même logique du premier ordre que celles des démonstrateurs. Pour permettre une plus grande automatisation, ce travail de thèse a également défini de nouvelles conversions entre la logique polymorphe du premier ordre et la logique multi-sortée dupremier ordre utilisé par la plupart des démonstrateurs.La première partie a donné lieu à une implémentation dans l'outil Jessie, la seconde a donné lieu à une participation conséquente à l'écriture de l'outil Why3 et particulièrement dans l'architecture et écriture des transformations qui implémentent ces simplifications et conversions. / This thesis comes within the domain of proofs of programs by deductive verification. The deductive verification generates from a program source and its specification a mathematical formula whose validity proves that the program follows its specification. The program source describes what the program does and its specification represents what the program should do. The validity of the formula is mainly verified by automatic provers. During the last ten years separation logic has shown to be an elegant way to deal with programs which use data-structures with pointers. However it requires a specific logical language, provers, and specific reasoning techniques.This thesis introduces a technique to express ideas from separation logic in the traditional framework of deductive verification. Unfortunately the mathematical formulas produced are not in the same first-order logic than the ones of provers. Thus this work defines new conversions between the polymorphic first-order logic and the many-sorted logic used by most proves.The first part of this thesis leads to an implementation in the Jessietool. The second part results in an important participation to the writing of the Why3 tool, in particular in the architecture and writing of the transformations which implement these conversions.
40

Synthèse itérative supportée de macromolécules à séquences contrôlées / Iterative solid phase synthesis of sequence-controlled macromolecules

Trinh, Thanh Tam 08 January 2015 (has links)
Des oligonylons et des oligo(triazole-amide)s possédant des séquences contrôlées de comonomères ont été étudiés dans cette thèse. Ces polymères ont été synthétisés par des approches itératives ne nécessitant pas l’emploi de groupes protecteurs. Les oligonylons ont été préparés par une approche de type «AA+BB», c.à.d. par couplage alterné de monomères diacides (AA) et diamines (BB) utilisés en excès. Cette approche s’est avérée possible mais a conduit à des réactions non-souhaitées de pontage intermoléculaire. Une approche plus robuste de type «AB+CD» a été utilisée pour la synthèse des oligo(triazole-amide)s. Dans ce cas, les polymères ont été obtenus par couplage chimioséléctif de monomères bi-fonctionnels de type AB (A = acide carboxylique, B = alcyne) et CD (C = amine, D = azoture). Cette méthode a permis la synthèse d’oligomères monomoléculaires. De plus, un codage moléculaire de type binaire (0, 1) a pu être créé sur ces oligomères. Cependant, cette approche itérative reste lente et limitée à de courtes séquences. Afin de simplifier le processus, une stratégie basée sur des couplages de trimères a été étudiée. Cette nouvelle approche a permis la synthèse de longues séquences codées contenant un octet moléculaire. / In this thesis, iterative syntheses of sequence-controlled oligonylons and oligo(triazole-amide)s by protecting group-free approaches have been described. Oligonylons have been prepared by an «AA+BB» approach i.e. by stepwise couplings of a large excess of diacids (AA) and diamines (BB) monomers. This strategy was interesting but could not prevent the formation of bridged molecules. Therefore, an «AB+CD» strategy has been adopted for the synthesis of oligo(triazole-amide)s. In this case, the growth of oligomers was controlled by consecutive chemoselective couplings of AB (A = acid, B = alkyne) and CD (C = amine, D = azide) monomers. This approach was found to be efficient for the preparation of encoded monodisperse oligo(triazole-amide)s whose sequence is based on a binary code (0, 1). However, this iterative approach is slow and is not adapted to longer sequences. Consequently, a strategy based on trimers couplings has been developed in order to simplify the process. This new approach has enabled the synthesis of long code sequences containing a molecular byte.

Page generated in 0.0337 seconds