• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 30
  • 16
  • Tagged with
  • 150
  • 53
  • 51
  • 47
  • 42
  • 41
  • 29
  • 28
  • 27
  • 24
  • 21
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Classification automatique des signaux audio-fréquences : reconnaissance des instruments de musique

Essid, Slim 13 December 2005 (has links) (PDF)
L'objet de cette thèse est de contribuer à améliorer l'identification automatique des instruments de musique dans des contextes réalistes, (sur des solos de musique, mais également sur des pièces multi-instrumentales). Nous abordons le problème suivant une approche de classification automatique en nous efforçant de rechercher des réalisations performantes des différents modules constituant le système que nous proposons. Nous adoptons un schéma de classification hiérarchique basé sur des taxonomies des instruments et des mélanges d'instruments. Ces taxonomies sont inférées au moyen d'un algorithme de clustering hiérarchique exploitant des distances probabilistes robustes qui sont calculées en utilisant une méthode à noyau. Le système exploite un nouvel algorithme de sélection automatique des attributs pour produire une description efficace des signaux audio qui, associée à des machines à vecteurs supports, permet d'atteindre des taux de reconnaissance élevés sur des pièces sonores reflétant la diversité de la pratique musicale et des conditions d'enregistrement rencontrées dans le monde réel. Notre architecture parvient ainsi à identifier jusqu'à quatre instruments joués simultanément, à partir d'extraits de jazz incluant des percussions.
142

Fonctions de croyance : décompositions canoniques et règles de combinaison.

Pichon, Frédéric 24 March 2009 (has links) (PDF)
Comparé à la théorie des possibilités, le Modèle des Croyances Transférables (MCT) - une interprétation non probabiliste de la théorie de Dempster-Shafer - dispose d'assez peu de choix en terme d'opérateurs d'agrégation pour la fusion d'informations. Dans cette thèse, ce problème de manque de flexibilité pour la combinaison des fonctions de croyance - l'outil mathématique permettant la représentation de l'information dans le MCT - est abordé. Notre première contribution est la mise à jour de familles infinies de règles de combinaison conjonctives et disjonctives, rejoignant ainsi la situation en théorie des possibilités en ce qui concerne les opérateurs de fusion conjonctive et disjonctive. Notre deuxième contribution est un ensemble de résultats rendant intéressante, d'un point de vue applicatif, une famille infinie de règles de combinaison, appelée les alpha-jonctions et introduite initialement de manière purement formelle. Tout d'abord, nous montrons que ces règles correspondent à une connaissance particulière quant à la véracité des sources d'information. Ensuite, nous donnons plusieurs nouveaux moyens simples de calculer la combinaison par une alpha-jonction.
143

Modélisation et détection statistiques pour la criminalistique numérique des images

Thai, Thanh Hai 28 August 2014 (has links) (PDF)
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux jouent maintenant un rôle de plus en plus important dans la vie de tous les jours. De la même manière, les logiciels sophistiqués de retouche d'images se sont démocratisés et permettent aujourd'hui de diffuser facilement des images falsifiées. Ceci pose un problème sociétal puisqu'il s'agit de savoir si ce que l'on voit a été manipulé. Cette thèse s'inscrit dans le cadre de la criminalistique des images numériques. Deux problèmes importants sont abordés : l'identification de l'origine d'une image et la détection d'informations cachées dans une image. Ces travaux s'inscrivent dans le cadre de la théorie de la décision statistique et roposent la construction de détecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme. Afin d'atteindre une performance de détection élevée, il est proposé d'exploiter les propriétés des images naturelles en modélisant les principales étapes de la chaîne d'acquisition d'un appareil photographique. La éthodologie, tout au long de ce manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de vraisemblance dans le contexte idéal où tous les aramètres du modèle sont connus. Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés afin de construire le test du rapport de vraisemblance généralisé dont les erformances statistiques sont analytiquement établies. De nombreuses expérimentations sur des images simulées et réelles permettent de souligner la pertinence de l'approche proposée.
144

De l'utilisation des noyaux maxitifs en traitement de l'information

Loquin, Kevin 03 November 2008 (has links) (PDF)
Dans cette thèse, nous proposons et développons de nouvelles méthodes en statistiques et en traitement du signal et des images basées sur la théorie des possibilités. Ces nouvelles méthodes sont des adaptations d'outils usuels de traitement d'information dont le but est de prendre en compte les défauts dus à la méconnaissance de l'utilisateur sur la modélisation du phénomène observé. Par cette adaptation, on passe de méthodes dont les sorties sont précises, ponctuelles, à des méthodes dont les sorties sont intervallistes et donc imprécises. Les intervalles produits reflètent, de façon cohérente, l'arbitraire dans le choix des paramètres lorsqu'une méthode classique est utilisée.<br />Beaucoup d'algorithmes en traitement du signal ou en statistiques utilisent, de façon plus ou moins explicite, la notion d'espérance mathématique associée à une représentation probabiliste du voisinage d'un point, que nous appelons noyau sommatif. Nous regroupons ainsi, sous la dénomination d'extraction sommative d'informations, des méthodes aussi diverses que la modélisation de la mesure, le filtrage linéaire, les processus d'échantillonnage, de reconstruction et de dérivation d'un signal numérique, l'estimation de densité de probabilité et de fonction de répartition par noyau ou par histogramme,...<br />Comme alternative à l'extraction sommative d'informations, nous présentons la méthode d'extraction maxitive d'informations qui utilise l'intégrale de Choquet associée à une représentation possibiliste du voisinage d'un point, que nous appelons noyau maxitif. La méconnaissance sur le noyau sommatif est prise en compte par le fait qu'un noyau maxitif représente une famille de noyaux sommatifs. De plus, le résultat intervalliste de l'extraction maxitive d'informations est l'ensemble des résultats ponctuels des extractions sommatives d'informations obtenues avec les noyaux sommatifs de la famille représentée par le noyau maxitif utilisé. En plus de cette justification théorique, nous présentons une série d'applications de l'extraction maxitive d'informations en statistiques et en traitement du signal qui constitue une boîte à outils à enrichir et à utiliser sur des cas réels.
145

Les actifs incorporels de l'entreprise en difficulté / The intangible assets of the company in difficulty

André, Étienne 06 December 2018 (has links)
La mutation des économies a transformé les richesses en profondeur en les désincarnant. Ce phénomène s’est traduit par l’accroissement de valeurs sans matière au sein des entreprises et, incidemment, lorsqu’elles éprouvent des difficultés. La notion d’actifs incorporels place la valeur au centre des préoccupations et renvoie à une réalité tant juridique qu’économique. Cette approche révèle leur singularité dans un contexte de défaillance à travers l’observation des opérations d’évaluation et de réalisation. D’une part, l’évaluation des actifs incorporels se montre défectueuse, révélant les carences de la comptabilité française, qui peine à retranscrire la valeur de ces actifs, et plus largement, mettant en exergue les limites des méthodes d’évaluation de ces actifs dans un contexte de difficulté. D’autre part, la réalisation des actifs incorporels est complexifiée par les modes de cession ou des garanties constituées. Ainsi, la singularité des actifs incorporels rend difficile leur maîtrise. Partant, des solutions peuvent être trouvées dans le cadre du droit des entreprises en difficulté. Une grille de lecture des actifs incorporels peut d’ores et déjà s’articuler autour de la valeur et de son interaction avec l’exploitation. Certains actifs incorporels, tels qu’un logiciel ou un fichier-client, sont directement corrélés à l’activité de l’entreprise et ont tendance à se dévaloriser au fur et à mesure des difficultés de celle-ci. D’autres actifs incorporels, tels les créances et les droits sociaux, reposant sur des éléments extérieurs à l’entreprise, ne perdent pas automatiquement leur valeur en présence de difficultés. La division des actifs incorporels peut donc s’opérer entre les actifs incorporels dont la valeur s’établit à l’aune de l’exploitation, et ceux dont la valeur ne lui est pas directement liée. Ces actifs incorporels suscitent par ailleurs une évolution du droit des entreprises en difficulté au niveau des opérations d’évaluation et de réalisation afin d’être mieux appréhendés. La prise en compte de ces évolutions est indispensable. L’importance grandissante des actifs incorporels au sein des entreprises en difficulté, ne doit pas être ignorée au risque sinon de les affaiblir davantage, de décrédibiliser le cadre judiciaire du traitement des entreprises en difficulté. / The mutation of the economy has fundamentally transformed wealth by disembodying it. This has led to the increase in intangible wealth within companies and, incidentally, when they experience difficulties. The concept of intangible assets places centers on value and refers to both a legal and economic reality. This approach reveals their exceptional character in a context of default by observing operations related to valuation and transfer. On the one hand, the valuation of intangible assets is defective, revealing the shortcomings of French accounting, which struggles to translate the value of these assets, and more broadly, highlights the limits of the methods used to value these assets in a difficult context. On the other hand, the transfer of intangible assets is made more complex by the methods of sale or guarantees provided. Thus, the exceptional nature of intangible assets makes them difficult to master. However, solutions can be found in law governing companies in financial difficulty. An index for measuring intangible assets can already be based on value and its interaction with business operations. Some intangible assets, such as software or client files, are directly correlated to the company's activity and tend to devalue as the company's difficulties arise. Other intangible assets, such as receivables and social rights, based on elements external to the company, do not automatically lose their value in the event of difficulties. The division of intangible assets can therefore be made between those intangible assets whose value is established based on exploitation, and those whose value is not directly related to it. Consideration of valuation and transfer operations in relation to intangible assets has led to changes in the law governing companies in difficulty. It is essential to take these developments into account. The growing importance of intangible assets within companies in difficulty must not be ignored at the risk of weakening them further and undermining the judicial framework for such companies.
146

Estimation distribuée adaptative sur les réseaux multitâches / Distributed adaptive estimation over multitask networks

Nassif, Roula 30 November 2016 (has links)
L’apprentissage adaptatif distribué sur les réseaux permet à un ensemble d’agents de résoudre des problèmes d’estimation de paramètres en ligne en se basant sur des calculs locaux et sur des échanges locaux avec les voisins immédiats. La littérature sur l’estimation distribuée considère essentiellement les problèmes à simple tâche, où les agents disposant de fonctions objectives séparables doivent converger vers un vecteur de paramètres commun. Cependant, dans de nombreuses applications nécessitant des modèles plus complexes et des algorithmes plus flexibles, les agents ont besoin d’estimer et de suivre plusieurs vecteurs de paramètres simultanément. Nous appelons ce type de réseau, où les agents doivent estimer plusieurs vecteurs de paramètres, réseau multitâche. Bien que les agents puissent avoir différentes tâches à résoudre, ils peuvent capitaliser sur le transfert inductif entre eux afin d’améliorer les performances de leurs estimés. Le but de cette thèse est de proposer et d’étudier de nouveaux algorithmes d’estimation distribuée sur les réseaux multitâches. Dans un premier temps, nous présentons l’algorithme diffusion LMS qui est une stratégie efficace pour résoudre les problèmes d’estimation à simple-tâche et nous étudions théoriquement ses performances lorsqu’il est mis en oeuvre dans un environnement multitâche et que les communications entre les noeuds sont bruitées. Ensuite, nous présentons une stratégie de clustering non-supervisé permettant de regrouper les noeuds réalisant une même tâche en clusters, et de restreindre les échanges d’information aux seuls noeuds d’un même cluster / Distributed adaptive learning allows a collection of interconnected agents to perform parameterestimation tasks from streaming data by relying solely on local computations and interactions with immediate neighbors. Most prior literature on distributed inference is concerned with single-task problems, where agents with separable objective functions need to agree on a common parameter vector. However, many network applications require more complex models and flexible algorithms than single-task implementations since their agents involve the need to estimate and track multiple objectives simultaneously. Networks of this kind, where agents need to infer multiple parameter vectors, are referred to as multitask networks. Although agents may generally have distinct though related tasks to perform, they may still be able to capitalize on inductive transfer between them to improve their estimation accuracy. This thesis is intended to bring forth advances on distributed inference over multitask networks. First, we present the well-known diffusion LMS strategies to solve single-task estimation problems and we assess their performance when they are run in multitask environments in the presence of noisy communication links. An improved strategy allowing the agents to adapt their cooperation to neighbors sharing the same objective is presented in order to attain improved learningand estimation over networks. Next, we consider the multitask diffusion LMS strategy which has been proposed to solve multitask estimation problems where the network is decomposed into clusters of agents seeking different
147

Self-disclosure model for classifying & predicting text-based online disclosure

Vedantham, Ramyasree 06 1900 (has links)
Les médias sociaux et les sites de réseaux sociaux sont devenus des babillards numériques pour les internautes à cause de leur évolution accélérée. Comme ces sites encouragent les consommateurs à exposer des informations personnelles via des profils et des publications, l'utilisation accrue des médias sociaux a généré des problèmes d’invasion de la vie privée. Des chercheurs ont fait de nombreux efforts pour détecter l'auto-divulgation en utilisant des techniques d'extraction d'informations. Des recherches récentes sur l'apprentissage automatique et les méthodes de traitement du langage naturel montrent que la compréhension du sens contextuel des mots peut entraîner une meilleure précision que les méthodes d'extraction de données traditionnelles. Comme mentionné précédemment, les utilisateurs ignorent souvent la quantité d'informations personnelles publiées dans les forums en ligne. Il est donc nécessaire de détecter les diverses divulgations en langage naturel et de leur donner le choix de tester la possibilité de divulgation avant de publier. Pour ce faire, ce travail propose le « SD_ELECTRA », un modèle de langage spécifique au contexte. Ce type de modèle détecte les divulgations d'intérêts, de données personnelles, d'éducation et de travail, de relations, de personnalité, de résidence, de voyage et d'accueil dans les données des médias sociaux. L'objectif est de créer un modèle linguistique spécifique au contexte sur une plate-forme de médias sociaux qui fonctionne mieux que les modèles linguistiques généraux. De plus, les récents progrès des modèles de transformateurs ont ouvert la voie à la formation de modèles de langage à partir de zéro et à des scores plus élevés. Les résultats expérimentaux montrent que SD_ELECTRA a surpassé le modèle de base dans toutes les métriques considérées pour la méthode de classification de texte standard. En outre, les résultats montrent également que l'entraînement d'un modèle de langage avec un corpus spécifique au contexte de préentraînement plus petit sur un seul GPU peut améliorer les performances. Une application Web illustrative est conçue pour permettre aux utilisateurs de tester les possibilités de divulgation dans leurs publications sur les réseaux sociaux. En conséquence, en utilisant l'efficacité du modèle suggéré, les utilisateurs pourraient obtenir un apprentissage en temps réel sur l'auto-divulgation. / Social media and social networking sites have evolved into digital billboards for internet users due to their rapid expansion. As these sites encourage consumers to expose personal information via profiles and postings, increased use of social media has generated privacy concerns. There have been notable efforts from researchers to detect self-disclosure using Information extraction (IE) techniques. Recent research on machine learning and natural language processing methods shows that understanding the contextual meaning of the words can result in better accuracy than traditional data extraction methods. Driven by the facts mentioned earlier, users are often ignorant of the quantity of personal information published in online forums, there is a need to detect various disclosures in natural language and give them a choice to test the possibility of disclosure before posting. For this purpose, this work proposes "SD_ELECTRA," a context-specific language model to detect Interest, Personal, Education and Work, Relationship, Personality, Residence, Travel plan, and Hospitality disclosures in social media data. The goal is to create a context-specific language model on a social media platform that performs better than the general language models. Moreover, recent advancements in transformer models paved the way to train language models from scratch and achieve higher scores. Experimental results show that SD_ELECTRA has outperformed the base model in all considered metrics for the standard text classification method. In addition, the results also show that training a language model with a smaller pre-training context-specific corpus on a single GPU can improve its performance. An illustrative web application designed allows users to test the disclosure possibilities in their social media posts. As a result, by utilizing the efficiency of the suggested model, users would be able to get real-time learning on self-disclosure.
148

Contextual cues for deep learning models of code

Shrivastava, Disha 09 1900 (has links)
Le code source offre un domaine d'application passionnant des méthodes d'apprentissage en profondeur, englobant des tâches telles que la synthèse, la réparation et l'analyse de programmes, ainsi que des tâches à l'intersection du code et du langage naturel. Bien que les modèles d’apprentissage profond pour le code, en particulier les grands modèles de langage, aient récemment connu un succès significatif, ils peuvent avoir du mal à se généraliser à du code invisible. Cela peut conduire à des inexactitudes, en particulier lorsque vous travaillez avec des référentiels contenant des logiciels propriétaires ou du code en cours de travail. L'objectif principal de cette thèse est d'exploiter efficacement les signaux utiles du contexte disponible afin d'améliorer les performances des modèles de code d'apprentissage profond pour une tâche donnée. En incorporant ces indices contextuels, les capacités de généralisation du modèle sont amplifiées, fournissant des informations supplémentaires non évidentes à partir de l'entrée d'origine et orientant son attention vers des détails essentiels. De plus, l'utilisation d'indices contextuels facilite l'adaptation aux nouvelles tâches et améliore les performances des tâches existantes en effectuant des prédictions plus contextuelles. Pour y parvenir, nous présentons un cadre général comprenant deux étapes : (a) l'amélioration du contexte, qui implique l'enrichissement de l'entrée avec un contexte de support obtenu grâce à l'identification et à la sélection d'indices contextuels pertinents, et (b) la prédiction à l'aide du contexte amélioré, où nous exploitez le contexte de support combiné aux entrées pour faire des prédictions précises. La thèse présente quatre articles qui proposent diverses approches pour ces étapes. Le premier article divise le problème standard de la programmation par exemples en deux étapes: (a) trouver des programmes qui satisfont des exemples individuels (solutions par exemple) et, (b) combiner ces solutions par exemple en tirant parti de leurs états d'exécution de programme pour trouver un programme qui satisfait tous les exemples donnés. Le deuxième article propose une approche pour sélectionner des informations ciblées à partir du fichier actuel et les utiliser pour adapter le modèle de complétion de code à un contexte local jamais vu précédemment. Le troisième article s'appuie sur le deuxième article en tirant parti des indices contextuels de l'ensemble du répertoire de code à l'aide d'un ensemble de requêtes ({\it prompts}) proposées suggérant l'emplacement et le contenu du contexte particulièrement utile à extraire du répertoire. Nous proposons un cadre pour sélectionner la requête la plus pertinente, qui est ensuite utilisée pour demander à un modèle de langage de code de générer des prédictions pour le reste de la ligne de code suivant un curseur positionné dans un fichier. Le quatrième article prolonge le troisième article en proposant un cadre qui apprend à combiner plusieurs contextes divers à partir du répertoire. Nous montrons que la formation de modèles de language de code plus petits de cette manière fonctionne mieux ou à égalité avec des modèles beaucoup plus grands qui n'utilisent pas le contexte du répertoire de code. / Source code provides an exciting application area of deep learning methods, encompassing tasks like program synthesis, repair, and analysis, as well as tasks at the intersection of code and natural language. Although deep learning models for code, particularly large language models, have recently seen significant success, they can face challenges in generalizing to unseen code. This can lead to inaccuracies especially when working with repositories that contain proprietary software or work-in-progress code. The main focus of this thesis is to effectively harness useful signals from the available context such that it can improve the performance of the deep learning models of code at the given task. By incorporating these contextual cues, the model's generalization capabilities are amplified, providing additional insights not evident from the original input and directing its focus toward essential details. Furthermore, the use of contextual cues aids in adapting to new tasks and boosts performance on existing ones by making more context-aware predictions. To achieve this, we present a general framework comprising two stages: (a) Context Enhancement, which involves enriching the input with support context obtained through the identification and selection of relevant contextual cues, and (b) Prediction using the Enhanced Context, where we leverage the support context combined with the input to make accurate predictions. The thesis presents four articles that propose diverse approaches for these stages. The first article breaks the standard problem of programming by examples into two stages: (a) finding programs that satisfy individual examples (per-example solutions) and, (b) combining these per-example solutions by leveraging their program execution states to find a program that satisfies all given examples. The second article proposes an approach for selecting targeted information from the current file and using it to adapt the code completion model to an unseen, local context. The third article builds upon the second article by leveraging contextual cues from the entire code repository using a set of prompt proposals that govern the location and content of the context that should be taken from the repository. We propose a framework to select the most relevant prompt proposal context which is then used to prompt a large language model of code to generate predictions for the tokens in the rest of the line following the cursor in a file. The fourth article extends the third article by proposing a framework that learns to combine multiple diverse contexts from the repository. We show that training smaller models of code this way performs better or at par with significantly larger models that are not trained with repository context.
149

Itérations chaotiques pour la sécurité de l'information dissimulée / Chaotic iterations for the Hidden Information Security

Friot, Nicolas 05 June 2014 (has links)
Les systèmes dynamiques discrets, œuvrant en itérations chaotiques ou asynchrones, se sont avérés être des outils particulièrement intéressants à utiliser en sécurité informatique, grâce à leur comportement hautement imprévisible, obtenu sous certaines conditions. Ces itérations chaotiques satisfont les propriétés de chaos topologiques et peuvent être programmées de manière efficace. Dans l’état de l’art, elles ont montré tout leur intérêt au travers de schémas de tatouage numérique. Toutefois, malgré leurs multiples avantages, ces algorithmes existants ont révélé certaines limitations. Cette thèse a pour objectif de lever ces contraintes, en proposant de nouveaux processus susceptibles de s’appliquer à la fois au domaine du tatouage numérique et au domaine de la stéganographie. Nous avons donc étudié ces nouveaux schémas sur le double plan de la sécurité dans le cadre probabiliste. L’analyse de leur biveau de sécurité respectif a permis de dresser un comparatif avec les autres processus existants comme, par exemple, l’étalement de spectre. Des tests applicatifs ont été conduits pour stéganaliser des processus proposés et pour évaluer leur robustesse. Grâce aux résultats obtenus, nous avons pu juger de la meilleure adéquation de chaque algorithme avec des domaines d’applications ciblés comme, par exemple, l’anonymisation sur Internet, la contribution au développement d’un web sémantique, ou encore une utilisation pour la protection des documents et des donnés numériques. Parallèlement à ces travaux scientifiques fondamentaux, nous avons proposé plusieurs projets de valorisation avec pour objectif la création d’une entreprise de technologies innovantes. / Discrete dynamical systems by chaotic or asynchronous iterations have proved to be highly interesting toolsin the field of computer security, thanks to their unpredictible behavior obtained under some conditions. Moreprecisely, these chaotic iterations possess the property of topological chaos and can be programmed in anefficient way. In the state of the art, they have turned out to be really interesting to use notably through digitalwatermarking schemes. However, despite their multiple advantages, these existing algorithms have revealedsome limitations. So, these PhD thesis aims at removing these constraints, proposing new processes whichcan be applied both in the field of digital watermarking and of steganography. We have studied these newschemes on two aspects: the topological security and the security based on a probabilistic approach. Theanalysis of their respective security level has allowed to achieve a comparison with the other existing processessuch as, for example, the spread spectrum. Application tests have also been conducted to steganalyse and toevaluate the robustness of the algorithms studied in this PhD thesis. Thanks to the obtained results, it has beenpossible to determine the best adequation of each processes with targeted application fields as, for example,the anonymity on the Internet, the contribution to the development of the semantic web, or their use for theprotection of digital documents. In parallel to these scientific research works, several valorization perspectiveshave been proposed, aiming at creating a company of innovative technology.
150

Dynamic chemistry : nucleobase recognition by synthetic receptors and cis-trans acylhydrazone isomerism / Chimie dynamique : reconnaissance de nucléobases par des récepteurs synthétiques et isomérie cis-trans d'hydrazones acylées

Marshall, Tracey 27 January 2012 (has links)
Chimie dynamique: reconnaissance de nucléobases par des récepteurs synthétiques et isomérie cis-trans d'hydrazones acylées.Ce travail traite du développement des systèmes moléculaires qui peuvent s'adapter à l'addition de substances qui agissent comme un gabarit. Cette approche permet d'isoler une espèce majeure à partir d'un mélange de composés par le biais de la chimie combinatoire dynamique (CCD). La première partie de ma thèse de doctorat inclus l'utilisation d'un ADN simple brin (ADNsb) comme un gabarit pour le transfert d'information par auto-assemblage de récepteurs sans avoir besoin d'enzyme. De nouveaux récepteurs de l'adénine et de la guanine (pinces A et G) solubles dans l'eau ont été conçues dans ce but. Une approche utilisant la résonance magnétique nucléaire (RMN) a été utilisée pour déterminer l'affinité de liaison comme preuve d'une reconnaissance spécifique et efficace. Une évaluation dans l'eau par dichroïsme circulaire (CD) et mesure de la température de fusion par UV (Tm) a été réalisée. Cela a permis de tester respectivement la capacité d'auto-assemblage entre les pinces et un modèle ADNsb, et la force du processus de coopérativité. La deuxième partie de ce travail est axée sur le tri spontanné de motifs pyridine acylhydrazone et sur les configurations intéressantes qu'ils adoptent. Nous avons étudié la synthèse d'une série de motifs pyridine acylhydrazone: dimère, trimères et pentamères. Des études RMN ont permis d'évaluer les changements dans l'équilibre configurationnel cis / trans de ces systèmes dynamiques. Les études ont montré que l'équilibre attendu est biaise la cis acylhydrazone pyridine isomère a été observée par diffraction des rayons X. / Dynamic chemistry: nucleobase recognition by synthetic receptors and cis-trans acylhydrazone isomerism. This work deals with the development of molecular systems which can adapt upon the addition of substances that act as templates. This approach enables one major species to be identified from a mixture of compounds through the use of dynamic combinatorial chemistry (DCC). The first part of my PhD included the use of a single stranded DNA (ssDNA) as a template for information transfer via the self-assembly of receptors without the need for enzymes. New water soluble adenine and guanine receptors (A and G clamps) were designed and synthesised for this purpose. Nuclear magnetic resonance (NMR) titration studies were carried out to calculate the binding affinity and as a proof of specific and efficient recognition. An assessment in water via circular dichroism (CD) and UV temperature melting (Tm) studies was carried out. This tested the ability for self-assembly between the clamps and a ssDNA template and the strength of the cooperative process respectively. The second part of my PhD focused on the self-sorting of acylhydrazone pyridine motifs and the interesting configurations they adopt. The feasibility to synthesise these acylhydrazone pyridine motifs (dimer, trimers and pentamers) was investigated. X-ray and NMR studies showed that the equilibrium was found to be biased in an unusual way, and the cis acylhydrazone pyridine isomer was observed.

Page generated in 0.0897 seconds