• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 6
  • 3
  • Tagged with
  • 25
  • 16
  • 11
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Computer-aided design and engineering of sucrose-utilizing transglucosylases for oligosaccharide synthesis / Design computationnel et ingénierie de transglycosylases pour la synthèse d'oligosaccharides

Verges, Alizee 08 April 2015 (has links)
La synthèse d’oligosides complexes reste difficilement réalisable par voie chimique. Le recours aux catalyseurs enzymatiques permettrait de pallier aux contraintes de la chimie mais les enzymes naturelles ne présentent pas toujours les propriétés adéquates et nécessitent d’être optimisées par ingénierie moléculaire. Le couplage de la chimie et de biocatalyseurs conçus « sur mesure », peut offrir une alternative prometteuse pour explorer de nouvelles voies de synthèse des sucres, notamment pour la mise au point de glycovaccins. L’objectif de cette thèse a ainsi visé à mettre en œuvre des stratégies d’ingénierie semi-rationnelles de l’amylosaccharase de Neisseria polysaccharea (ASNp), une α-transglucosylase utilisant le saccharose comme substrat, afin de concevoir de nouvelles spécificités de substrats et d’étendre le potentiel de cette enzyme à catalyser de nouvelles réactions, permettant ainsi d’aller bien au-delà de ce que la Nature peut offrir. Dans une première étude, une approche assistée par ordinateur a été suivie afin de remodeler le site actif de l’enzyme (sous-sites +1, +2 et +3) pour la reconnaissance et la glucosylation en α-1,4 d’un accepteur disaccharidique non-naturel (l’allyl 2-deoxy-2-N-trichloroacetyl-β-D-glucopyranosyl-(1→2)-α-L-rhamnopyranose). Le produit attendu, un trisaccharide, est un précurseur dans la synthèse chimio-enzymatique des oligosaccharides mimant les unités répétitives des lipopolysaccharides de Shigella flexneri, dont l’utilisation ultime est le développement de vaccins contre la Shigellose. Une approche computationnelle faisant appel à des outils dédiés au design automatisé de protéines et à une analyse des séquences a conduit au design d’une librairie d’environ 2.7x104 séquences, qui a ensuite été construite expérimentalement puis criblée. Au final, 55 variants actifs sur saccharose (le substrat donneur) ont été identifiés, et un mutant, appelé F3, a révélé sa capacité à glucosyler en α-1,4 le disaccharide cible. De manière étonnante, ce mutant possède 7 mutations au sein de son site actif, nécessaires au déploiement de sa nouvelle spécificité tout en maintenant son aptitude à utiliser le saccharose comme donneur d'unité glucosyle. Dans une deuxième étude, trois variants ont été identifiés lors du criblage de la librairie semi-rationnelle sur saccharose comme présentant de nouvelles spécificités de produits. Ces mutants ont été caractérisés plus en détails, ainsi que leurs produits, sur un plan biochimique et structural. Ces mutants, appelés 37G4, 39A8 et 47A10, contiennent entre 7 et 11 mutations dans leur site actif. Il a été montré qu’ils étaient capables de reconnaitre le saccharose et le maltose (un produit de la réaction avec le saccharose) comme donneur et accepteur pour synthétiser en quantités variables de l’erlose (α-D-Glucopyranosyl-(1→4)-α-D-Glucopyranosyl-(1→2)-β-D-Fructose) et du panose (α-D-Glucopyranosyl-(1→6)-α-D-Glucopyranosyl-(1→4)-α-D-glucose), des molécules non produites par l’enzyme sauvage. Des taux de production relativement élevés ont été obtenus pour ces molécules, dont les propriétés acariogènes et le pouvoir sucrant pourraient présenter un intérêt applicatif pour l’industrie alimentaire. Dans une dernière partie, un autre mutant, appelé 30H3, a été isolé lors du criblage primaire de la librairie de par son activité élevée sur saccharose (une amélioration d’un facteur 6.5 comparé à l’enzyme sauvage). Après caractérisation, le mutant s’est avéré synthétiser un profil unique de produits en comparaison de l’enzyme sauvage ASNp. Il s’est ainsi montré très efficace pour la synthèse de maltooligosaccharides solubles, de taille de chaînes contrôlée allant d’un DP 3 à 21, et de faible polydispersité. Aucun polymère insoluble n’a été identifié. La structure 3D du mutant résolue par cristallographie des rayons X a révélé un agrandissement de la poche catalytique en raison de la présence de 9 mutations introduites dans la première sphère.... / Chemical synthesis of complex oligosaccharides still remains critical. Enzymes have emerged as powerful tools to circumvent chemical boundaries of glycochemistry. However, natural enzymes do not necessarily display the required properties and need to be optimized by molecular engineering. Combined use of chemistry and tailored biocatalysts may thus be attractive for exploring novel synthetic routes, especially for glyco-based vaccines development. The objective of this thesis was thus to apply semi-rational engineering strategies to Neisseria polysaccharea amylosucrase (NpAS), a sucrose-utilizing α-transglucosylase, in order to conceive novel substrate specificities and extend the potential of this enzyme to catalyze novel reactions, going beyond what nature has to offer. In a first study, a computer aided-approach was followed to reshape the active site of the enzyme (subsites +1, +2 and +3) for the recognition and α-1,4 glucosylation of a non-natural disaccharide acceptor molecule (allyl 2-deoxy-2-N-trichloroacetyl-β-D-glucopyranosyl-(1→2)-α-L-rhamnopyranose). The trisaccharide product is a building block for the chemo-enzymatic synthesis of oligosaccharides mimicking the repetitive units of the Shigella flexneri lipopolysaccharides, and ultimately, for the production of a vaccine against Shigellosis disease. Using computational tools dedicated to the automated protein design, combined with sequence analysis, a library of about 2.7x104 sequences was designed and experimentally constructed and screened. Altogether, 55 mutants were identified to be active on sucrose (the donor substrate), and one, called mutant F3, was subsequently found able to catalyze the α-1,4 glucosylation of the target disaccharide. Impressively, this mutant contained seven mutations in the first shell of the active site leading to a drastic reshaping of the catalytic pocket without significantly perturbing the original specificity for sucrose donor substrate. In a second study, three variants were identified from the screening of the semi-rational library on sole sucrose as displaying totally novel product specificities. They were further characterized, as well as their products, at both biochemical and structural level. These mutants, called 37G4, 39A8 and 47A10, contained between 7 and 11 mutations into their active site. They were found able to use sucrose and maltose (a reaction product from sucrose) as both donor and acceptor substrates to produce in varying amounts erlose (α-D-Glucopyranosyl-(1→4)-α-D-Glucopyranosyl-(1→2)-β-D-Fructose) and panose (α-D-Glucopyranosyl-(1→6)-α-D-Glucopyranosyl-(1→4)-α-D-glucose) trisaccharides, which are not produced at all by parental wild-type enzyme. Relatively high yields were obtained for the production of these molecules, which are known to have acariogenic and sweetening properties and could be of interest for food applications. In a last part, another mutant 30H3 was isolated due to its high activity on sucrose (6.5-fold improvement compared to wild-type activity) from primary screening of the library. When characterized, the mutant revealed a singular product profile compared to that of wild-type NpAS. It appeared highly efficient for the synthesis of soluble maltooligosaccharides of controlled size chains, from DP 3 to 21, and with a low polydispersity. No formation of insoluble polymer was found. The X-ray structure of the mutant was determined and revealed the opening of the catalytic pocket due to the presence of 9 mutations in the first sphere. Molecular dynamics simulations suggested a role of mutations onto flexibility of domain B’ that might interfere with oligosaccharide binding and explain product specificity of the mutant.
22

Sur les aspects computationnels du vote par approbation / Computational Aspects of Approval Voting

Barrot, Nathanaël 31 March 2016 (has links)
L'objet de cette thèse est l'étude des aspects algorithmiques du vote par approbation. Il s'agit principalement d'une étude théorique des enjeux computationnels soulevés par le vote par approbation dans des contextes de décisions variés. Cependant, j'étudie aussi des questions plus proches de la théorie classique du choix social et je conduis de brèves études expérimentales.Dans un premier temps, l'étude se porte sur une famille générale de règles de vote pour les élections de comités et les référendums multiples à l'aide du vote par approbation. Dans un second temps, je porte mon attention sur un contexte plus général, le vote par approbation sur domaines combinatoires en se basant sur des préférences conditionnelles. Finalement, je me place dans le cadre du vote avec préférences incomplètes pour étudier les problèmes de vainqueurs possibles et nécessaires dans le vote par approbation. / The subject of this thesis is the study of computational aspects of approval voting. Most of the works are theoretical results about computational issues raised by approval voting, in many different settings. However, I also study some questions that are more related to classical choice theory, and some problems are investigated through experimental analysis.Firstly, I study a general family of rules for approval voting in the context of committee elections and multiple referenda. Secondly, I focus on a more general setting, approval voting in combinatorial domains, based on conditional preferences. Finally, I consider approval voting in the context of incomplete preferences, to study the possible and necessary winner problems.
23

L'effet du "bruit de fond couleur" sur l'estimation de quantités relatives des carrés de différentes couleurs dans des stimuli "damier" à plusieurs couleurs chez les sujets humains : étude psychophysique et computationnelle

Milosz, Julien 08 1900 (has links)
La prise de décision est une capacité générale de choisir entre deux ou plusieurs alternatives compte tenu de l’information courante et des objectifs en jeu. Il est généralement présumé qu’au niveau du système nerveux, le processus décisionnel consiste à accumuler des informations pertinentes, appelées « évidences », de plusieurs alternatives, les comparer entre elles, et finir par commettre à la meilleure alternative compte tenu du contexte de la décision (J. I. Gold & Shadlen, 2007). Ce projet de maîtrise porte sur un sous-type particulier de prise de décisions : les décisions dites perceptuelles. Dans ce projet de recherche, j'examinerai les patrons psychophysiques (temps de réponse et taux de succès) de sujets humains prenant des décisions dans des tâches visuelles contenant des damiers dynamiques composés des carrés de couleurs. Plus précisément, l’objectif de ce projet de mémoire est d’étudier le rôle du « bruit de couleur » sur les dynamiques décisionnelles. Deux nouvelles tâches de prise de décision ont été soigneusement construites à cette fin : la première avec un niveau de bruit binaire et la seconde avec des niveaux de bruit progressifs. Les résultats de la première tâche montrent qu'en l'absence de bruit de couleur, les patrons psychophysiques des sujets sont mieux expliqués comme étant modulés par la quantité d’évidences nettes normalisées. Dans cette même tâche, l'ajout de bruit modifie systématiquement ces patrons pour qu'ils ne semblent sensibles uniquement qu'à l'évidence nette des stimuli, comme si le processus de normalisation a été éliminé. Les résultats de la deuxième tâche favorisent l’explication selon laquelle l'évidence sensorielle est progressivement normalisée en fonction du niveau de bruit présent et que la normalisation n'est pas un phénomène de tout-ou-rien dans le contexte de la prise de décision perceptuelle. Finalement, une hypothèse unificatrice est proposée selon laquelle le cerveau estime l’évidence nette et adapte dynamiquement le contexte décisionnel d’essai en essai avec une quantité estimée d’évidence potentielle totale, apparaissant comme une normalisation. / Decision-making is a general ability to choose between two or more alternatives given current information and the objectives at stake. It is generally assumed that, at the level of the nervous system, the decision-making process consists of accumulating relevant information, called "evidence", from several alternatives, comparing them to each other, and finally committing to the best alternative given the context of the decision (J. I. Gold & Shadlen, 2007). This master's project focuses on a particular subtype of decision-making so-called perceptual decisions. In this research project, I will examine the psychophysical patterns (response times and success rates) of human subjects making decisions in visual tasks containing dynamic checkerboards composed of colored squares. Specifically, the goal of this project is to study the role of "color noise" on decision dynamics. Two new decision-making tasks were carefully constructed for this purpose: the first with a binary noise level and the second with progressive noise levels. Results from the first task show that in the absence of color noise, subjects' psychophysical patterns are best explained as being modulated by the amount of normalized net evidence. In this same task, the addition of noise systematically alters these patterns so that they appear to be sensitive only to the net evidence of the stimuli, as if the normalization process has been eliminated. The results of the second task support the explanation that sensory evidence is progressively normalized as a function of the level of noise present and that normalization is not an all-or-nothing phenomenon in the context of perceptual decision-making. Finally, a unifying hypothesis is proposed that the brain estimates net evidence and dynamically adapts the decisional context from trial to trial with an estimated amount of total potential evidence, appearing as normalization.
24

Contributions au développement d'outils computationnels de design de protéine : méthodes et algorithmes de comptage avec garantie / Contribution to protein design tools : counting methods and algorithms

Viricel, Clement 18 December 2017 (has links)
Cette thèse porte sur deux sujets intrinsèquement liés : le calcul de la constante de normalisation d’un champ de Markov et l’estimation de l’affinité de liaison d’un complexe de protéines. Premièrement, afin d’aborder ce problème de comptage #P complet, nous avons développé Z*, basé sur un élagage des quantités de potentiels négligeables. Il s’est montré plus performant que des méthodes de l’état de l’art sur des instances issues d’interaction protéine-protéine. Par la suite, nous avons développé #HBFS, un algorithme avec une garantie anytime, qui s’est révélé plus performant que son prédécesseur. Enfin, nous avons développé BTDZ, un algorithme exact basé sur une décomposition arborescente qui a fait ses preuves sur des instances issues d’interaction intermoléculaire appelées “superhélices”. Ces algorithmes s’appuient sur des méthodes issuse des modèles graphiques : cohérences locales, élimination de variable et décompositions arborescentes. A l’aide de méthodes d’optimisation existantes, de Z* et des fonctions d’énergie de Rosetta, nous avons développé un logiciel open source estimant la constante d’affinité d’un complexe protéine protéine sur une librairie de mutants. Nous avons analysé nos estimations sur un jeu de données de complexes de protéines et nous les avons confronté à deux approches de l’état de l’art. Il en est ressorti que notre outil était qualitativement meilleur que ces méthodes. / This thesis is focused on two intrinsically related subjects : the computation of the normalizing constant of a Markov random field and the estimation of the binding affinity of protein-protein interactions. First, to tackle this #P-complete counting problem, we developed Z*, based on the pruning of negligible potential quantities. It has been shown to be more efficient than various state-of-the-art methods on instances derived from protein-protein interaction models. Then, we developed #HBFS, an anytime guaranteed counting algorithm which proved to be even better than its predecessor. Finally, we developed BTDZ, an exact algorithm based on tree decomposition. BTDZ has already proven its efficiency on intances from coiled coil protein interactions. These algorithms all rely on methods stemming from graphical models : local consistencies, variable elimination and tree decomposition. With the help of existing optimization algorithms, Z* and Rosetta energy functions, we developed a package that estimates the binding affinity of a set of mutants in a protein-protein interaction. We statistically analyzed our esti- mation on a database of binding affinities and confronted it with state-of-the-art methods. It appears that our software is qualitatively better than these methods.
25

Droit et intelligence artificielle : essai pour la reconnaissance du droit computationnel

Papineau, Christelle 10 1900 (has links)
La porosité entre le droit et l’intelligence artificielle a aujourd’hui soixante ans. Cette porosité qui devait, à l’origine, permettre aux informaticiens d’améliorer les performances cognitives de leurs algorithmes, ce, grâce au syllogisme juridique, a très vite suscité, en retour, l’intérêt des juristes pour l’informatique. Ces derniers ont compris qu’ils pouvaient tirer avantage des opportunités offertes par l’automatisation du droit, grâce aux nouvelles technologies. Ainsi, à l’aube de la décennie 2020, le machine learning, l’un des sous champ disciplinaires les plus récents de l’intelligence artificielle, permet autant d’améliorer les modalités d’application des lois et sanctions que de calculer les citoyens (police prédictive, justice prédictive, mais aussi accès au droit et à la justice en ligne). Ce déploiement du machine learning, qui s’opère autant dans les pays common lawyer que dans les pays de tradition civiliste, s’opère surtout dans un contexte d’a-légalité, au préjudice des droits des citoyens calculés. Les juristes nord-américains ont résolu ce défaut d’encadrement législatif en usant de la technique du judge made law. Cette technique, qui présente l’avantage de son adaptabilité, à la fois à chaque situation de vide législatif, mais aussi aux tendances de la société et des époques, sera à nouveau mobilisée, à l’avenir, lorsque les prochains sous champs disciplinaires de l’intelligence artificielle, dont le deep learning, seront déployés. La souplesse du système common lawyer nord américain peut servir de modèle au système français, pour mettre en place un cadre juridique régulant, aujourd’hui, le machine learning et, demain, les prochains sous champs disciplinaires de l’intelligence artificielle. Il convient toutefois d’adapter la dimension casuistique du modèle nord-américain au système français, en proposant d’user des normativités alternatives, et de l’éthique, comme instruments équivalant à la souplesse du judge made law. Cette approche permettrait d’observer les questions de droit qui se posent à chaque progrès technologique et d’envisager des réponses juridiques, dans un contexte enclin à légiférer une fois que l’ensemble des achoppements techniques et des problèmes de droit, que ceux-ci posent, a été saisi. Cette méthode, qui impose d’observer les nouveaux phénomènes technologiques au prisme des normativités alternatives avant de légiférer, devrait permettre d’orienter et d’influencer le travail de légistique du législateur français pour améliorer l’effectivité du droit du numérique quant à la protection des personnes calculées par des algorithmes, déployés autant par les administrations que par les sociétés de type legaltech. / The porosity between law and artificial intelligence is now sixty years old. This porosity, which was originally intended to enable computer scientists to improve the cognitive performances of their algorithms, thanks to the legal syllogism, quickly aroused, in return, the interest of jurists in computer science. They understood that they could take advantage of the opportunities offered by the automation of the law, thanks to new technologies. Thus, at the dawn of the 2020s, machine learning, one of the most recent disciplinary subfields of artificial intelligence, allows as much to improve the methods of application of the laws and sanctions than to calculate the citizens (predictive policing, predictive justice, but also access to legal information and justice, online). This deployment of machine learning, which operates as much in the common law countries as in the countries of civil law tradition, takes place mainly in a context of a legality, to the detriment of the rights of the scored citizens. North American lawyers have resolved this lack of legislative framework by using the technique of judge-made law. This technique, which has the advantage of its adaptability, at the same time to each situation of legislative gap, but also to the tendencies of the society and the times, will be mobilized again, in the future, when the next disciplinary subfields of artificial intelligence, including deep learning, will be deployed. The flexibility of the North American common lawyer system can serve as a model for the French system, to set up a legal framework regulating, today, machine learning and, tomorrow, the next disciplinary subfields of artificial intelligence. However, the casuistic dimension of the North American model should be adapted to the French system, proposing the use of alternative normativities and ethics as instruments equivalent to the flexibility of the judge-made law. This approach would make it possible to observe the legal issues that arise with each technological advance and to consider legal responses, in a context inclined to legislate once the whole set of technical and legal issues, such as these pose, has been seized. This method, which requires observing new technological phenomena through the prism of alternative normativities before legislating, should make it possible to guide and influence the legislative work of the French legislator to improve the effectiveness of the digital law in terms of protecting people scored by algorithms, deployed as much by administrations as by legaltech type companies.

Page generated in 0.0821 seconds