• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 23
  • Tagged with
  • 257
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Shifting the boundaries of experimental studies in engineering enzymatic functions : combining the benefits of computational and experimental methods

Ebert, Maximilian 12 1900 (has links)
Cette thèse comporte quatre fichiers vidéo. This thesis comes with four video files. / L'industrie chimique mondiale est en pleine mutation, cherchant des solutions pour rendre la synthèse organique classique plus durable. Une telle solution consiste à passer de la catalyse chimique classique à la biocatalyse. Bien que les avantages des enzymes incluent leur stéréo, régio et chimiosélectivité, cette sélectivité réduit souvent leur promiscuité. Les efforts requis pour adapter la fonction enzymatique aux réactions désirées se sont révélés d'une efficacité modérée, de sorte que des méthodes rapides et rentables sont nécessaires pour générer des biocatalyseurs qui rendront la production chimique plus efficace. Dans l’ère de la bioinformatique et des outils de calcul pour soutenir l'ingénierie des enzymes, le développement rapide de nouvelles fonctions enzymatiques devient une réalité. Cette thèse commence par un examen des développements récents sur les outils de calcul pour l’ingénierie des enzymes. Ceci est suivi par un exemple de l’ingénierie des enzymes purement expérimental ainsi que de l’évolution des protéines. Nous avons exploré l’espace mutationnel d'une enzyme primitive, la dihydrofolate réductase R67 (DHFR R67), en utilisant l’ingénierie semi-rationnelle des protéines. La conception rationnelle d’une librarie de mutants, ou «Smart library design», impliquait l’association covalente de monomères de l’homotétramère DHFR R67 en dimères afin d’augmenter la diversité de la librairie d’enzymes mutées. Le criblage par activité enzymatique a révélé un fort biais pour le maintien de la séquence native dans un des protomères tout en tolérant une variation de séquence élevée pour le deuxième. Il est plausible que les protomères natifs procurent l’activité observée, de sorte que nos efforts pour modifier le site actif de la DHFR R67 peuvent n’avoir été que modérément fructueux. Les limites des méthodes expérimentales sont ensuite abordées par le développement d’outils qui facilitent la prédiction des points chauds mutationnels, c’est-à-dire les sites privilégiés à muter afin de moduler la fonction. Le développement de ces techniques est intensif en termes de calcul, car les protéines sont de grandes molécules complexes dans un environnement à base d’eau, l’un des solvants les plus difficiles à modéliser. Nous présentons l’identification rapide des points chauds mutationnels spécifiques au substrat en utilisant l'exemple d’une enzyme cytochrome P450 industriellement pertinente, la CYP102A1. En appliquant la technique de simulation de la dynamique moléculaire par la force de polarisation adaptative, ou «ABF», nous confirmons les points chauds mutationnels connus pour l’hydroxylation des acides gras tout en identifiant de nouveaux points chauds mutationnels. Nous prédisons également la conformation du substrat naturel, l’acide palmitique, dans le site actif et nous appliquons ces connaissances pour effectuer un criblage virtuel d'autres substrats de cette enzyme. Nous effectuons ensuite des simulations de dynamique moléculaire pour traiter l’impact potentiel de la dynamique des protéines sur la catalyse enzymatique, qui est le sujet de discussions animées entre les experts du domaine. Avec la disponibilité accrue de structures cristallines dans la banque de données de protéines (PDB), il devient clair qu’une seule structure de protéine n’est pas suffisante pour élucider la fonction enzymatique. Nous le démontrons en analysant quatre structures cristallines que nous avons obtenues d’une enzyme β-lactamase, parmi lesquelles un réarrangement important des résidus clés du site actif est observable. Nous avons réalisé de longues simulations de dynamique moléculaire pour générer un ensemble de structures suggérant que les structures cristallines ne reflètent pas nécessairement la conformation de plus basse énergie. Enfin, nous étudions la nécessité de compléter de manière informatisée un hémisphère où l’expérimental n’est actuellement pas possible, à savoir la prédiction de la migration des gaz dans les enzymes. À titre d'exemple, la réactivité des enzymes cytochrome P450 dépend de la disponibilité des molécules d’oxygène envers l’hème du site actif. Par le biais de simulations de la dynamique moléculaire de type Simulation Implicite du Ligand (ILS), nous dérivons le paysage de l’énergie libre de petites molécules neutres de gaz pour cartographier les canaux potentiels empruntés par les gaz dans les cytochromes P450 : CYP102A1 et CYP102A5. La comparaison pour les gaz CO, N2 et O2 suggère que ces enzymes évoluent vers l’exclusion du CO inhibiteur. De plus, nous prédisons que les canaux empruntés par les gaz sont distincts des canaux empruntés par le substrat connu et que ces canaux peuvent donc être modifiés indépendamment les uns des autres. / The chemical industry worldwide is at a turning point, seeking solutions to make classical organic synthesis more sustainable. One such solution is to shift from classical catalysis to biocatalysis. Although the advantages of enzymes include their stereo-, regio-, and chemoselectivity, their selectivity often reduces versatility. Past efforts to tailor enzymatic function towards desired reactions have met with moderate effectiveness, such that fast and cost-effective methods are in demand to generate biocatalysts that will render the production of fine and bulk chemical production more benign. In the wake of bioinformatics and computational tools to support enzyme engineering, the fast development of new enzyme functions is becoming a reality. This thesis begins with a review of recent developments on computational tools for enzyme engineering. This is followed by an example of purely experimental enzyme engineering and protein evolution. We explored the mutational space of a primitive enzyme, the R67 dihydrofolate reductase (DHFR), using semi-rational protein engineering. ‘Smart library design’ involved fusing monomers of the homotetrameric R67 DHFR into dimers, to increase the diversity in the resulting mutated enzyme libraries. Activity-based screening revealed a strong bias for maintenance of the native sequence in one protomer with tolerance for high sequence variation in the second. It is plausible that the native protomers procure the observed activity, such that our efforts to modify the enzyme active site may have been only moderately fruitful. The limitations of experimental methods are then addressed by developing tools that facilitate computational mutational hotspot prediction. Developing these techniques is computationally intensive, as proteins are large molecular objects and work in aqueous media, one of the most complex solvents to model. We present the rapid, substrate-specific identification of mutational hotspots using the example of the industrially relevant P450 cytochrome CYP102A1. Applying the adaptive biasing force (ABF) molecular dynamics simulation technique, we confirm the known mutational hotspots for fatty acid hydroxylation and identify a new one. We also predict a catalytic binding pose for the natural substrate, palmitic acid, and apply that knowledge to perform virtual screening for further substrates for this enzyme. We then perform molecular dynamics simulations to address the potential impact of protein dynamics on enzyme catalysis, which is the topic of heated discussions among experts in the field. With the availability of more crystal structures in the Protein Data Bank, it is becoming clear that a single protein structure is not sufficient to elucidate enzyme function. We demonstrate this by analyzing four crystal structures we obtained of a β-lactamase enzyme, among which a striking rearrangement of key active site residues was observed. We performed long molecular dynamics simulations to generate a structural ensemble that suggests that crystal structures do not necessarily reflect the conformation of lowest energy. Finally, we address the need to computationally complement an area where experimentation is not currently possible, namely the prediction of gas migration into enzymes. As an example, the reactivity of P450 cytochrome enzymes depends on the availability of molecular oxygen at the active-site heme. Using the Implicit Ligand Sampling (ILS) molecular dynamics simulation technique, we derive the free energy landscape of small neutral gas molecules to map potential gas channels in cytochrome P450 CYP102A1 and CYP102A5. Comparison of CO, N2 and O2 suggests that those enzymes evolved towards exclusion of the inhibiting CO. In addition, we predict that gas channels are distinct from known substrate channels and therefore can be engineered independently from one another.
252

Contributions to Multi-Armed Bandits : Risk-Awareness and Sub-Sampling for Linear Contextual Bandits / Contributions aux bandits manchots : gestion du risque et sous-échantillonnage pour les bandits contextuels linéaires

Galichet, Nicolas 28 September 2015 (has links)
Cette thèse s'inscrit dans le domaine de la prise de décision séquentielle en environnement inconnu, et plus particulièrement dans le cadre des bandits manchots (multi-armed bandits, MAB), défini par Robbins et Lai dans les années 50. Depuis les années 2000, ce cadre a fait l'objet de nombreuses recherches théoriques et algorithmiques centrées sur le compromis entre l'exploration et l'exploitation : L'exploitation consiste à répéter le plus souvent possible les choix qui se sont avérés les meilleurs jusqu'à présent. L'exploration consiste à essayer des choix qui ont rarement été essayés, pour vérifier qu'on a bien identifié les meilleurs choix. Les applications des approches MAB vont du choix des traitements médicaux à la recommandation dans le contexte du commerce électronique, en passant par la recherche de politiques optimales de l'énergie. Les contributions présentées dans ce manuscrit s'intéressent au compromis exploration vs exploitation sous deux angles spécifiques. Le premier concerne la prise en compte du risque. Toute exploration dans un contexte inconnu peut en effet aboutir à des conséquences indésirables ; par exemple l'exploration des comportements d'un robot peut aboutir à des dommages pour le robot ou pour son environnement. Dans ce contexte, l'objectif est d'obtenir un compromis entre exploration, exploitation, et prise de risque (EER). Plusieurs algorithmes originaux sont proposés dans le cadre du compromis EER. Sous des hypothèses fortes, l'algorithme MIN offre des garanties de regret logarithmique, à l'état de l'art ; il offre également une grande robustesse, contrastant avec la forte sensibilité aux valeurs des hyper-paramètres de e.g. (Auer et al. 2002). L'algorithme MARAB s'intéresse à un critère inspiré de la littérature économique(Conditional Value at Risk), et montre d'excellentes performances empiriques comparées à (Sani et al. 2012), mais sans garanties théoriques. Enfin, l'algorithme MARABOUT modifie l'estimation du critère CVaR pour obtenir des garanties théoriques, tout en obtenant un bon comportement empirique. Le second axe de recherche concerne le bandit contextuel, où l'on dispose d'informations additionnelles relatives au contexte de la décision ; par exemple, les variables d'état du patient dans un contexte médical ou de l'utilisateur dans un contexte de recommandation. L'étude se focalise sur le choix entre bras qu'on a tirés précédemment un nombre de fois différent. Le choix repose en général sur la notion d'optimisme, comparant les bornes supérieures des intervalles de confiance associés aux bras considérés. Une autre approche appelée BESA, reposant sur le sous-échantillonnage des valeurs tirées pour les bras les plus visités, et permettant ainsi de se ramener au cas où tous les bras ont été tirés un même nombre de fois, a été proposée par (Baransi et al. 2014). / This thesis focuses on sequential decision making in unknown environment, and more particularly on the Multi-Armed Bandit (MAB) setting, defined by Lai and Robbins in the 50s. During the last decade, many theoretical and algorithmic studies have been aimed at cthe exploration vs exploitation tradeoff at the core of MABs, where Exploitation is biased toward the best options visited so far while Exploration is biased toward options rarely visited, to enforce the discovery of the the true best choices. MAB applications range from medicine (the elicitation of the best prescriptions) to e-commerce (recommendations, advertisements) and optimal policies (e.g., in the energy domain). The contributions presented in this dissertation tackle the exploration vs exploitation dilemma under two angles. The first contribution is centered on risk avoidance. Exploration in unknown environments often has adverse effects: for instance exploratory trajectories of a robot can entail physical damages for the robot or its environment. We thus define the exploration vs exploitation vs safety (EES) tradeoff, and propose three new algorithms addressing the EES dilemma. Firstly and under strong assumptions, the MIN algorithm provides a robust behavior with guarantees of logarithmic regret, matching the state of the art with a high robustness w.r.t. hyper-parameter setting (as opposed to, e.g. UCB (Auer 2002)). Secondly, the MARAB algorithm aims at optimizing the cumulative 'Conditional Value at Risk' (CVar) rewards, originated from the economics domain, with excellent empirical performances compared to (Sani et al. 2012), though without any theoretical guarantees. Finally, the MARABOUT algorithm modifies the CVar estimation and yields both theoretical guarantees and a good empirical behavior. The second contribution concerns the contextual bandit setting, where additional informations are provided to support the decision making, such as the user details in the ontent recommendation domain, or the patient history in the medical domain. The study focuses on how to make a choice between two arms with different numbers of samples. Traditionally, a confidence region is derived for each arm based on the associated samples, and the 'Optimism in front of the unknown' principle implements the choice of the arm with maximal upper confidence bound. An alternative, pioneered by (Baransi et al. 2014), and called BESA, proceeds instead by subsampling without replacement the larger sample set. In this framework, we designed a contextual bandit algorithm based on sub-sampling without replacement, relaxing the (unrealistic) assumption that all arm reward distributions rely on the same parameter. The CL-BESA algorithm yields both theoretical guarantees of logarithmic regret and good empirical behavior.
253

Méta-modèles adaptatifs pour l'analyse de fiabilité et l'optimisation sous contrainte fiabiliste / Adaptive surrogate models for reliability analysis and reliability-based design optimization

Dubourg, Vincent 05 December 2011 (has links)
Cette thèse est une contribution à la résolution du problème d’optimisation sous contrainte de fiabilité. Cette méthode de dimensionnement probabiliste vise à prendre en compte les incertitudes inhérentes au système à concevoir, en vue de proposer des solutions optimales et sûres. Le niveau de sûreté est quantifié par une probabilité de défaillance. Le problème d’optimisation consiste alors à s’assurer que cette probabilité reste inférieure à un seuil fixé par les donneurs d’ordres. La résolution de ce problème nécessite un grand nombre d’appels à la fonction d’état-limite caractérisant le problème de fiabilité sous-jacent. Ainsi,cette méthodologie devient complexe à appliquer dès lors que le dimensionnement s’appuie sur un modèle numérique coûteux à évaluer (e.g. un modèle aux éléments finis). Dans ce contexte, ce manuscrit propose une stratégie basée sur la substitution adaptative de la fonction d’état-limite par un méta-modèle par Krigeage. On s’est particulièrement employé à quantifier, réduire et finalement éliminer l’erreur commise par l’utilisation de ce méta-modèle en lieu et place du modèle original. La méthodologie proposée est appliquée au dimensionnement des coques géométriquement imparfaites soumises au flambement. / This thesis is a contribution to the resolution of the reliability-based design optimization problem. This probabilistic design approach is aimed at considering the uncertainty attached to the system of interest in order to provide optimal and safe solutions. The safety level is quantified in the form of a probability of failure. Then, the optimization problem consists in ensuring that this failure probability remains less than a threshold specified by the stakeholders. The resolution of this problem requires a high number of calls to the limit-state design function underlying the reliability analysis. Hence it becomes cumbersome when the limit-state function involves an expensive-to-evaluate numerical model (e.g. a finite element model). In this context, this manuscript proposes a surrogate-based strategy where the limit-state function is progressively replaced by a Kriging meta-model. A special interest has been given to quantifying, reducing and eventually eliminating the error introduced by the use of this meta-model instead of the original model. The proposed methodology is applied to the design of geometrically imperfect shells prone to buckling.
254

Theoretical and experimental study of optical solutions for analog-to-digital conversion of high bit-rate signals / Étude théorique et expérimentale de techniques optiques pour la conversion analogique-numérique de signaux de communication à très haut débit

Nguyen, Trung-Hiên 19 November 2015 (has links)
Les formats de modulation bidimensionnels (i.e. basés sur l’amplitude et la phase de l’onde porteuse) ont gagné depuis peu le domaine des transmissions par fibre optique grâce aux progrès conjoints de l’électronique rapide et du traitement du signal, indispensables pour réaliser les récepteurs opto-électroniques utilisant la détection cohérente des signaux optiques. Pour pallier les limites actuelles en rapidité de commutation des circuits intégrés électroniques, une voie de recherche a été ouverte il y a quelques années, consistant à utiliser des technologies optiques pour faciliter la parallélisation du traitement du signal, notamment dans l’étape d’échantillonnage ultra-rapide du signal rendu possible par des horloges optiques très performantes. Le thème principal de cette thèse concerne l’étude théorique et expérimentale de la fonction de conversion analogique-numérique (ADC) de signaux optiques par un récepteur opto-électronique cohérent, associant les étapes d’échantillonnage optique linéaire, de conversion analogique-numérique et de traitement du signal. Un prototype, utilisant une solution originale pour la source d’échantillonnage, est modélisé, réalisé et caractérisé, permettant la reconstruction temporelle de signaux optiques modulés selon divers formats : NRZ, QPSK, 16-QAM. Les limitations optiques et électroniques du système sont analysées, notamment l’impact sur la reconstruction des signaux de divers paramètres : le taux d’extinction de la source optique, les paramètres de l’ADC (bande passante BW, temps d’intégration et nombre effectif de bits ENOB). Par ailleurs, de nouveaux algorithmes de traitement du signal sont proposés dans le cadre de la transmission optique cohérente à haut débit utilisant des formats de modulation bidimensionnels (amplitude et phase) : deux solutions sont proposées pour la compensation du déséquilibre de quadrature IQ dans les transmissions mono-porteuses: une méthode originale de l’estimation du maximum du rapport signal sur bruit ainsi qu’une nouvelle structure de compensation et d’égalisation conjointes; ces deux méthodes sont validées expérimentalement et numériquement avec un signal 16-QAM. Par ailleurs, une solution améliorée de récupération de porteuse (décalage de fréquence et estimation de la phase), basée sur une décomposition harmonique circulaire de la fonction de maximum de vraisemblance logarithmique, est validée numériquement pour la première fois dans le contexte des transmissions optiques (jusqu’à une modulation de 128-QAM). Enfin les outils développés dans ce travail ont finalement permis la démonstration d’une transmission sur 100 km d’un signal QPSK à 10 Gbaud fortement limité par un bruit de phase non linéaire et régénéré optiquement à l’aide d’un limiteur de puissance préservant la phase basé sur une nanocavité de cristal photonique. / Bi-dimensional modulation formats based on amplitude and phase signal modulation, are now commonly used in optical communications thanks to breakthroughs in the field of electronic and digital signal processing (DSP) required in coherent optical receivers. Photonic solutions could compensate for nowadays limitations of electrical circuits bandwidth by facilitating the signal processing parallelization. Photonic is particularly interesting for signal sampling thanks to available stable optical clocks. The heart of the present work concerns analog-to-digital conversion (ADC) as a key element in coherent detection. A prototype of linear optical sampling using an original solution for the optical sampling source, is built and validated with the successful equivalent time reconstruction of NRZ, QPSK and 16-QAM signals. Some optical and electrical limitations of the system are experimentally and numerically analyzed, notably the extinction ratio of the optical source or the ADC parameters (bandwidth, integration time, effective number of bits ENOB). Moreover, some new DSPs tools are developed for optical transmission using bi-dimensional modulation formats (amplitude and phase). Two solutions are proposed for IQ quadrature imbalance compensation in single carrier optical coherent transmission: an original method of maximum signal-to-noise ratio estimation (MSEM) and a new structure for joint compensation and equalization; these methods are experimentally and numerically validated with 16-QAM signals. Moreover, an improved solution for carrier recovery (frequency offset and phase estimation) based on a circular harmonic expansion of a maximum loglikelihood function is studied for the first time in the context of optical telecommunications. This solution which can operate with any kind of bi-dimensional modulation format signal is numerically validated up to 128-QAM. All the DSP tools developed in this work are finally used in a demonstration of a 10 Gbaud QPSK 100 km transmission experiment, featuring a strong non-linear phase noise limitation and regenerated using a phase preserving and power limiting function based on a photonic crystal nanocavity.
255

Essays in empirical finance

Farouh, Magnim 08 1900 (has links)
Cette thèse comporte trois chapitres dans lesquels j'étudie les coûts de transaction des actions, les anomalies en finance et les activités du système bancaire parallèle. Dans le premier chapitre (co-écrit avec René Garcia), une nouvelle façon d'estimer les coûts de transaction des actions est proposée. Les coûts de transaction ont diminué au fil du temps, mais ils peuvent augmenter considérablement lorsque la liquidité de financement se raréfi e, lorsque les craintes des investisseurs augmentent ou lorsqu'il y a d'autres frictions qui empêchent l'arbitrage. Nous estimons dans ce chapitre les écarts entre les cours acheteur et vendeur des actions de milliers d'entreprises à une fréquence journalière et présentons ces mouvements importants pour plusieurs de ces épisodes au cours des 30 dernières années. Le coût de transaction des trois quarts des actions est fortement impacté par la liquidité de fi nancement et augmente en moyenne de 24%. Alors que les actions des petites entreprises et celles des entreprises à forte volatilité ont des coûts de transaction plus élevés, l'augmentation relative des coûts de transaction en temps de crise est plus prononcée pour les actions des grandes entreprises et celles des entreprises à faible volatilité. L'écart entre les coûts de transaction respectifs de ces groupes de qualité élevée et qualité faible augmente également lorsque les conditions financières se détériorent, ce qui prouve le phénomène de fuite vers la qualité. Nous avons construit des portefeuilles basés sur des anomalies et avons estimé leurs "alphas" ajustés pour les coûts de rééquilibrage sur la base de nos estimations des coûts de transaction pour montrer que toutes les stratégies sont soit non rentables soit perdent de l'argent, à l'exception de deux anomalies: le "prix de l'action" et la "dynamique du secteur industriel". Dans le deuxième chapitre, j'étudie comment la popularité des anomalies dans les revues scienti ques spécialisées en finance peut influer sur le rendement des stratégies basées sur ces anomalies. J'utilise le ton du résumé de la publication dans laquelle une anomalie est discutée et le facteur d'impact de la revue dans laquelle cette publication a paru pour prévoir le rendement des stratégies basées sur ces anomalies sur la période après publication. La principale conclusion est la suivante: lorsqu'une anomalie est discutée dans une publication dont le résumé a un ton positif, et qui apparaît dans une revue avec un facteur d'impact supérieur à 3 (Journal of Finance, Journal of Financial Economics, Review of Financial Studies), cette anomalie est plus susceptible d'attirer les investisseurs qui vont baser leurs stratégies sur cette anomalie et corriger ainsi la mauvaise évaluation des actions. Le troisième chapitre (co-écrit avec Vasia Panousi) propose une mesure de l'activité bancaire parallèle des entreprises opérant dans le secteur financier aux États-Unis. À cette fi n, nous utilisons l'analyse de données textuelles en extrayant des informations des rapports annuels et trimestriels des entreprises. On constate que l'activité bancaire parallèle était plus élevée pour les "Institutions de dépôt", les "Institutions qui ne prennent pas de dépôt" et le secteur "Immobilier" avant 2008. Mais après 2008, l'activité bancaire parallèle a considérablement baissé pour toutes les fi rmes opérant dans le secteur financier sauf les "Institutions non dépositaires". Notre indice du système bancaire parallèle satisfait certains faits économiques concernant le système bancaire parallèle, en particulier le fait que les politiques monétaires restrictives contribuent à l'expansion du système bancaire parallèle. Nous montrons également avec notre indice que, lorsque l'activité bancaire parallèle des 100 plus grandes banques augmente, les taux de délinquance sur les prêts accordés par ces banques augmentent également. L'inverse est observé avec l'indice bancaire traditionnel: une augmentation de l'activité bancaire traditionnelle des 100 plus grandes banques diminue le taux de délinquance. / This thesis has three chapters in which I study transaction costs, anomalies and shadow banking activities. In the first chapter (co-authored with René Garcia) a novel way of estimating transaction costs is proposed. Transaction costs have declined over time but they can increase considerably when funding liquidity becomes scarce, investors' fears spike or other frictions limit arbitrage. We estimate bid-ask spreads of thousands of firms at a daily frequency and put forward these large movements for several of these episodes in the last 30 years. The transaction cost of three-quarters of the firms is significantly impacted by funding liquidity and increases on average by 24%. While small firms and high volatility firms have larger transaction costs, the relative increase in transaction costs in crisis times is more pronounced in large firms and low-volatility firms. The gap between the respective transaction costs of these high- and low-quality groups also increases when financial conditions deteriorate, which provides evidence of flight to quality. We build anomaly-based long-short portfolios and estimate their alphas adjusted for rebalancing costs based on our security-level transaction cost estimates to show that all strategies are either unprofitable or lose money, except for price per share and industry momentum. In the second chapter I study how the popularity of anomalies in peer-reviewed finance journals can influence the returns on these anomalies. I use the tone of the abstract of the publication in which an anomaly is discussed and the impact factor of the journal in which this publication appears to forecast the post-publication return of strategies based on the anomaly. The main finding is the following: when an anomaly is discussed in a positive tone publication that appears in a journal with an impact factor higher than 3 (Journal of Finance, Journal of Financial Economics, Review of Financial Studies), this anomaly is more likely to attract investors that are going to arbitrage away the mispricing. The third chapter (co-authored with Vasia Panousi) proposes a measure of the shadow banking activity of firms operating in the financial industry in the United States. For this purpose we use textual data analysis by extracting information from annual and quarterly reports of firms. We find that the shadow banking activity was higher for the “Depository Institutions", “Non depository Institutions" and the “Real estate" before 2008. But after 2008, the shadow banking activity dropped considerably for all the financial companies except for the “Non depository Institutions". Our shadow banking index satisfies some economic facts about the shadow banking, especially the fact that contractionary monetary policies contribute to expand shadow banking. We also show with our index that, when the shadow banking activity of the 100 biggest banks increases, the delinquency rates on the loans that these banks give also increases. The opposite is observed with the traditional banking index: an increase of the traditional banking activity of the 100 biggest banks decreases the delinquency rate.
256

Conception par modélisation et criblage in silico d'inhibiteurs du récepteur c-Met

Asses, Yasmine 03 October 2011 (has links) (PDF)
L'enjeu des travaux effectués au cours de cette thèse est l'extraction in silico de molécules potentiellement intéressantes dans le processus d'inhibition du récepteur tyrosine kinase c-Met. La faculté de cette protéine à interagir dans les phénomènes d'embryogenèse et de réparation tissulaires rendent son inhibition cruciale dans les traitements contre les développements tumoraux où c-Met se trouve impliquée. Dans ce but, la stratégie que nous avons employée implique l'utilisation de plusieurs méthodes in silico de conception rationnelle de médicaments. Nous avons utilisé comme support les multiples structures cristallographiques publiées sur la ProteinData Base (PDB). Un travail de modélisation par homologie fut tout d'abord nécessaire pour combler les lacunes des structures cristallographiques collectées. Afin d'échantillonner au mieux l'espace conformationnel du récepteur kinase c-Met et de caractériser sa flexibilité, une longue campagne de simulation de Dynamique Moléculaire (DM) fut menée concernant les formes apo et holo des structures cristallographiques disponibles. Pour compléter ces simulations, une partie du travail consista à utiliser également la méthode des modes normaux de vibration (NM). De ces 2 approches (DM et NM), nous avons extrait un ensemble de 10 conformères considérés comme les plus représentatifs de l'espace conformationnel simulé pour la kinase c-Met et avons proposé un mode de fonctionnement de ce récepteur. Utilisant les conformations extraites de l'échantillonnage conformationnel, nous avons ensuite mené une importante campagne de criblage virtuel sur plusieurs chimiothèques constituant au total environ 70.000 composés. L'analyse des résultats de l'arrimage moléculaire nous a conduits à la sélection de plusieurs molécules intéressantes possédant théoriquement une bonne affinité pour la kinase c-Met. Ces molécules ont été soumises aux tests expérimentaux effectués par l'équipe de biologistes associée à nos travaux.
257

Pression d'herbivorie et dynamique des communautés végétales : influence à court et moyen termes des populations de cervidés sur la diversité des communautés végétales en forêt / Herbivory pressure and vegetation community dynamics : short- and mid-term impacts of deer populations on the diversity of forest vegetation communities

Boulanger, Vincent 27 April 2010 (has links)
Les cervidés, animaux mobiles et herbivores, peuvent influencer les distributions, assemblages et dynamiques d'espèces végétales. L'objectif de cette thèse est d'évaluer le rôle joué par les cervidés sur la composition, stratification et dynamique de la végétation forestière. Le ré-échantillonnage de relevés couplant composition et abroutissement de la flore, implantés en 1976 en Forêt d'Arc-en-Barrois (52) a permis d'identifier (i) des espèces ligneuses préférées (Cornus sp., Rosa arvensis) ou au contraire évitées par les cervidés qui sélectionnent les espèces arbustives et à bois dense et (ii) le niveau trophique et la pression d'abroutissement comme gradients structurant la végétation et déterminant les dynamiques des espèces et des communautés. Nous analysons plus précisément le rôle des cervidés dans la progression spectaculaire de Cynoglossum germanicum, espèce rare, épizoochore et toxique.A partir d'un réseau national d'enclos/exclos suivis sur 10 ans, nous montrons que les cervidés limitent la croissance des arbustes et des espèces compétitrices, ce qui profite à la richesse spécifique de la strate herbacée. La valeur écologique et patrimoniale des espèces en progression est discutée. A l'aide de données de chasse, nous tentons d'isoler les rôles des différentes espèces d'ongulés dans ces dynamiques.Ces résultats exposent la complexité et la diversité des effets des cervidés sur la végétation forestière. Enfin, ce travail met l'accent sur la nécessité des suivis temporels intégrant toutes les composantes de l'écosystème forestier pour mieux appréhender les changements en cours. / This thesis aims at assessing the impacts of deer on forest vegetation composition, stratification and dynamics.We resampled a network of relevés coupling vegetation and browsing surveys, settled in 1976 in the national forest of Arc-en-Barrois. We identified (i) ligneous species that are either preferred (Cornus sp., Rosa arvensis) or avoided by deer, which tend to select shrubs species with dense wood and (ii) trophic level and browsing pressure as gradients that determine plant communities structures and dynamics. Then, we highlight the roles of deer in the spectacular expansion of Cynoglossum germanicum, a rare, epizoochorous and toxic species. According to a national network of exclosures, monitored for over 10 years, we show that deer limit shrubs and competing species growth, which in turn benefits to the herbaceous species richness probably through an increased light availability. Ecological and patrimonial value of the benefitting species is discussed. Using hunting statistics, we try to isolate the role of the various ungulate species in these dynamics.These results provide evidence for the diversity and complexity of deer impacts on forest vegetation. Finally, we demonstrate the need for long term monitoring programs, including all the forest ecosystem components so that we could better appreciate the forces driving the current changes

Page generated in 0.0718 seconds