• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 59
  • 33
  • Tagged with
  • 240
  • 240
  • 127
  • 123
  • 50
  • 48
  • 32
  • 28
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Analyse statistique de données fonctionnelles à structures complexes

Adjogou, Adjobo Folly Dzigbodi 05 1900 (has links)
No description available.
232

Morphodynamic modelling of a wave-dominated tidal inlet : the Albufeira lagoon / Modélisation morphodynamique d'une embouchure tidale dominée par la houle : la lagune d'Albufeira

Dodet, Guillaume 19 December 2013 (has links)
Les embouchures tidales dominées par la houle sont des systèmes côtiers particulièrement dynamiques dont la morphologie est continuellement remodelée par l’action des vagues et de la marée. Les rapides évolutions morphologiques auxquelles elles sont sujettes impactent directement leurs environnements écologiques et socio-économiques. Afin de mettre en œuvre des réglementations adaptées à la gestion durable des embouchures tidales, des études environnementales systématiques sont nécessaires. L’objectif principal de cette thèse est de mieux comprendre les processus physiques qui contrôlent les évolutions morphologiques d’une embouchure tidale éphémère au Portugal - l’embouchure de la lagune d’Albufeira – à partir de l’analyse de mesures hydrodynamiques et topographiques et de résultats d’un système de modélisation morphodynamique récemment développé. Les processus qui influent sur la dynamique de l’embouchure tidale à court terme, notamment ceux liés aux interactions vague-courant, ont été étudiés à travers l’application du système de modélisation à l’embouchure. Les modulations saisonnières du climat de vagues et du niveau moyen de la mer affectent fortement la dynamique sédimentaire de l’embouchure et contribuent au comblement naturel de l’embouchure pendant l’hiver. Les processus à long terme ont également été étudiés à partir de simulations rétrospectives de paramètres moyens de vagues pour des échelles régionales et locales sur une période 65 ans. Les fortes variabilités interannuelles du climat de vagues et de la dérive littorale qui lui est associée pourraient expliquer les différences d’évolutions morphologiques du système embouchure-lagune sur des échelles de temps pluri–annuels. / Wave-dominated tidal inlets are very dynamic coastal systems, whose morphology is continuously shaped by the combined action of the waves and the tides. The rapid morphological changes they experience impact directly their ecological and socio-economic environments. In order to implement adequate regulations for the sustainable management of tidal inlets, systematic environmental studies are necessary. The main objective of this PhD research work is to gain a better understanding of the physical processes that control the morphological evolutions of an ephemeral tidal inlet in Portugal - the Albufeira Lagoon inlet - based on the analysis of hydrodynamic and topographic data and on the results of a newly developed morphodynamic modelling system. The processes that impact the dynamics of the inlet at short time-scales, particularly those related to wave-current interactions, are investigated through the application of the modelling system to the inlet. The seasonal modulations of the wave climate and mean sea level strongly affect the sediment dynamics of the inlet and contribute to the natural closure of the inlet during the winter period. Long-term processes are also investigated based on a 65-year hindcast of mean wave parameters at regional and local scales. The large inter-annual variability of the wave climate and the associated longshore sediment transport – both correlated to the North-Atlantic Oscillation – are proposed to explain the differences in the morphological behaviour of the inlet-lagoon system at pluri-annual time-scales.
233

Méthodes non-paramétriques pour l'apprentissage et la détection de dissimilarité statistique multivariée / Nonparametric methods for learning and detecting multivariate statistical dissimilarity

Lhéritier, Alix 23 November 2015 (has links)
Cette thèse présente trois contributions en lien avec l'apprentissage et la détection de dissimilarité statistique multivariée, problématique d'importance primordiale pour de nombreuses méthodes d'apprentissage utilisées dans un nombre croissant de domaines. La première contribution introduit la notion de taille d'effet multivariée non-paramétrique, éclairant la nature de la dissimilarité détectée entre deux jeux de données, en deux étapes. La première consiste en une décomposition d'une mesure de dissimilarité (divergence de Jensen-Shannon) visant à la localiser dans l'espace ambiant, tandis que la seconde génère un résultat facilement interprétable en termes de grappes de points de forte discrépance et en proximité spatiale. La seconde contribution présente le premier test non-paramétrique d'homogénéité séquentiel, traitant les données issues de deux jeux une à une--au lieu de considérer ceux-ci- in extenso. Le test peut ainsi être arrêté dès qu'une évidence suffisamment forte est observée, offrant une flexibilité accrue tout en garantissant un contrôle del'erreur de type I. Sous certaines conditions, nous établissons aussi que le test a asymptotiquement une probabilité d'erreur de type II tendant vers zéro. La troisième contribution consiste en un test de détection de changement séquentiel basé sur deux fenêtres glissantes sur lesquelles un test d'homogénéité est effectué, avec des garanties sur l'erreur de type I. Notre test a une empreinte mémoire contrôlée et, contrairement à des méthodes de l'état de l'art qui ont aussi un contrôle sur l'erreur de type I, a une complexité en temps constante par observation, le rendant adapté aux flux de données. / In this thesis, we study problems related to learning and detecting multivariate statistical dissimilarity, which are of paramount importance for many statistical learning methods nowadays used in an increasingly number of fields. This thesis makes three contributions related to these problems. The first contribution introduces a notion of multivariate nonparametric effect size shedding light on the nature of the dissimilarity detected between two datasets. Our two step method first decomposes a dissimilarity measure (Jensen-Shannon divergence) aiming at localizing the dissimilarity in the data embedding space, and then proceeds by aggregating points of high discrepancy and in spatial proximity into clusters. The second contribution presents the first sequential nonparametric two-sample test. That is, instead of being given two sets of observations of fixed size, observations can be treated one at a time and, when strongly enough evidence has been found, the test can be stopped, yielding a more flexible procedure while keeping guaranteed type I error control. Additionally, under certain conditions, when the number of observations tends to infinity, the test has a vanishing probability of type II error. The third contribution consists in a sequential change detection test based on two sliding windows on which a two-sample test is performed, with type I error guarantees. Our test has controlled memory footprint and, as opposed to state-of-the-art methods that also provide type I error control, has constant time complexity per observation, which makes our test suitable for streaming data.
234

Essays in empirical finance

Farouh, Magnim 08 1900 (has links)
Cette thèse comporte trois chapitres dans lesquels j'étudie les coûts de transaction des actions, les anomalies en finance et les activités du système bancaire parallèle. Dans le premier chapitre (co-écrit avec René Garcia), une nouvelle façon d'estimer les coûts de transaction des actions est proposée. Les coûts de transaction ont diminué au fil du temps, mais ils peuvent augmenter considérablement lorsque la liquidité de financement se raréfi e, lorsque les craintes des investisseurs augmentent ou lorsqu'il y a d'autres frictions qui empêchent l'arbitrage. Nous estimons dans ce chapitre les écarts entre les cours acheteur et vendeur des actions de milliers d'entreprises à une fréquence journalière et présentons ces mouvements importants pour plusieurs de ces épisodes au cours des 30 dernières années. Le coût de transaction des trois quarts des actions est fortement impacté par la liquidité de fi nancement et augmente en moyenne de 24%. Alors que les actions des petites entreprises et celles des entreprises à forte volatilité ont des coûts de transaction plus élevés, l'augmentation relative des coûts de transaction en temps de crise est plus prononcée pour les actions des grandes entreprises et celles des entreprises à faible volatilité. L'écart entre les coûts de transaction respectifs de ces groupes de qualité élevée et qualité faible augmente également lorsque les conditions financières se détériorent, ce qui prouve le phénomène de fuite vers la qualité. Nous avons construit des portefeuilles basés sur des anomalies et avons estimé leurs "alphas" ajustés pour les coûts de rééquilibrage sur la base de nos estimations des coûts de transaction pour montrer que toutes les stratégies sont soit non rentables soit perdent de l'argent, à l'exception de deux anomalies: le "prix de l'action" et la "dynamique du secteur industriel". Dans le deuxième chapitre, j'étudie comment la popularité des anomalies dans les revues scienti ques spécialisées en finance peut influer sur le rendement des stratégies basées sur ces anomalies. J'utilise le ton du résumé de la publication dans laquelle une anomalie est discutée et le facteur d'impact de la revue dans laquelle cette publication a paru pour prévoir le rendement des stratégies basées sur ces anomalies sur la période après publication. La principale conclusion est la suivante: lorsqu'une anomalie est discutée dans une publication dont le résumé a un ton positif, et qui apparaît dans une revue avec un facteur d'impact supérieur à 3 (Journal of Finance, Journal of Financial Economics, Review of Financial Studies), cette anomalie est plus susceptible d'attirer les investisseurs qui vont baser leurs stratégies sur cette anomalie et corriger ainsi la mauvaise évaluation des actions. Le troisième chapitre (co-écrit avec Vasia Panousi) propose une mesure de l'activité bancaire parallèle des entreprises opérant dans le secteur financier aux États-Unis. À cette fi n, nous utilisons l'analyse de données textuelles en extrayant des informations des rapports annuels et trimestriels des entreprises. On constate que l'activité bancaire parallèle était plus élevée pour les "Institutions de dépôt", les "Institutions qui ne prennent pas de dépôt" et le secteur "Immobilier" avant 2008. Mais après 2008, l'activité bancaire parallèle a considérablement baissé pour toutes les fi rmes opérant dans le secteur financier sauf les "Institutions non dépositaires". Notre indice du système bancaire parallèle satisfait certains faits économiques concernant le système bancaire parallèle, en particulier le fait que les politiques monétaires restrictives contribuent à l'expansion du système bancaire parallèle. Nous montrons également avec notre indice que, lorsque l'activité bancaire parallèle des 100 plus grandes banques augmente, les taux de délinquance sur les prêts accordés par ces banques augmentent également. L'inverse est observé avec l'indice bancaire traditionnel: une augmentation de l'activité bancaire traditionnelle des 100 plus grandes banques diminue le taux de délinquance. / This thesis has three chapters in which I study transaction costs, anomalies and shadow banking activities. In the first chapter (co-authored with René Garcia) a novel way of estimating transaction costs is proposed. Transaction costs have declined over time but they can increase considerably when funding liquidity becomes scarce, investors' fears spike or other frictions limit arbitrage. We estimate bid-ask spreads of thousands of firms at a daily frequency and put forward these large movements for several of these episodes in the last 30 years. The transaction cost of three-quarters of the firms is significantly impacted by funding liquidity and increases on average by 24%. While small firms and high volatility firms have larger transaction costs, the relative increase in transaction costs in crisis times is more pronounced in large firms and low-volatility firms. The gap between the respective transaction costs of these high- and low-quality groups also increases when financial conditions deteriorate, which provides evidence of flight to quality. We build anomaly-based long-short portfolios and estimate their alphas adjusted for rebalancing costs based on our security-level transaction cost estimates to show that all strategies are either unprofitable or lose money, except for price per share and industry momentum. In the second chapter I study how the popularity of anomalies in peer-reviewed finance journals can influence the returns on these anomalies. I use the tone of the abstract of the publication in which an anomaly is discussed and the impact factor of the journal in which this publication appears to forecast the post-publication return of strategies based on the anomaly. The main finding is the following: when an anomaly is discussed in a positive tone publication that appears in a journal with an impact factor higher than 3 (Journal of Finance, Journal of Financial Economics, Review of Financial Studies), this anomaly is more likely to attract investors that are going to arbitrage away the mispricing. The third chapter (co-authored with Vasia Panousi) proposes a measure of the shadow banking activity of firms operating in the financial industry in the United States. For this purpose we use textual data analysis by extracting information from annual and quarterly reports of firms. We find that the shadow banking activity was higher for the “Depository Institutions", “Non depository Institutions" and the “Real estate" before 2008. But after 2008, the shadow banking activity dropped considerably for all the financial companies except for the “Non depository Institutions". Our shadow banking index satisfies some economic facts about the shadow banking, especially the fact that contractionary monetary policies contribute to expand shadow banking. We also show with our index that, when the shadow banking activity of the 100 biggest banks increases, the delinquency rates on the loans that these banks give also increases. The opposite is observed with the traditional banking index: an increase of the traditional banking activity of the 100 biggest banks decreases the delinquency rate.
235

Essays in functional econometrics and financial markets

Tsafack-Teufack, Idriss 07 1900 (has links)
Dans cette thèse, j’exploite le cadre d’analyse de données fonctionnelles et développe l’analyse d’inférence et de prédiction, avec une application à des sujets sur les marchés financiers. Cette thèse est organisée en trois chapitres. Le premier chapitre est un article co-écrit avec Marine Carrasco. Dans ce chapitre, nous considérons un modèle de régression linéaire fonctionnelle avec une variable prédictive fonctionnelle et une réponse scalaire. Nous effectuons une comparaison théorique des techniques d’analyse des composantes principales fonctionnelles (FPCA) et des moindres carrés partiels fonctionnels (FPLS). Nous déterminons la vitesse de convergence de l’erreur quadratique moyen d’estimation (MSE) pour ces méthodes. Aussi, nous montrons cette vitesse est sharp. Nous découvrons également que le biais de régularisation de la méthode FPLS est plus petit que celui de FPCA, tandis que son erreur d’estimation a tendance à être plus grande que celle de FPCA. De plus, nous montrons que le FPLS surpasse le FPCA en termes de prédiction avec moins de composantes. Le deuxième chapitre considère un modèle autorégressif entièrement fonctionnel (FAR) pour prèvoir toute la courbe de rendement du S&P 500 a la prochaine journée. Je mène une analyse comparative de quatre techniques de Big Data, dont la méthode de Tikhonov fonctionnelle (FT), la technique de Landweber-Fridman fonctionnelle (FLF), la coupure spectrale fonctionnelle (FSC) et les moindres carrés partiels fonctionnels (FPLS). La vitesse de convergence, la distribution asymptotique et une stratégie de test statistique pour sélectionner le nombre de retard sont fournis. Les simulations et les données réelles montrent que les méthode FPLS performe mieux les autres en terme d’estimation du paramètre tandis que toutes ces méthodes affichent des performances similaires en termes de prédiction. Le troisième chapitre propose d’estimer la densité de neutralité au risque (RND) dans le contexte de la tarification des options, à l’aide d’un modèle fonctionnel. L’avantage de cette approche est qu’elle exploite la théorie d’absence d’arbitrage et qu’il est possible d’éviter toute sorte de paramétrisation. L’estimation conduit à un problème d’inversibilité et la technique fonctionnelle de Landweber-Fridman (FLF) est utilisée pour le surmonter. / In this thesis, I exploit the functional data analysis framework and develop inference, prediction and forecasting analysis, with an application to topics in the financial market. This thesis is organized in three chapters. The first chapter is a paper co-authored with Marine Carrasco. In this chapter, we consider a functional linear regression model with a functional predictor variable and a scalar response. We develop a theoretical comparison of the Functional Principal Component Analysis (FPCA) and Functional Partial Least Squares (FPLS) techniques. We derive the convergence rate of the Mean Squared Error (MSE) for these methods. We show that this rate of convergence is sharp. We also find that the regularization bias of the FPLS method is smaller than the one of FPCA, while its estimation error tends to be larger than that of FPCA. Additionally, we show that FPLS outperforms FPCA in terms of prediction accuracy with a fewer number of components. The second chapter considers a fully functional autoregressive model (FAR) to forecast the next day’s return curve of the S&P 500. In contrast to the standard AR(1) model where each observation is a scalar, in this research each daily return curve is a collection of 390 points and is considered as one observation. I conduct a comparative analysis of four big data techniques including Functional Tikhonov method (FT), Functional Landweber-Fridman technique (FLF), Functional spectral-cut off (FSC), and Functional Partial Least Squares (FPLS). The convergence rate, asymptotic distribution, and a test-based strategy to select the lag number are provided. Simulations and real data show that FPLS method tends to outperform the other in terms of estimation accuracy while all the considered methods display almost the same predictive performance. The third chapter proposes to estimate the risk neutral density (RND) for options pricing with a functional linear model. The benefit of this approach is that it exploits directly the fundamental arbitrage-free equation and it is possible to avoid any additional density parametrization. The estimation problem leads to an inverse problem and the functional Landweber-Fridman (FLF) technique is used to overcome this issue.
236

Gouvernance bancaire et prise de risque des banques islamiques / Banking Governance and Risk Taking of Islamic Banks

Trad, Naama 26 June 2018 (has links)
Par rapport au système financier conventionnel qui a vécu ces dernières années des épisodes de forte instabilité liés en partie à une mauvaise gouvernance, le système financier islamique a montré des signes de robustesse et de pérennité. Sa capacité à surmonter les événements défavorables a incité plusieurs parties prenantes à proposer la finance islamique comme solutionaux déficits financiers et substitut potentiel au système bancaire actuel. Les partisans de cette finance ont fait valoir que la récente crise financière aurait pu être évitée si la finance islamique avec une bonne gouvernance et un cadre réglementaire solide avait été introduite au lieu de la finance conventionnelle. Pour ces raisons, l’objectif de cette thèse est d’une part d’examiner si la finance islamique pourrait garantir la stabilité en période de crise et être une alternative au système financier traditionnel, et d’autre part d’évaluer l’effet des mécanismes internes et externes de gouvernance bancaire sur le risque des banques islamiques par rapport à leurs homologues conventionnelles. Pour y arriver, nous avons élaboré trois chapitres avec desévidences empiriques en utilisant un échantillon de 95 banques islamiques et 130 banques conventionnelles (38 banques dont 14 banques islamiques sont exclues dans le dernier chapitre) dans 18 pays des régions MENAP et Asie du Sud-Est, durant la période 2006-2013. Le premier chapitre porte sur les spécificités et le risque de la banque dans un système financier islamiquepar rapport au système conventionnel. Les résultats trouvés indiquent que la taille et le capital de la banque ainsi que la croissance du PIB sont des facteurs clés de la solidité des deux systèmes bancaires de tous les pays étudiés, notamment des pays du Golfe. Cependant, d’autres résultats ne sont pas assez robustes pour savoir si les banques islamiques sont plus ou moins risquées que les banques conventionnelles. Par conséquent, nous concluons que le système bancaire islamique ne peut pas se substituer au système traditionnel, mais il est plutôt un complément financier qui a ses propres limites. Le deuxième chapitre examine l’effet des mécanismes internes de gouvernance bancaire, à savoir le conseil d’administration et le conseilde surveillance de la charia comme un organe de contrôle spécifique, sur le risque des banques conventionnelles par rapport aux banques islamiques. Les résultats ne montrent pas de différence significative entre les deux groupes bancaires,sauf pour les banques islamiques des pays du Golfe qui font preuve d’une plus grande solidité financière, grâce notamment auxcompétences de spécialistes en finance et en droit islamique, et au recrutement des administrateurs étrangers. En outre, nous trouvons que, dans les pays du Golfe en particulier, l'effet indésirable d'une taille importante du conseil d'administration et celui de la dualité des fonctions sur les risques des banques conventionnelles, disparaissent avec la présence d'un nombre élevé d’administrateurs indépendants. En traitant la question de la dimension externe de gouvernance bancaire dans le dernier chapitre, l’accent est mis sur l’effet probable des récentes réformes bancaires relatives aux banques conventionnelles et aux banques islamiques, à la lumière de Bâle III et du CSFI-12/15, sur le risque de ces banques. Les résultats trouvés montrent que si les exigences réglementaires de ces deux normes internationales de solvabilité avaient été appliquées durant notre période d'étude, elles auraient probablement amélioré la stabilité des deux systèmes bancaires des pays étudiés. Cependant, cet effet n’est pas uniforme pour toutes les banques, en particulier pour les banques conventionnelles des pays d’Asie du Sud-Est qui semblent moins stables et plus exposées au risque de crédit que le reste des banques.L’ensemble de ces résultats apporte une nouvelle dimension de la recherche en gouvernance dans une perspective islamique ... / Compared to the conventional financial system, which has experienced periods of high volatility in recent years partly due to poor governance, the Islamic financial system has shown signs of robustness and sustainability. Its ability to overcome the unfavorable events has encouraged several stakeholders to propose Islamic finance as a solution to financial deficits and as a potential alternative to the current banking system. The supporters of this finance argued that the recent financial crisis could have been avoided if Islamic finance with good governance and a solid regulatory framework had been introduced instead of conventional finance. For these reasons, the purpose of this thesis is twofold. First, we examine whether Islamic finance could guarantee stability in times of crisis and be a substitute for the traditional financial system. Second, we assess the effect of internal and external mechanisms of banking governance on the risk of Islamic banks compared to their conventional counterparts. To this end, we have developed three chapters with empirical evidence using a sample of 95 Islamic banks and 130 conventional banks (38 banks including 14 Islamic banks are excluded at the last chapter) in 18 MENAP and Southeast Asian countries, during the period 2006-2013. The first chapter analyzes the specificities and the risk of the bank in an Islamic financial system compared to conventional system. The results indicate that the size and capital of the bank as well as the GDP growth are crucial factors for the soundness of the two banking systems of all surveyed countries, especially of the Gulf region. However, other results are not strong enough to answer whether Islamic banks are more or less risky than their conventional counterparts. We therefore conclude that the Islamic banking system cannot replace the traditional system, but is, rather, a financial supplement that has its own limitations. The second chapter examines the effect of internal mechanisms of banking governance, such as the board of directors and the sharia supervisory board as a control organ specific to Islamic banks, on the risk of conventional banks compared to their Islamic counterparts. The findings show no significant difference between the two banking systems, except for the Islamic banks of Gulf countries, which demonstrate greater financial solidity thanks particularly to the skills of the specialists in finance and Islamic law, and the recruitment of foreign directors. In addition, we find especiallyin Gulf countries that the harmful effect of a large board size and dual functions on the risks of conventional banks disappear with the presence of a significant number of independent directors. In investigating the issue of the external dimension of banking governance, the focus is on the probable effect of recent banking reforms relating to conventional and Islamic banks, in light of Basel III and IFSB-12/15, on the risk of the two banking systems. Our findings support that if the regulatory requirements of these two international solvency standards had been applied during our sampling period, they would probably have improved the stability of the two banking systems of the surveyed countries. However, this effect is not uniform for all banks. In particular, conventional banks of Southeast Asian countries seem less stable and more exposed to credit risk than the other ones. All of these results bring a new dimension of governance research from an Islamic perspective, which could be a valuable source ofknowledge for both bankers and regulators in the banking sector.
237

Modélisation des réseaux de régulation de l’expression des gènes par les microARN

Poirier-Morency, Guillaume 12 1900 (has links)
Les microARN sont de petits ARN non codants d'environ 22 nucléotides impliqués dans la régulation de l'expression des gènes. Ils ciblent les régions complémentaires des molécules d'ARN messagers que ces gènes codent et ajustent leurs niveaux de traduction en protéines en fonction des besoins de la cellule. En s'attachant à leurs cibles par complémentarité partielle de leurs séquences, ces deux groupes de molécules d'ARN compétitionnent activement pour former des interactions régulatrices. Par conséquent, prédire quantitativement les concentrations d'équilibres des duplexes formés est une tâche qui doit prendre un compte plusieurs facteurs dont l'affinité pour l'hybridation, la capacité à catalyser la cible, la coopérativité et l'accessibilité de l'ARN cible. Dans le modèle que nous proposons, miRBooking 2.0, chaque interaction possible entre un microARN et un site sur un ARN cible pour former un duplexe est caractérisée par une réaction enzymatique. Une réaction de ce type opère en deux phases : une formation réversible d'un complexe enzyme-substrat, le duplexe microARN-ARN, suivie d'une conversion irréversible du substrat en produit, un ARN cible dégradé, et de la restitution l'enzyme qui pourra participer à une nouvelle réaction. Nous montrons que l'état stationnaire de ce système, qui peut comporter jusqu'à 10 millions d'équations en pratique, est unique et son jacobien possède un très petit nombre de valeurs non-nulles, permettant sa résolution efficace à l'aide d'un solveur linéaire épars. Cette solution nous permet de caractériser précisément ce mécanisme de régulation et d'étudier le rôle des microARN dans un contexte cellulaire donné. Les prédictions obtenues sur un modèle de cellule HeLa corrèlent significativement avec un ensemble de données obtenu expérimentalement et permettent d'expliquer remarquablement les effets de seuil d'expression des gènes. En utilisant ces prédictions comme condition initiale et une méthode d'intégration numérique, nous simulons en temps réel la réponse du système aux changements de conditions expérimentales. Nous appliquons ce modèle pour cibler des éléments impliqués dans la transition épithélio-mésenchymateuse (EMT), un mécanisme biologique permettant aux cellules d'acquérir une mobilité essentielle pour proliférer. En identifiant des éléments transcrits différentiellement entre les conditions épithéliale et mésenchymateuse, nous concevons des microARN synthétiques spécifiques pour interférer avec cette transition. Pour ce faire, nous proposons une méthode basée sur une recherche gloutonne parallèle pour rechercher efficacement l'espace de la séquence du microARN et présentons des résultats préliminaires sur des marqueurs connus de l'EMT. / MicroRNAs are small non-coding RNAs of approximately 22 nucleotide long involved in the regulation of gene expression. They target complementary regions to the RNA transcripts molecules that these genes encode and adjust the concentration according to the needs of the cell. As microRNAs and their RNA targets binds each other with imperfect complementarity, these two groups actively compete to form regulatory interactions. Consequently, attempting to quantitatively predict their equilibrium concentrations is a task that must take several factors into account, including the affinity for hybridization, the ability to catalyze the target, cooperation, and RNA accessibility. In the model we propose, miRBooking 2.0, each possible interaction between a microRNA and a binding site on a target RNA is characterized by an enzymatic reaction. A reaction of this type operates in two phases: a reversible formation of an enzyme-substrate complex, the microRNA-RNA duplex, and an irreversible conversion of the substrate in an RNA degradation product that restores the enzyme which can subsequently participate to other reactions. We show that the stationary state of this system, which can include up to 10 million equations in practice, has a very shallow Jacobian, allowing its efficient resolution using a sparse linear solver. This solution allows us to characterize precisely the mechanism of regulation and to study the role of microRNAs in a given cellular context. Predictions obtained on a HeLa S3 cell model correlate significantly with a set of experimental data obtained experimentally and can remarkably explain the expression threshold effects of genes. Using this solution as an initial condition and an explicit method of numerical integration, we simulate in real time the response of the system to changes of experimental conditions. We apply this model to target elements involved in the Epithelio-Mesenchymal Transition (EMT), an important mechanism of tumours proliferation. By identifying differentially expressed elements between the two conditions, we design synthetic microRNAs to interfere with the transition. To do so, we propose a method based on a parallel greedy best-first search to efficiently crawl the sequence space of the microRNA and present preliminary results on known EMT markers.
238

Caractérisation de l’atmosphères des exoplanètes par spectroscopie de transit à haute dispersion avec SPIRou

Boucher, Anne 04 1900 (has links)
L’objectif principal de cette thèse est de caractériser l’atmosphère de Jupiters chaudes par spectroscopie de transmission à haute résolution, dans l’infrarouge proche, avec l’instrument SPIRou. L’historique de formation, d’évolution et de migration des planètes est empreint dans leur composition chimique, et de retrouver cette composition permet d’en élucider le mystère. La spectroscopie de transit et d’émission a prouvé être fortement efficace à cette tâche, autant pour la détermination de la composition que pour la détermination d’autres caractéristiques atmosphériques comme le profil de température et la dynamique, accessibles à haute résolution. Les Jupiter Chaudes, planètes géantes gazeuses qui orbitent très près de leur étoile, offrent des conditions d’observations très favorables pour ce type d’étude. Encore beaucoup d’éléments nous échappent quant aux processus physiques, chimiques et dynamiques qui gouvernent l’atmosphère de ces objets astronomiques. Des études détaillées de ceux-ci, telles que celles présentées dans cette thèse, sont nécessaires pour mieux comprendre ces mécanismes. Dans un premier temps, nous avons fait l’étude de deux transits de HD 189733 b, une des exoplanètes les plus étudiées. Cela nous a permis de valider nos méthodes d’analyse avec des données provenant du spectropolarimètre infrarouge à haute résolution SPIRou, installé au télescope Canada-France-Hawaii, représentant d’ailleurs la première caractérisation d’une atmosphère en spectroscopie de transit pour le SPIRou Legacy Survey. Nous avons confirmé la présence d’un signal d’eau à un niveau de signification de plus de 5σ, basé sur les résultats de test-t. Nous présentons la première analyse de spectroscopie de transit haute résolution faite par méthode de récupération, basée sur l’inférence bayésienne et appliquée à une grille de modèles SCARLET interpolée. Celle-ci a permis d’inférer une abondance de log_10[H2O] ≃ −4.4. Les résultats obtenus sont cohérents avec la littérature et indiquent que l’atmosphère de HD 189733 b est relativement claire (sans nuages) et possède un C/O super-solaire (correspondant à une formation au-delà de la ligne de glace de l’eau). Un fort décalage vers le bleu de l’absorption par l’eau a été observé, indiquant la présence de forts vents allant du côté jour vers le côté nuit ou un signal dominé par le côté soir du terminateur (limbe arrière), ou une combinaison des deux. Dans un second temps, nous présentons la première analyse à haute résolution dans l’infrarouge proche de trois transits de la très peu dense sous-Saturne WASP-127 b. Une étude récente à basse résolution a montré un spectre de transmission riche et une abondance super-solaire de CO2 dans son atmosphère. La contribution de CO et de CO2 n’a cependant pu être démêlée étant donné la couverture spectrale et la résolution limitée des données HST et de Spitzer utilisées, menant à des scénarios équiprobables de faible et fort C/O. La couverture de la bande de CO à 2.3 μm par SPIRou a permis de faire cette différenciation, et nos résultats ont exclu la présence de CO en abondance supérieure à log_10[CO] = −4.3, impliquant que le signal détecté à 4.5μm dans les données Spitzer provient majoritairement du CO2. De plus, un calcul de test-t sur les données SPIRou a confirmé la détection de H2O à un niveau ajusté de 4.9σ, mais également une détection potentielle de OH, à 2.4σ. Cette présence extrêmement inattendue de OH pourrait potentiellement être expliquée si la température du côté jour est assez grande, aidée par l’irradiation amplifiée de l’étoile qui quitte la séquence principale, ou encore par du mélange vertical. Nous présentons également la première méthode de récupération complète appliquée à la spectroscopie de transit à haute résolution, en utilisant la suite de modèles petitRADTRANS, et sur trois ensembles de données différents : les données SPIRou, les données HST et Spitzer de l’étude initiale, et les deux ensembles de données combinés. Une comparaison des différents résultats obtenus confirme que l’analyse conjointe permet d’avoir de meilleures contraintes sur les paramètres atmosphériques. Alors que l’étude initiale favorisait un fort C/O, nos résultats pointent vers un C/O très sous-solaire, produit par un C/H sous-solaire et un O/H plutôt stellaire. Les scénarios de formation qui supportent une telle composition sont ceux au-delà des lignes de glace de H2O et de CO2 (∼ 10ua), avec une accrétion supplémentaire de matériel riche en O via la migration et le croisement des lignes de glaces. L’accrétion du matériel est soit dominée par le gaz et tardive (après 5 à 7 millions d’années), ou encore, mixte (de gaz et de glaces) et plus précoce, avec un mélange cœur-enveloppe substantiel. Bien qu’il en reste beaucoup à faire, ces travaux de recherche ont démontré que la spectroscopie de transit à haute résolution dans l’infrarouge proche est utile pour explorer les conditions atmosphériques des Jupiter et sous-Saturne chaudes, et plus spécifiquement, avec l’instrument SPIRou. La combinaison de données à faible et à haute résolution s’avère un outil très puissant pour l’étude des atmosphères, et le sera encore plus avec les capacités révolutionnaires de JWST. / The main objective of this thesis is to characterize the atmosphere of hot Jupiters with high resolution transmission spectroscopy in the near-infrared with the SPIRou instrument. The formation, evolution and migration history of exoplanets is imprinted in their chemical composition, and finding this composition makes it possible to trace back this history. Transit and emission spectroscopy have proven to be highly effective for this task, in the determination of the composition, but also of other atmospheric characteristics such as the temperature profile and the dynamics, accessible at high resolution. Hot Jupiters -- gas giant planets orbiting very close to their star -- offer highly favourable observation conditions for this type of study. Many pieces of the puzzle are still missing regarding the physical, chemical and dynamical processes that govern the atmospheres of these astronomical objects, and detailed studies, such as the ones presented in this thesis, are necessary to better understand those mechanisms. First, we present the results of our analysis of two HD189733b transits, one of the most studied exoplanets to date. This study allowed to validate our analysis method with SPIRou data, a high-resolution near-infrared spectro-polarimeter installed at the Canada-France-Hawaii Telescope. It also represents the first characterization of an atmosphere with transit spectroscopy as part of the SPIRou Legacy Survey. Our results confirmed the H2O detection in the planet's atmosphere at a 5 sigma level, based on a $t$-test. We present the first analysis of a Bayesian retrieval framework applied to high-resolution transmission spectroscopy, using a grid of SCARLET models. We constrained the H2O abundance to log_10[H2O] ~ -4.4$. The results are consistent with the literature and agree on the atmosphere of HD189733b being relatively clear (without clouds) and having a super-solar C/O (corresponding to a formation beyond the H2O ice line). A strong blue shift of the water absorption signal was observed, indicative of strong day-to-night winds or a signal dominated by the terminator's evening side (trailing limb), or a combination of both. Second, we present the first high-resolution analysis in the near-infrared of three transits of the super low-density sub-Saturn WASP-127b. A recent low-resolution study showed a rich transmission spectrum and super-solar abundance of CO2 in its atmosphere. However, the contribution of CO and CO2 could not be disentangled given the limited spectral coverage and resolution of the HST and Spitzer data, leading to equiprobable low and high C/O scenarios. The coverage of the CO band at 2.3um by SPIRou made it possible to differentiate between the two cases, and our results excluded CO abundances greater than 10^(-4.3), implying that the signal at 4.5um seen in the Spitzer data mostly comes from CO2. Moreover, a t-test analysis on the SPIRou data confirmed the detection of H2O at an adjusted level of 4.9 sigma, but also a tentative detection of OH, at 2.4 sigma. The presence of OH, although extremely unexpected, could potentially be explained from a high enough dayside temperature, increased by the amplified irradiation of the star leaving the main sequence, or from vertical mixing. We also present the first full-retrieval framework applied to transmission spectroscopy at high resolution, using the petitRADTRANS model suite on three different datasets: on the SPIRou data, on the HST and Spitzer data from the original study, and on both datasets combined. A comparison of the different results obtained confirms that the joint analysis provides better constraints on the atmospheric parameters. While the initial study favored a high C/O, our results point toward a highly subsolar C/O, produced by a sub-stellar C/H and a roughly stellar O/H. Formation scenarios that support such a composition are those beyond the H2O and CO2 ice lines (~ 10ua), with further accretion of O-rich material via migration and ice lines crossing. The primordial/bulk accretion was either gas-dominated and late (after 5-7 Myr), or earlier and mixed (with gas and ice), with substantial core-enveloppe mixing. Although much remains to be done, this research work has demonstrated that high-resolution near-infrared transit spectroscopy is useful for exploring the atmospheric conditions of hot Jupiters and sub-Saturns, and more specifically, with the SPIRou instrument. The combination of low and high resolution data has shown to be a very powerful tool for such studies, and will be even more so with the revolutionary capabilities of JWST.
239

Étude multi-messagers et phénoménologie des sources de rayons cosmiques d'ultra-haute énergie : l'éclairage de l'Observatoire Pierre Auger

Decerprit, Guillaume 29 September 2010 (has links) (PDF)
La thématique des rayons cosmiques d'ultra-haute énergie (RCUHEs) est riche de mystères. Nous présentons l'état actuel des connaissances générales sur le sujet, ainsi que les apports et possibilités offerts par l'Observatoire Pierre Auger. Celui-ci nous a apporté plusieurs résultats majeurs dans le domaine : la mesure du spectre d'énergie au delà de quelques EeV et de la coupure à haute énergie avec une grande significativité, la mesure d'observables sensibles à la composition qui montrent un alourdissement avec l'énergie (ou une modification significative de la physique hadronique à la centaine de TeV !), et la mesure d'une anisotropie faible en dehors d'une région centrée sur une source remarquable mais pas forcément concernée, Centaurus~A. Dans la seconde partie de cette thèse, on étudie la propagation des RCUHEs depuis leur source dans le milieu extra-galactique. On étudie l'influence de la composition aux sources et des paramètres de l'accélération sur la forme des spectres à la Terre. On démontre la viabilité d'un modèle astrophysique satisfaisant, dit low-$E_{max}$, qui s'ajuste bien aux données du spectre et de la composition. Un outil numérique de propagation de protons/noyaux, notamment en présence de champs magnétiques, est également présenté dans ce cadre. Nous présenterons aussi (en quatrième partie) une étude indépendante des contraintes apportées par les données angulaires d'Auger sur la densité effective des sources de RCUHEs et leur déflexion dans les champs magnétiques. Une analyse des données par la méthode de percolation est également présentée, et démontre la faible anisotropie des données. Une partie entière est dédiée à la phénoménologie d'un messager secondaire : les photons. On expose leur propagation extra-galactique et l'outil numérique entièrement développé à ce sujet, que l'on intègre dans l'outil existant de propagation de protons/noyaux. Cette intégration aboutit à un code numérique global, véritablement multi-messagers (les neutrinos sont également traités), qui nous permet de disposer d'un outil complet, nous autorisant à fonder un modèle global de concordance capable de satisfaire l'ensemble des contraintes actuelles, dont les limites expérimentales connues sur le flux diffus de photons au TeV (par Fermi/LAT). Celui-ci est discuté dans le dernier chapitre. Nous terminons sur les perspectives offertes par la construction d'un modèle global de RCUHEs.
240

Variations temporelles de l’injection de drogues et association avec le risque d’infection par le virus de l’hépatite C

Fortier, Emmanuel 01 1900 (has links)
La majorité des personnes utilisatrices de drogues par injection (PUDI) contracteront le virus de l’hépatite C (VHC), les mettant à risque accru de complications hépatiques graves et parfois mortelles. Les comportements les plus risqués pour l’acquisition du VHC incluent le partage de matériel d’injection et l’injection à haute fréquence. Un facteur jusqu’ici négligé dans l’évaluation du risque de VHC est l’aspect dynamique de l’injection, c.-à-d. la manière dont elle varie dans le temps, incluant l’effet des périodes sans injection et celui des changements dans la fréquence d’injection. On reconnaît également l’effet délétère que l’instabilité résidentielle peut avoir sur le risque de VHC, bien que les mécanismes sous-jacents soient mal compris. Cette thèse s’intéresse à l’effet des variations temporelles de l’injection sur le risque de VHC, et à la manière dont la fréquence d’injection évolue en concomitance avec les conditions résidentielles dans le temps, afin d’aider au développement de nouvelles stratégies de prévention du VHC. Les données ont été recueillies entre mars 2011 et juin 2016 dans la Hepatitis Cohort, une cohorte de PUDI suivies trimestriellement à Montréal, au Québec. Une première analyse a évalué l’effet des périodes sans injection de trois mois ou moins sur le risque de VHC sur 916 personnes-années de suivi, par régression de Cox (N=372). Celle-ci suggère que les PUDI présentant des périodes sans injection courtes (3/3 mois sans injection) et sporadiques (1/3 ou 2/3 mois sans injection) sont respectivement 76% et 44% moins à risque de VHC que celles s’injectant de manière persistante (0/3 mois sans injection). Une deuxième analyse a utilisé la modélisation de trajectoires fondée sur le groupement pour identifier cinq types distincts de trajectoires de fréquence d’injection suivies sur une année, lesquels ont ensuite été comparés en termes d’incidence du VHC sur des périodes de suivi allant de 71 à 355 personnes-années (N=386). Les résultats suggèrent que les PUDI dont la fréquence reste élevée (injection fréquente) ou change dans le temps (croissante, décroissante) sont à plus haut risque de VHC que celles s’injectant à basse fréquence (sporadique, peu fréquente). Une dernière analyse a identifié trois types de trajectoires de stabilité résidentielle suivies sur un an (persistance, déclin, amélioration; N=386), lesquels ont été évalués en association avec les trajectoires de fréquence d’injection suivies simultanément. Les résultats suggèrent qu’il existe un lien entre l’amélioration des conditions résidentielles et la diminution de la fréquence d’injection, mais aussi que la probabilité d’injection à fréquence croissante est plus élevée chez les PUDI maintenant des conditions résidentielles stables que celles chez qui elles s’améliorent. Collectivement, les résultats ont de nombreuses implications en termes de prévention du VHC. Cliniquement, l’instabilité de la fréquence d’injection semble être un facteur de risque à monitorer régulièrement. En termes de santé publique, les interventions favorisant l’engagement dans des périodes sans injection ou le maintien d’une basse fréquence d’injection pourraient être prometteuses. Enfin, les stratégies visant l’amélioration des conditions résidentielles pourraient éventuellement aider les PUDI à réduire leur fréquence d’injection, mais être insuffisantes pour maintenir celle-ci à basse fréquence une fois la stabilité atteinte. / The majority of people who inject drugs (PWID) will become infected with hepatitis C virus (HCV), placing them at risk of serious and sometimes fatal liver complications. Injecting behaviours with higher risk of HCV transmission include injecting equipment sharing and high frequency injecting. One factor that has been overlooked when assessing HCV acquisition risk is the dynamic aspect of drug injecting, i.e., how drug injecting varies over time, including the role of injecting cessation episodes and that of changes in injecting frequency. Moreover, there is growing recognition of the deleterious effect unstable housing can have on HCV acquisition risk, although the underlying mechanisms are not yet fully understood. This thesis examines how temporal variations in drug injecting relate to HCV acquisition risk and further explores how housing conditions and injecting frequency evolve together over time, for the purposes of contributing to the development of novel HCV prevention strategies. Data were collected between March 2011 and June 2016 in the Hepatitis Cohort, a prospective cohort study of PWID interviewed and tested for HCV infection at three-monthly intervals in Montréal, Québec. A first analysis examined the effect of injecting cessation episodes of three months or less on the risk of contracting HCV during 916 person-years of follow-up, using Cox regression (N=372). Results suggest that PWID with short injecting cessation episodes (3/3 months without injecting) or sporadic injecting cessation episodes (1/3 or 2/3 months without injecting) are 76% and 44% less at risk of contracting HCV than those with persistent injecting (0/3 months without injecting), respectively. A second analysis used group-based trajectory modeling to identify five distinct types of one-year injecting frequency trajectories and compared these in terms of HCV incidence over follow-up periods ranging from 71 to 355 person-years (N=386). Findings suggest that PWID injecting with consistently high frequencies (frequent) or time-varying frequencies (increasing, decreasing) are at greater HCV acquisition risk compared with those maintaining low injecting frequencies (sporadic, infrequent). Finally, a third analysis identified three types of one-year housing stability trajectories (sustained, declining, improving) and examined their associations with concomitant injecting frequency trajectories (N=386). Findings suggest an association between improving housing stability and decreasing injecting frequency, but also a higher probability of increasing injecting frequency among PWID who maintain housing stability compared to those that improve it. Collectively, these findings have numerous implications for HCV prevention. Clinically, instability in injecting frequency appears to be a risk factor that should be monitored regularly. From a public health perspective, interventions that promote engagement in injecting cessation episodes or maintenance of low injecting frequency may be promising. Finally, strategies aimed to improve housing stability may help PWID to decrease their injecting frequency but may not be sufficient to help them maintain low injecting frequencies once housing stability is achieved.

Page generated in 0.0877 seconds