• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 30
  • 10
  • Tagged with
  • 130
  • 39
  • 24
  • 24
  • 23
  • 22
  • 19
  • 16
  • 15
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Contribution to a kernel of symbolic asymptotic modeling software. / Contribution au noyau d'un logiciel de modélisation asymptotique symbolique

Yang, Bin 16 December 2014 (has links)
Cette thèse est consacrée au développement d’un noyau du logiciel MEMSALab de modélisation parcalcul symbolique qui sera utilisé pour la génération automatique de modèles asymptotiques pourdes matrices de micro et nano-systèmes. Contrairement à des logiciels traditionnels réalisant des simulationsnumériques utilisant des modèles prédéfinis, le principe de fonctionnement de MEMSALabest de construire des modèles asymptotiques qui transforment des équations aux dérivées partiellesen tenant compte de leurs caractéristiques. Une méthode appelée ”par extension-combinaison” pourla modélisation asymptotique, qui permet la construction de modèle de façon incrémentale de sorteque les caractéristiques désirées soient incluses étape par étape est tout d’abord proposé pour lemodèle d’homogénéisation dérivation. Il repose sur une combinaison de méthodes asymptotiquesissues de la théorie des équations aux dérivés partielles et de techniques de réécriture issues del’informatique. Cette méthode concentre sur la dérivation de modèle pour les familles de PDEs aulieu de chacune d’entre elles. Un modèle d’homogénéisation de l’électro thermoélastique équationdéfinie dans un domaine mince multicouche est dérivé par utiliser la méthode mathématique danscette approche. Pour finir, un outil d’optimisation a été développé en combinant SIMBAD, une boite `aoutils logicielle pour l’optimisation et développée en interne, et COMSOL-MATLAB. Il a ´ et ´e appliquépour étudier la conception optimale d’une classe de sondes de microscopie atomique thermique et apermis d’ établir des règles générale pour leurs conception / This thesis is dedicated to develop a kernel of a symbolic asymptotic modeling software packageMEMSALab which will be used for automatic generation of asymptotic models for arrays of micro andnanosystems. Unlike traditional software packages aimed at numerical simulations by using pre-builtmodels, the purpose of MEMSALab is to derive asymptotic models for input equations by taking intoaccount their own features. An approach called ”by extension-combination” for the asymptotic modelingwhich allows an incremental model construction is firstly proposed for the homogenization modelderivation. It relies on a combination of the asymptotic method used in the field of partial differentialequations with term rewriting techniques coming from computer science. This approach focuses onthe model derivation for family of PDEs instead of each of them. An homogenization model of theelectrothermoelastic equation defined in a multi-layered thin domain has been derived by applyingthe mathematical method used in this approach. At last, an optimization tool has been developed bycombining a house-made optimization software package SIMBAD and COMSOL-MATLAB simulationand it has been applied for optimization of a SThM probe.
112

Cohorte de réseaux de neurones récurrents pour la reconnaissance de l'écriture / Cohort of recurrent neural networks for handwriting recognition

Stuner, Bruno 11 June 2018 (has links)
Les méthodes à l’état de l’art de la reconnaissance de l’écriture sont fondées sur des réseaux de neurones récurrents (RNN) à cellules LSTM ayant des performances remarquables. Dans cette thèse, nous proposons deux nouveaux principes la vérification lexicale et la génération de cohorte afin d’attaquer les problèmes de la reconnaissance de l’écriture : i) le problème des grands lexiques et des décodages dirigés par le lexique ii) la problématique de combinaison de modèles optiques pour une meilleure reconnaissance iii) la nécessité de constituer de très grands ensembles de données étiquetées dans un contexte d’apprentissage profond. La vérification lexicale est une alternative aux décodages dirigés par le lexique peu étudiée à cause des faibles performances des modèles optiques historiques (HMM). Nous montrons dans cette thèse qu’elle constitue une alternative intéressante aux approches dirigées par le lexique lorsqu’elles s’appuient sur des modèles optiques très performants comme les RNN LSTM. La génération de cohorte permet de générer facilement et rapidement un grand nombre de réseaux récurrents complémentaires en un seul apprentissage. De ces deux techniques nous construisons et proposons un nouveau schéma de cascade pour la reconnaissance de mots isolés, une nouvelle combinaison au niveau ligne LV-ROVER et une nouvelle stratégie d’auto-apprentissage de RNN LSTM pour la reconnaissance de mots isolés. La cascade proposée permet de combiner avec la vérification lexicale des milliers de réseaux et atteint des résultats à l’état de l’art pour les bases Rimes et IAM. LV-ROVER a une complexité réduite par rapport à l’algorithme original ROVER et permet de combiner des centaines de réseaux sans modèle de langage tout en dépassant l’état de l’art pour la reconnaissance de lignes sur le jeu de donnéesRimes. Notre stratégie d’auto-apprentissage permet d’apprendre à partir d’un seul réseau BLSTM et sans paramètres grâce à la cohorte et la vérification lexicale, elle montre d’excellents résultats sur les bases Rimes et IAM. / State-of-the-art methods for handwriting recognition are based on LSTM recurrent neural networks (RNN) which achieve high performance recognition. In this thesis, we propose the lexicon verification and the cohort generation as two new building blocs to tackle the problem of handwriting recognition which are : i) the large vocabulary problem and the use of lexicon driven methods ii) the combination of multiple optical models iii) the need for large labeled dataset for training RNN. The lexicon verification is an alternative to the lexicon driven decoding process and can deal with lexicons of 3 millions words. The cohort generation is a method to get easily and quickly a large number of complementary recurrent neural networks extracted from a single training. From these two new techniques we build and propose a new cascade scheme for isolated word recognition, a new line level combination LV-ROVER and a new self-training strategy to train LSTM RNN for isolated handwritten words recognition. The proposed cascade combines thousands of LSTM RNN with lexicon verification and achieves state-of-the art word recognition performance on the Rimes and IAM datasets. The Lexicon Verified ROVER : LV-ROVER, has a reduce complexity compare to the original ROVER algorithm and combine hundreds of recognizers without language models while achieving state of the art for handwritten line text on the RIMES dataset. Our self-training strategy use both labeled and unlabeled data with the unlabeled data being self-labeled by its own lexicon verified predictions. The strategy enables self-training with a single BLSTM and show excellent results on the Rimes and Iam datasets.
113

Combinaison cohérente dans une fibre multicœurs pour des applications LIDAR / Coherent combining in multicore fiber for LIDAR applications

Prevost, Florian 28 February 2017 (has links)
Les Lidars cohérents permettent de mesurer la vitesse du vent à grande distance, en se basant sur le décalage en fréquence Doppler induit par la réflexion des aérosols. Le Lidar vent est composé d'un système MOPFA (Master Oscillator Power Fiber Amplifier), contenant un oscillateur continu, un modulateur d'intensité, et un amplificateur fibré. L'objectif principal de cette thèse est la réalisation d'un MOPFA pulsé de forte puissance crête à sécurité oculaire, en utilisant une fibre multicoeurs dopée erbium. L'impulsion mono-fréquence dans les fibres est limitée par les effets non-linéaire du au confinement du faisceau dans le coeur. Les fibres multicoeurs peuvent être vues comme des fibres à larges coeur. L'impulsion à amplifier est divisée et injectée dans tous les coeurs de la fibre amplificatrice à l'aide d'un modulateur spatial de lumière (SLM). A la sortie, les impulsions amplifiées sont recombinées par un élément optique de diffraction (EOD). La combinaison cohérente en sortie requière un contrôle indépendant des phases à l'injection qui est asservit par un algorithme basé sur la puissance de l'ordre zéro de l'EOD. La puissance crête après combinaison est alors la somme des puissances crêtes atteintes dans chacun des coeurs. / Coherent Lidars can measure wind speed at long distance, using the Doppler frequency shift induced by the movement of the back reflecting aerosols. Wind Lidars usually include a MOPFA (Master Oscillator Power Fiber Amplifier) made of a continuous oscillator, an intensity modulator and a fiber amplifier. The main objective of this thesis is the realization of an eye-safe, high peak power, pulsed MOPFA using an erbium-doped multicore fiber. Single frequency pulse amplification in fibers is limited by nonlinear effects due to tight beam confinement in the core. Multicore fibers can be seen as a very large core fiber, thus mitigating the nonlinear effects. The pulse to be amplified is divided and injected into all cores of the amplifying fiber using a spatial light modulator (SLM). The amplified output pulses are then recombined at the fiber output by a diffractive optical element (DOE). The coherent combination at fiber output requires independent control of phases at injection provided by a feedback loop based on the DOE zero order power. The peak power after combination is the sum of the peak powers reached in each of the cores.
114

Rôle de IKKe dans la résistance à castration et dans la progression du cancer de la prostate

Gilbert, Sophie 09 1900 (has links)
Le cancer de la prostate est le cancer le plus diagnostiqué et représente la troisième cause de mort par cancer chez les hommes au Canada. Environ un quart des patients auront une récidive biochimique suite aux traitements de première ligne (chirurgie ou radiation). Le traitement systématique subséquent est la thérapie de déprivation à l’androgène qui permettra, dans un premier temps, un ralentissement de la croissance de la tumeur dite hormonosensible. Puis, dans un second temps, cette thérapie mènera à une progression vers un stade résistant à la castration avec ou sans métastases. De plus, environ 10% des patients recevront un diagnostic de cancer de la prostate métastatique. Cette forme du cancer de la prostate est une des formes les plus agressives et, à ce jour, il n’existe aucun traitement curatif. C’est pourquoi il est important de mieux déterminer les facteurs impliqués dans la progression du cancer de la prostate. De nombreuses études menées par le laboratoire ont permis d’identifier la kinase IKKe comme un facteur impliqué dans la progression du cancer de la prostate. Ainsi, il a été montré que les lignées résistantes à la castration expriment constitutivement IKKe sécrètent IL-6 et IL-8, cytokines impliquées dans la transactivation du récepteur à l’androgène, un des mécanismes de progression de ce cancer. Pour permettre cette sécrétion, IKKe phosphoryle C/EBP-b, facteur de transcription, ce qui conduit à l’activation de la transcription des gènes IL-6 et IL-8. Par ailleurs, C/EBP-b joue un rôle dans le contrôle de la sénescence induite par la thérapie de déprivation à l’androgène. Nous émettons donc l’hypothèse que IKKe interfère avec les mécanismes de sénescence induit par la thérapie de déprivation à l’androgène et que cibler IKKe permettrait de contrôler la croissance du cancer de la prostate résistant à la castration. Le premier objectif fut d’évaluer l’impact de l’inhibition de IKKe sur le destin cellulaire lors de la progression du cancer de la prostate. La déplétion de IKKe induit un phénotype de sénescence dans la lignée PC-3. L’utilisation d’inhibiteurs de IKKe, le BX795 et l’Amlexanox, induit un phénotype de sénescence dans les cellules résistantes à la castration, où IKKe a une expression constitutive, accompagnée d’une forte induction de dommages à l’ADN et d’une instabilité génomique, de façon dose-dépendent. Dans les iii cellules hormonosensibles, les inhibiteurs n’ont que très peu d’effet puisque l’expression de IKKe n’est pas constitutive. De plus, les inhibiteurs de IKKe ralentit la croissance tumorale des xénogreffes PC-3 et DU145, alors qu’ils n’ont aucun effet sur la croissance tumorale de la xénogreffe hormonosensible 22Rv1. Le deuxième objectif avait pour but de caractériser le rôle de IKKe dans l’échappement de la sénescence induite par la thérapie de déprivation à l’androgène. Nos travaux de recherche montrent que la déplétion ou l’utilisation de l’Amlexanox induit une diminution du recrutement de C/EBP-b au niveau du promoteur du gène de Rad51, protéine indispensable pour l’efficacité des mécanismes de réparation des dommages à l’ADN. De plus, bloquer la voie de réparation médiée par Rad51 par l’intermédiaire de l’Amlexanox améliore la sensibilité à l’Olaparib des cellules résistantes à la castration in vitro. De même, dans un modèle de xénogreffes résistantes à la castration, la combinaison Amlexanox – Olaparib montre un meilleur effet sur le ralentissement de la croissance tumorale. En conclusion, ce projet de doctorat aura permis de préciser les mécanismes impliquant IKKe dans la progression du cancer de la prostate. Les résultats apportent un nouvel éclairage sur le rôle de IKKe dans la régulation des dommages à l’ADN, particulièrement sur la transcription du gène Rad51 via C/EBP-b. De plus, les expériences in vivo montrent le potentiel thérapeutique de l’Amlexanox, notamment en le combinant avec l’Olaparib, afin de contrôler la croissance des tumeurs résistantes à la castration. / Prostate cancer is the most frequently diagnosed cancer and is the third leading cause of cancer death in men in Canada. About a quarter of patients will have a biochemical recurrence following first-line treatments (surgery or radiation). The subsequent systematic treatment is androgen deprivation therapy which will initially slow the growth of hormone- sensitive tumors. Almost inevitably this therapy will lead to progression towards castrate resistance with or without metastases. In addition, approximately 10% of patients will be initially diagnosed with metastatic prostate cancer. This form of prostate cancer is one of the most aggressive forms and, to date, there is no curative treatment. This underscores the important of better understanding the factors involved in the progression of prostate cancer. Numerous studies conducted by our laboratory have identified IKKe kinase as a factor involved in the progression of prostate cancer. It has been shown that castrate resistant cell lines that constitutively express IKKe secrete IL-6 and IL-8, cytokines involved in the transactivation of the androgen receptor, one of the mechanisms leading to cancer progression. IKKe contributes to this through the phosphorylation of C/EBP-b, a transcription factor, which leads to the activation of the transcription of the IL-6 and IL-8 genes. Furthermore, C/EBP-b plays a role in the control of senescence induced by androgen deprivation therapy. We therefore hypothesized that IKKe interferes with the mechanisms of senescence induced by androgen deprivation therapy and that targeting IKKe would control the growth of castration-resistant prostate cancer. The first objective was to assess the impact of IKKe inhibition on cell fate during prostate cancer progression. Depletion of IKKe induces a senescence phenotype in the PC- 3 cell line. The use of the IKKe inhibitors, BX795 and Amlexanox, induces a senescence phenotype in castrate resistant cell lines, where IKKe is constitutively expressed, accompanied by a strong induction of DNA damage and genomic instability in a dose- dependent manner. Since IKKe expression is not constitutive in hormone-sensitive cell lines, IKKe inhibitors have very little effect in these. In addition, IKKe inhibitors slow the growth of the PC-3 and DU145 xenografts, while they have no effect on the growth of hormone-sensitive 22Rv1 xenografts. v The second objective was to study the role of IKKe in the senescence escape induced by androgen deprivation therapy. Our research shows that the IKKe depletion or the use of Amlexanox induces a decrease in the C/EBP-b recruitment on the promoter of the Rad51 gene, a protein essential for the efficiency of the mechanisms of DNA damage repair. In addition, blocking the Rad51-mediated repair pathway through Amlexanox enhances susceptibility to Olaparib in castrate resistant cell lines in vitro. Likewise, in a castrate resistant xenograft model, the combination Amlexanox - Olaparib has a stronger effect on tumor growth as compared to a control or each treatment individually. In conclusion, this doctoral research has made it possible to identify a new mechanism implicating IKKe in the progression of prostate cancer. The results show the role of IKKe in the regulation of DNA damage, particularly on the transcription of the Rad51 gene via C/EBP-b. In addition, in vivo experiments show the therapeutic potential of Amlexanox, particularly in combination with Olaparib, to control the growth of castrate resistant tumors.
115

Ville et campagne à l'épreuve des modes d'habiter. Approche biographique des logiques habitantes.

Morel-Brochet, Annabelle 17 November 2006 (has links) (PDF)
Cette étude centrée sur l'habitant analyse les sensibilités géographiques et la valeur des milieux de vie urbains, périurbains et ruraux. La méthode d'enquête par entretien biographique compréhensif a donné lieu à 69 récits de lieux de vie. La « relation habitante » comprend deux dimensions : l'une, concrète, s'exprime spatialement dans les modes d'habiter ; l'autre, plus idéelle, renvoie à l'habiter. Ce travail explore les composantes et les mécanismes de la relation habitante, examine la signification du caractère polytopique des modes d'habiter. Il évalue aussi la place de la matérialité des milieux et du vécu dans la valeur des espaces et le bien-être. Il est apparu que l'emploi des notions de ville et campagne par les habitants vise à différencier physiquement les milieux de vie et à témoigner de leur habitabilité. La multiplicité des lieux de vie au quotidien ou au cours de l'année suit une logique de compensation, de contraste ou de complémentarité en combinant leurs aménités.
116

Efficient estimation using the characteristic function : theory and applications with high frequency data

Kotchoni, Rachidi 05 1900 (has links)
The attached file is created with Scientific Workplace Latex / Nous abordons deux sujets distincts dans cette thèse: l'estimation de la volatilité des prix d'actifs financiers à partir des données à haute fréquence, et l'estimation des paramétres d'un processus aléatoire à partir de sa fonction caractéristique. Le chapitre 1 s'intéresse à l'estimation de la volatilité des prix d'actifs. Nous supposons que les données à haute fréquence disponibles sont entachées de bruit de microstructure. Les propriétés que l'on prête au bruit sont déterminantes dans le choix de l'estimateur de la volatilité. Dans ce chapitre, nous spécifions un nouveau modèle dynamique pour le bruit de microstructure qui intègre trois propriétés importantes: (i) le bruit peut être autocorrélé, (ii) le retard maximal au delà duquel l'autocorrélation est nulle peut être une fonction croissante de la fréquence journalière d'observations; (iii) le bruit peut avoir une composante correlée avec le rendement efficient. Cette dernière composante est alors dite endogène. Ce modèle se différencie de ceux existant en ceci qu'il implique que l'autocorrélation d'ordre 1 du bruit converge vers 1 lorsque la fréquence journalière d'observation tend vers l'infini. Nous utilisons le cadre semi-paramétrique ainsi défini pour dériver un nouvel estimateur de la volatilité intégrée baptisée "estimateur shrinkage". Cet estimateur se présente sous la forme d'une combinaison linéaire optimale de deux estimateurs aux propriétés différentes, l'optimalité étant défini en termes de minimisation de la variance. Les simulations indiquent que l'estimateur shrinkage a une variance plus petite que le meilleur des deux estimateurs initiaux. Des estimateurs sont également proposés pour les paramètres du modèle de microstructure. Nous clôturons ce chapitre par une application empirique basée sur des actifs du Dow Jones Industrials. Les résultats indiquent qu'il est pertinent de tenir compte de la dépendance temporelle du bruit de microstructure dans le processus d'estimation de la volatilité. Les chapitres 2, 3 et 4 s'inscrivent dans la littérature économétrique qui traite de la méthode des moments généralisés. En effet, on rencontre en finance des modèles dont la fonction de vraisemblance n'est pas connue. On peut citer en guise d'exemple la loi stable ainsi que les modèles de diffusion observés en temps discrets. Les méthodes d'inférence basées sur la fonction caractéristique peuvent être envisagées dans ces cas. Typiquement, on spécifie une condition de moment basée sur la différence entre la fonction caractéristique (conditionnelle) théorique et sa contrepartie empirique. Le défit ici est d'exploiter au mieux le continuum de conditions de moment ainsi spécifié pour atteindre la même efficacité que le maximum de vraisemblance dans les inférences. Ce défit a été relevé par Carrasco et Florens (2000) qui ont proposé la procédure CGMM (continuum GMM). La fonction objectif que ces auteurs proposent est une forme quadratique hilbertienne qui fait intervenir l'opérateur inverse de covariance associé au continuum de condition de moments. Cet opérateur inverse est régularisé à la Tikhonov pour en assurer l'existence globale et la continuité. Carrasco et Florens (2000) ont montré que l'estimateur obtenu en minimisant cette forme quadratique est asymptotiquement aussi efficace que l'estimateur du maximum de vraisemblance si le paramètre de régularisation (α) tend vers zéro lorsque la taille de l'échatillon tend vers l'infini. La nature de la fonction objectif du CGMM soulève deux questions importantes. La première est celle de la calibration de α en pratique, et la seconde est liée à la présence d'intégrales multiples dans l'expression de la fonction objectif. C'est à ces deux problématiques qu'essayent de répondent les trois derniers chapitres de la présente thèse. Dans le chapitre 2, nous proposons une méthode de calibration de α basée sur la minimisation de l'erreur quadratique moyenne (EQM) de l'estimateur. Nous suivons une approche similaire à celle de Newey et Smith (2004) pour calculer un développement d'ordre supérieur de l'EQM de l'estimateur CGMM de sorte à pouvoir examiner sa dépendance en α en échantillon fini. Nous proposons ensuite deux méthodes pour choisir α en pratique. La première se base sur le développement de l'EQM, et la seconde se base sur des simulations Monte Carlo. Nous montrons que la méthode Monte Carlo délivre un estimateur convergent de α optimal. Nos simulations confirment la pertinence de la calibration de α en pratique. Le chapitre 3 essaye de vulgariser la théorie du chapitre 2 pour les modèles univariés ou bivariés. Nous commençons par passer en revue les propriétés de convergence et de normalité asymptotique de l'estimateur CGMM. Nous proposons ensuite des recettes numériques pour l'implémentation. Enfin, nous conduisons des simulations Monte Carlo basée sur la loi stable. Ces simulations démontrent que le CGMM est une méthode fiable d'inférence. En guise d'application empirique, nous estimons par CGMM un modèle de variance autorégressif Gamma. Les résultats d'estimation confirment un résultat bien connu en finance: le rendement est positivement corrélé au risque espéré et négativement corrélé au choc sur la volatilité. Lorsqu'on implémente le CGMM, une difficulté majeure réside dans l'évaluation numérique itérative des intégrales multiples présentes dans la fonction objectif. Les méthodes de quadrature sont en principe parmi les plus précises que l'on puisse utiliser dans le présent contexte. Malheureusement, le nombre de points de quadrature augmente exponentiellement en fonction de la dimensionalité (d) des intégrales. L'utilisation du CGMM devient pratiquement impossible dans les modèles multivariés et non markoviens où d≥3. Dans le chapitre 4, nous proposons une procédure alternative baptisée "reéchantillonnage dans le domaine fréquentielle" qui consiste à fabriquer des échantillons univariés en prenant une combinaison linéaire des éléments du vecteur initial, les poids de la combinaison linéaire étant tirés aléatoirement dans un sous-espace normalisé de ℝ^{d}. Chaque échantillon ainsi généré est utilisé pour produire un estimateur du paramètre d'intérêt. L'estimateur final que nous proposons est une combinaison linéaire optimale de tous les estimateurs ainsi obtenus. Finalement, nous proposons une étude par simulation et une application empirique basées sur des modèles autorégressifs Gamma. Dans l'ensemble, nous faisons une utilisation intensive du bootstrap, une technique selon laquelle les propriétés statistiques d'une distribution inconnue peuvent être estimées à partir d'un estimé de cette distribution. Nos résultats empiriques peuvent donc en principe être améliorés en faisant appel aux connaissances les plus récentes dans le domaine du bootstrap. / In estimating the integrated volatility of financial assets using noisy high frequency data, the time series properties assumed for the microstructure noise determines the proper choice of the volatility estimator. In the first chapter of the current thesis, we propose a new model for the microstructure noise with three important features. First of all, our model assumes that the noise is L-dependent. Secondly, the memory lag L is allowed to increase with the sampling frequency. And thirdly, the noise may include an endogenous part, that is, a piece that is correlated with the latent returns. The main difference between this microstructure model and existing ones is that it implies a first order autocorrelation that converges to 1 as the sampling frequency goes to infinity. We use this semi-parametric model to derive a new shrinkage estimator for the integrated volatility. The proposed estimator makes an optimal signal-to-noise trade-off by combining a consistent estimators with an inconsistent one. Simulation results show that the shrinkage estimator behaves better than the best of the two combined ones. We also propose some estimators for the parameters of the noise model. An empirical study based on stocks listed in the Dow Jones Industrials shows the relevance of accounting for possible time dependence in the noise process. Chapters 2, 3 and 4 pertain to the generalized method of moments based on the characteristic function. In fact, the likelihood functions of many financial econometrics models are not known in close form. For example, this is the case for the stable distribution and a discretely observed continuous time model. In these cases, one may estimate the parameter of interest by specifying a moment condition based on the difference between the theoretical (conditional) characteristic function and its empirical counterpart. The challenge is then to exploit the whole continuum of moment conditions hence defined to achieve the maximum likelihood efficiency. This problem has been solved in Carrasco and Florens (2000) who propose the CGMM procedure. The objective function of the CGMM is a quadrqtic form on the Hilbert space defined by the moment function. That objective function depends on a Tikhonov-type regularized inverse of the covariance operator associated with the moment function. Carrasco and Florens (2000) have shown that the estimator obtained by minimizing the proposed objective function is asymptotically as efficient as the maximum likelihood estimator provided that the regularization parameter (α) converges to zero as the sample size goes to infinity. However, the nature of this objective function raises two important questions. First of all, how do we select α in practice? And secondly, how do we implement the CGMM when the multiplicity (d) of the integrals embedded in the objective-function d is large. These questions are tackled in the last three chapters of the thesis. In Chapter 2, we propose to choose α by minimizing the approximate mean square error (MSE) of the estimator. Following an approach similar to Newey and Smith (2004), we derive a higher-order expansion of the estimator from which we characterize the finite sample dependence of the MSE on α. We provide two data-driven methods for selecting the regularization parameter in practice. The first one relies on the higher-order expansion of the MSE whereas the second one uses only simulations. We show that our simulation technique delivers a consistent estimator of α. Our Monte Carlo simulations confirm the importance of the optimal selection of α. The goal of Chapter 3 is to illustrate how to efficiently implement the CGMM for d≤2. To start with, we review the consistency and asymptotic normality properties of the CGMM estimator. Next we suggest some numerical recipes for its implementation. Finally, we carry out a simulation study with the stable distribution that confirms the accuracy of the CGMM as an inference method. An empirical application based on the autoregressive variance Gamma model led to a well-known conclusion: investors require a positive premium for bearing the expected risk while a negative premium is attached to the unexpected risk. In implementing the characteristic function based CGMM, a major difficulty lies in the evaluation of the multiple integrals embedded in the objective function. Numerical quadratures are among the most accurate methods that can be used in the present context. Unfortunately, the number of quadrature points grows exponentially with d. When the data generating process is Markov or dependent, the accurate implementation of the CGMM becomes roughly unfeasible when d≥3. In Chapter 4, we propose a strategy that consists in creating univariate samples by taking a linear combination of the elements of the original vector process. The weights of the linear combinations are drawn from a normalized set of ℝ^{d}. Each univariate index generated in this way is called a frequency domain bootstrap sample that can be used to compute an estimator of the parameter of interest. Finally, all the possible estimators obtained in this fashion can be aggregated to obtain the final estimator. The optimal aggregation rule is discussed in the paper. The overall method is illustrated by a simulation study and an empirical application based on autoregressive Gamma models. This thesis makes an extensive use of the bootstrap, a technique according to which the statistical properties of an unknown distribution can be estimated from an estimate of that distribution. It is thus possible to improve our simulations and empirical results by using the state-of-the-art refinements of the bootstrap methodology.
117

Strengthening the heart of an SMT-solver : Design and implementation of efficient decision procedures / Renforcement du noyau d’un démonstrateur SMT : Conception et implantation de procédures de décisions efficaces

Iguernelala, Mohamed 10 June 2013 (has links)
Cette thèse s'intéresse à la démonstration automatique de la validité de formules mathématiques issues de la preuve de programmes. Elle se focalise tout particulièrement sur la Satisfiabilité Modulo Théories (SMT): un jeune domaine de recherche qui a connu de grands progrès durant la dernière décennie. Les démonstrateurs de cette famille ont des applications diverses dans la conception de microprocesseurs, la preuve de programmes, le model-checking, etc.Les démonstrateurs SMT offrent un bon compromis entre l'expressivité et l'efficacité. Ils reposent sur une coopération étroite d'un solveur SAT avec une combinaison de procédures de décision pour des théories spécifiques comme la théorie de l'égalité libre avec des symboles non interprétés, l'arithmétique linéaire sur les entiers et les rationnels, et la théorie des tableaux.L'objectif de cette thèse est d'améliorer l'efficacité et l'expressivité du démonstrateur SMT Alt-Ergo. Pour cela, nous proposons une nouvelle procédure de décision pour la théorie de l'arithmétique linéaire sur les entiers. Cette procédure est inspirée par la méthode de Fourier-Motzkin, mais elle utilise un simplexe sur les rationnels pour effectuer les calculs en pratique. Nous proposons également un nouveau mécanisme de combinaison, capable de raisonner dans l'union de la théorie de l'égalité libre, la théorie AC des symboles associatifs et commutatifs et une théorie arbitraire deShostak. Ce mécanisme est une extension modulaire et non intrusive de la procédure de completion close modulo AC avec la théorie de Shostak. Aussi, nous avons étendu Alt-Ergo avec des procédures de décision existantes pour y intégrer d'autres théories intéressantes comme la théorie de types de données énumérés et la théorie des tableaux. Enfin, nous avons exploré des techniques de simplification de formules en amont et l'amélioration de son solveur SAT. / This thesis tackles the problem of automatically proving the validity of mathematical formulas generated by program verification tools. In particular, it focuses on Satisfiability Modulo Theories (SMT): a young research topic that has seen great advances during the last decade. The solvers of this family have various applications in hardware design, program verification, model checking, etc.SMT solvers offer a good compromise between expressiveness and efficiency. They rely on a tight cooperation between a SAT solver and a combination of decision procedures for specific theories, such as the free theory of equality with uninterpreted symbols, linear arithmetic over integers and rationals, or the theory of arrays.This thesis aims at improving the efficiency and the expressiveness of the Alt-Ergo SMT solver. For that, we designed a new decision procedure for the theory of linear integer arithmetic. This procedure is inspired by Fourier-Motzkin's method, but it uses a rational simplex to perform computations in practice. We have also designed a new combination framework, capable of reasoning in the union of the free theory of equality, the AC theory of associative and commutativesymbols, and an arbitrary signature-disjoint Shostak theory. This framework is a modular and non-intrusive extension of the ground AC completion procedure with the given Shostak theory. In addition, we have extended Alt-Ergo with existing decision procedures to integrate additional interesting theories, such as the theory of enumerated data types and the theory of arrays. Finally, we have explored preprocessing techniques for formulas simplification as well as the enhancement of Alt-Ergo's SAT solver.
118

Implication des inhibiteurs de PARP dans le cancer de l’ovaire

Fleury, Hubert 05 1900 (has links)
No description available.
119

Fonctions de croyance : décompositions canoniques et règles de combinaison.

Pichon, Frédéric 24 March 2009 (has links) (PDF)
Comparé à la théorie des possibilités, le Modèle des Croyances Transférables (MCT) - une interprétation non probabiliste de la théorie de Dempster-Shafer - dispose d'assez peu de choix en terme d'opérateurs d'agrégation pour la fusion d'informations. Dans cette thèse, ce problème de manque de flexibilité pour la combinaison des fonctions de croyance - l'outil mathématique permettant la représentation de l'information dans le MCT - est abordé. Notre première contribution est la mise à jour de familles infinies de règles de combinaison conjonctives et disjonctives, rejoignant ainsi la situation en théorie des possibilités en ce qui concerne les opérateurs de fusion conjonctive et disjonctive. Notre deuxième contribution est un ensemble de résultats rendant intéressante, d'un point de vue applicatif, une famille infinie de règles de combinaison, appelée les alpha-jonctions et introduite initialement de manière purement formelle. Tout d'abord, nous montrons que ces règles correspondent à une connaissance particulière quant à la véracité des sources d'information. Ensuite, nous donnons plusieurs nouveaux moyens simples de calculer la combinaison par une alpha-jonction.
120

L'araire ou la barque. Migrations, mondialisation et transformations agraires en haute vallée du Cañar (Andes australes de l'Équateur)

Michel, Vaillant 04 December 2013 (has links) (PDF)
Au seuil du XXIe siècle, l'Équateur fut frappé par une série d'évènements de diverses natures dont les effets cumulés le plongèrent dans la période économique la plus sombre de son histoire républicaine. Corollaire : entre 1998 et 2000, trois cent mille Équatoriens quittèrent officiellement le pays. Ce " séisme " migratoire concerna même des lieux dont on aurait pu penser qu'ils en seraient pourtant restés à l'écart. Tel fut le cas de la haute vallée du Cañar, marge rurale andine où l'émigration, de par sa promptitude et son ampleur, avait alors tout du signe avant-coureur de l'exode et du retour du milieu à la nature. Mais quels sont les processus socio-historiques qui ont abouti à un si vaste mouvement migratoire ? Quelles sont les raisons qui ont incité des centaines de paysans à émigrer ? Quels sont, au bout du compte, les effets d'un tel évènement sur l'agriculture, la société et le milieu ? Telles sont les questions qui sont abordées, de façon systémique, dans la présente recherche. Nous soutenons la thèse qu'en dépit des profondes transformations observées depuis un demi-siècle dans cette région de haute montagne, pauvre et à vocation éminemment agricole, rien n'a fondamentalement changé dans les modalités concrètes de développement : le " séisme " migratoire résulte de, et nourrit en même temps, une crise profonde de l'agriculture paysanne, crise qui plonge ses racines dans les structures sociales instaurées dès les premiers temps de la colonisation espagnole. Aussi, penser le développement agricole de cette région, dans sa dialectique avec le fait migratoire, implique de traiter son avenir, certes dans sa propre histoire, mais également dans celle, qui lui est intrinsèquement liée, de la mondialisation.

Page generated in 0.095 seconds