• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 18
  • Tagged with
  • 188
  • 188
  • 188
  • 59
  • 42
  • 32
  • 29
  • 24
  • 23
  • 22
  • 22
  • 20
  • 20
  • 19
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Méthode d'analyse de liaison génétique pour des familles dans lesquelles il y a de l'hétérogénéité non-allélique intra-familiale

Savard, Nathalie 11 April 2018 (has links)
Dans cet ouvrage, une méthode d'analyse de liaison génétique qui tient compte de l'hétérogénéité non-allélique est développée. Nous proposons une modification à l'analyse à un locus par le modèle de Smith qui tient compte de l'hétérogénéité inter-familiale afin de s'adapter à la présence d'hétérogénéité intra-familiale. Notre approche consiste d'abord à décomposer des familles tri-générationnelles en branches individuelles, soit en familles bi-générationnelles. Par cette décomposition, l'hétérogénéité intra-familiale est "transformée" en hétérogénéité inter-familiale. Les familles bi-générationnelles sont ensuite analysées à l'aide d'un locus et du modèle de Smith. La puissance de la méthode proposée est comparée à celle de plusieurs autres analyses, notamment à celle de l'analyse des familles tri-générationnelles lorsqu'il y a hétérogénéité intra-familiale. On vérifie également si le découpage des familles fait gonfler la proportion d'erreurs de type I. / This study presents a linkage analysis method for cases of recombination heterogeneity when it is located in bilineal pedigrees. We propose a modification of the single-locus analysis by Smith's admixture model - which is concerned with inter-familial heterogeneity - so it becomes more appropriate for cases of intra-familial heterogeneity. Our approach first consists in decomposing large pedigrees into nuclear pedigrees so that the intra-familial heterogeneity of the large pedigrees is transformed into inter-familial heterogeneity between the nuclear pedigrees. Then, the nuclear pedigrees are considered both with a single-locus analysis and Smith's admixture model. The power of the proposed method is compared to the power of other methods, including the power of the specific case where there is intra-familialheterogeneity in large pedigrees. We also verify if the decomposition of the pedigrees results in a bigger proportion of type I errors.
102

Équations aux dérivées partielles et systèmes dynamiques appliqués à des problèmes issus de la physique et de la biologie

Breden, Maxime 24 April 2018 (has links)
Cette thèse s’inscrit dans le vaste domaine des équations aux dérivées partielles et des systèmes dynamiques, et s’articule autour de deux sujets distincts. Le premier est relié à l’étude des équations de coagulation-fragmentation discrètes avec diffusion. En utilisant des lemmes de dualité, on établit de nouvelles estimations Lp pour des moments polynomiaux associés aux solutions, sous une hypothèse de convergence des coefficients de diffusion. Ces estimations sur les moments permettent ensuite d’obtenir de nouveaux résultats de régularité, et de démontrer qu’une fragmentation suffisamment forte peut empêcher la gelation dans le modèle incluant la diffusion. Le second sujet est celui des preuves assistées par ordinateur dans le domaine des systèmes dynamiques. On améliore et on applique une méthode basée sur le théorème du point fixe de Banach, permettant de valider a posteriori des solutions numériques. Plus précisément, on élargit le cadre d’application de cette méthode pour inclure des opérateurs avec un terme dominant linéaire tridiagonal, on perfectionne une technique permettant de calculer et de valider des variétés invariantes, et on introduit une nouvelle technique qui améliore de manière significative l’utilisation de l’interpolation polynomiale dans le cadre de ces méthodes de preuves assistées par ordinateur. Ensuite, on applique ces techniques pour démontrer l’existence d’ondes progressives pour l’équation du pont suspendu, et pour étudier les états stationnaires non homogènes d’un système de diffusion croisée. / This thesis falls within the broad framework of partial differential equations and dynamical systems, and focuses more specifically on two independent topics. The first one is the study of the discrete coagulation-fragmentation equations with diffusion. Using duality lemma we establish new Lp estimates for polynomial moments of the solutions, under an assumption of convergence of the diffusion coefficients. These moment estimates are then used to obtain new results of smoothness and to prove that strong enough fragmentation can prevent gelation even in the diffusive case. The second topic is the one of computer-assisted proofs for dynamical systems. We improve and apply a method enabling to a posteriori validate numerical solutions, which is based on Banach’s fixed point theorem. More precisely, we extend the range of applicability of the method to include operators with a dominant linear tridiagonal part, we improve an existing technique allowing to compute and validate invariant manifolds, and we introduce an new technique that significantly improves the usage of polynomial interpolation for a posteriori validation methods. Then, we apply those techniques to prove the existence of traveling waves for the suspended bridge equation, and to study inhomogeneous steady states of a cross-diffusion system.
103

Amenabilité

Farhat, Yasser 13 April 2018 (has links)
Dans ce mémoire, on étudie l'amenabilite et les notions analogues introduites plus récemment. On consacre le chapitre deux à rappeler des définitions et à donner des exemples. Dans le chapitre trois, on étudie l'article [1]. On montre que le produit interne dans une algèbre A admet deux prolongement sur A**. On étudie ces deux prolongements et on donne des conditions nécessaires et suffisantes pour que le prolongement sur A** soit unique. Le chapitre quatre porte essentiellement sur l'amenabilite des algèbres de Banach. On étudie la relation entre une algèbre amenable et l'existence d'une unité approchée, ainsi que le lien entre A et A** du point de vue de l'amenabilite. Dans cette partie, on se base sur [2] et [4]. Dans le chapitre cinq, on étudie l'amenabilite approximative, qui est une notion plus faible que l'amenabilite. On fait ressortir les analogues avec les résultats du chapitre quatre. Ce chapitre porte essentiellement sur les articles [7] et [9].
104

Résolution du contact frottant déformable-déformable par lagrangien augmenté et GCR préconditionné

Lacasse, Patrick 20 April 2018 (has links)
Ce document traite le problème de l’élasticité en grandes déformations avec contact frottant. Dans le premier chapitre, nous présentons un rappel des lois auxquelles nous ferons référence : lois de comportement matériau, conditions aux limites, contact et frottement selon la loi de Coulomb. Le coeur de la thèse commence par la discrétisation des conditions de bord. L’imposition en moyenne de la non-pénétration et de la loi de Coulomb est explicitée dans le but de se ramener en dimension finie. C’est dans ce domaine que les algorithmes sont développés. Les conditions d’optimalité sont donc calculées pour le problème déjà discrétisé et sont linéarisées par la suite selon le paradigme des contraintes actives. Suivant cette stratégie, l’état de contact est fixé à chaque itération de la méthode de Newton, transformant les conditions de contact en contraintes d’égalité. Le système de conditions d’optimalité ainsi obtenu peut alors être linéarisé. La résolution de ce nouveau système linéaire constitue l’autre partie importante de cette thèse. Les méthodes de pénalisation et d’Uzawa sont d’abord exposées ; elles serviront de point de comparaison. Nous construisons par la suite un algorithme basé sur un GCR préconditionné par une factorisation faisant apparaître un complément de Schur. Le tout est présenté d’abord dans le cas plus simple du contact sans frottement, puis en ajoutant le frottement. Des résultats numériques, parfois académiques (des cubes) et parfois industriels (des lamelles de pneus), viennent finalement appuyer les convictions que non seulement ces méthodes sont rapides, mais qu’elles sont aussi robustes. / This thesis addresses the problem of large deformation elasticity with frictional contact. In the first chapter, we recall the laws to which we refer: material behavior laws, boundary conditions, contact and friction according to Coulomb’s law. The heart of the thesis begins with the discretization of boundary conditions. Mortar formulations for non-penetration and Coulomb’s law are explained in order to set the problem in a finite dimensional space. Optimality conditions are calculated for the discretized problem and are subsequently linearized according to the paradigm of active set strategy. Under this approach, the contact state is set at each iteration of Newton’s method, transforming the contact conditions in equality constraints. The system of optimality conditions thus obtained can then be linearized. The resolution of this new linear system is another important part of this thesis. Methods of penalization and Uzawa are first exposed; they serve as a comparison point. Thereafter, we introduce a preconditioned GCR algorithm based on a factorization using a Schur complement. The whole problem is presented first in the simplest case of contact without friction, and, in the last chapter, with friction. Numerical results, sometimes academic (cubes) and sometimes industrial (slides tires) finally support the belief that not only these methods are efficient, but they are also robust.
105

Sur l'approximation de fonctions additives par des fonctions multiplicatives

Laniel, François 23 November 2018 (has links)
Pour une fonction additive f et une fonction multiplicative g , soit E ( f, g ; x ) := # { n ≤ x : f ( n ) = g ( n ) } . Dans cette thèse, nous améliorons le résultat de De Koninck, Doyon et Letendre relatif à l’ordre de grandeur de E ( ω, g ; x ) et E (Ω , g ; x ) . Nous obtenons aussi des résultats généralisant l’inégalité d’Hardy-Ramanujan et le théorème de Landau. De plus, nous appliquons la méthode de Selberg-Delange de façon à obtenir une formule relative à la fréquence des fonctions ω ( n ) et Ω( n ) en progression arithmétique. Finalement, nous trouvons une condition suffisante pour qu’une fonction arithmétique quel- conque possède une fonction de répartition et obtenons une version quantitative du théorème d’Erdős-Wintner. / For an additive function f and a multiplicative function g , let E ( f, g ; x ) := # { n ≤ x : f ( n ) = g ( n ) } . In this thesis, we improve the result of De Koninck, Doyon and Letendre regarding the order of magnitude of E ( ω, g ; x ) and E (Ω , g ; x ) . We also obtain results which generalise the Hardy-Ramanujan inequalities and the Landau theorem. Moreover, we use the Selberg-Delange method in order to obtain a formula on the frequency of the fonctions ω ( n ) and Ω( n ) in arithmetic progression. Finaly, we find a sufficient condition for an arithmetical function to possess a distribution function and obtain a quantitative version of the Erdős-Wintner theorem.
106

Évaluation et allocation du risque dans le cadre de modèles avancés en actuariat

Moutanabbir, Khouzeima 19 April 2018 (has links)
Dans cette thèse, on s’intéresse à l’évaluation et l’allocation du risque dans le cadre de modèles avancés en actuariat. Dans le premier chapitre, on présente le contexte général de la thèse et on introduit les différents outils et modèles utilisés dans les autres chapitres. Dans le deuxième chapitre, on s’intéresse à un portefeuille d’assurance dont les composantes sont dépendantes. Ces composantes sont distribuées selon une loi mélange d’Erlang multivariée définie à l’aide de la copule Farlie-Gumbel-Morgenstern (FGM). On évalue le risque global de ce portefeuille ainsi que l’allocation du capital. En utilisant certaines propriétés de la copule FGM et la famille de distributions mélange d’Erlang, on obtient des formules explicites de la covariance entre les risques et de la Tail-Value-at-Risk du risque global. On détermine aussi la contribution de chacun des risques au risque global à l’aide de la régle d’allocation de capital basée sur la Tail-Value-at-Risk et celle basée sur la covariance. Dans le troisième chapitre, on évalue le risque pour un portefeuille sur plusieurs périodes en utilisant le modèle de Sparre Andersen. Pour cette fin, on étudie la distribution de la somme escomptée des ladder heights sur un horizon de temps fini ou infini. En particulier, on trouve une expression ferme des moments de cette distribution dans le cas du modèle classique Poisson-composé et le modèle de Sparre Andersen avec des montants de sinistres distribués selon une loi exponentielle. L’élaboration d’une expression exacte de ces moments nous permet d’approximer la distribution de la somme escomptée des ladder heights par une distribution mélange d’Erlang. Pour établir cette approximation, nous utilisons une méthode basée sur les moments. À l’aide de cette approximation, on calcule les mesures de risque VaR et TVaR associées à la somme escomptée des ladder heights. Dans le quatrième chapitre de cette thèse, on étudie la quantification des risques liés aux investissements. On élabore un modèle d’investissement qui est constitué de quatre modules dans le cas de deux économies : l’économie canadienne et l’économie américaine. On applique ce modèle dans le cadre de la quantification et l’allocation des risques. Pour cette fin, on génère des scénarios en utilisant notre modèle d’investissement puis on détermine une allocation du risque à l’aide de la règle d’allocation TVaR. Cette technique est très flexible ce qui nous permet de donner une quantification à la fois du risque d’investissement, risque d’inflation et le risque du taux de change. / In this thesis, we are interested in risk evaluation and risk allocation blems using advanced actuarial models. First, we investigate risk aggregation and capital allocation problems for a portfolio of possibly dependent risks whose multivariate distribution is defined with the Farlie-Gumbel-Morgenstern copula and with mixed Erlang distributions for the marginals. In such a context, we first show that the aggregate claim amount has a mixed Erlang distribution. Based on a top-down approach, closed-form expressions for the contribution of each risk are derived using the TVaR and covariance rules. These findings are illustrated with numerical examples. Then, we propose to investigate the distribution of the discounted sum of ascending ladder heights over finite- or infinite-time intervals within the Sparre Andersen risk model. In particular, the moments of the discounted sum of ascending ladder heights over a finite- and an infinite-time intervals are derived in both the classical compound Poisson risk model and the Sparre Andersen risk model with exponential claims. The application of a particular Gerber-Shiu functional is central to the derivation of these results, as is the mixed Erlang distributional assumption. Finally, we define VaR and TVaR risk measures in terms of the discounted sum of ascending ladder heights. We use a moment-matching method to approximate the distribution of the discounted sum of ascending ladder heights allowing the computation of the VaR and TVaR risk measures. In the last chapter, we present a stochastic investment model (SIM) for international investors. We assume that investors are allowed to hold assets in two different economies. This SIM includes four components: interest rates, stocks, inflation and exchange rate models. First, we give a full description of the model and we detail the parameter estimation. The model is estimated using a state-space formulation and an extended Kalman filter. Based on scenarios generated from this SIM, we study the risk allocation to different background risks: asset, inflation and exchange rate risks. The risk allocation is based on the TVaR-based rule.
107

La stabilité de l'espace des suites de carré sommable par rapport au produit de convolution

Morneau-Guérin, Frédéric 28 October 2019 (has links)
Étant donné G un groupe topologique localement compact, il est bien connu que l’espace L1(G) des fonctions absolument intégrables sur G est stable par rapport au produit de convolution et jouit même d’une structure d’algèbre de Banach. Mais il en va tout autrement pour les espaces Lp(G) avec p > 1 : le théorème de Saeki stipule que l’espace Lp(G) est stable par rapport au produit de convolution si et seulement si G est compact. Il existe cependant une façon d’infléchir le résultat dans un sens qui nous agrée : en modifiant la définition des normes k kp afin d’y introduire une pondération, à savoir une fonction w : G ! (0; 1), on peut parfois faire en sorte que l’espace ainsi obtenu – qu’on appelle l’espace w-pondéré des fonctions Lp(G) et qu’on note Lp(G; w) – soit stable par rapport au produit de convolution. Cette démarche soulève toutefois deux questions importantes : — Pour p > 1 fixé, quels sont les groupes topologiques localement compacts admettant au moins une pondération pour laquelle Lp(G; w) est stable par rapport au produit de convolution ? — Étant donné un tel groupe G, qu’est-ce qui caractérise les pondérations w : G ! (0; 1) pour lesquelles Lp(G; w) est stable par rapport au produit de convolution ? Bien qu’on ne dispose pas à ce jour de réponses complètes et définitives à ces deux questions, nous passerons en revue quelques récents progrès, sans prétendre à l’exhaustivité. Notre attention se focalisera principalement sur un problème émanant de la deuxième question : il est établi que toute pondération jouissant de la propriété nommée sous-convolutivité au sens faible donne lieu à un espace Lp(G; w) qui est stable par rapport au produit de convolution. Mais on connait désormais de nombreux exemples montrant que cette condition suffisante n’est pas nécessaire en général. Il existe cependant un type de groupes pour lequel la possibilité demeure que la sous-convolutivité au sens faible représente effectivement une caractérisation complète. Il s’agit des groupes abéliens discrets. La présente thèse de doctorat vise à élaborer de nouvelles approches pour aborder la question quant à savoir si, oui ou non, la sous-convolutivité au sens faible est une condition nécessaire et suffisante pour garantir la stabilité de Lp(G; w) par rapport au produit de convolution dans le cas particulier où G est un groupe abélien discret et p = 2. Dans la première partie de cette thèse, nous interprétons cette question à la lumière de la théorie des espaces de Hilbert à noyau reproduisant et obtiendrons une preuve substantiellement différente d’un résultat de Kuznetsova. La seconde partie de la thèse est consacrée à la reformulation de la question principale dans le cadre de la théorie des opérateurs. Ce faisant, nous formulons encore une autre démonstration significativement différente du théorème de Kuznetsova. L’approche développée nous permet également l’obtention d’estimations originales et celles-ci sont présentées en détail. / 354402\u Given a locally compact topological group G, it is widely known that L1(G), the space of absolutely integrable functions on G, is an algebra with respect to the operation of convolution. For any given Lp(G) space with p > 1, though, the situation is emphatically different: a theorem of Saeki states that Lp(G) is a convolution algebra if and only if G is compact. If we introduce within the definition of the Lp-norm a weight function w : G ! (0; 1), we obtain a new function space called the w-weighted Lp-space and denoted by Lp(G; w). By defining the weight function carefully, Lp(G; w) can be made to be stable with respect to convolution even though G is non-compact. However, this raises two fundamental questions: — Given p > 1, what are the locally compact topological groups G on which there exists a weight w such that Lp(G; w) is stable with respect to convolution? — Given such a group G, what condition(s) does w : G ! (0; 1) need to verify in order for Lp(G; w) to be stable with respect to convolution? Thus far, these questions remain unsolved. We shall discuss in detail some partial answers available in the literature, whilst not claiming to be exhaustive. We will be focusing mainly on a problem arising from the second question: it has been established that any weakly subconvolutive weight causes Lp(G; w) to be stable with respect to convolution. But there are numerous examples showing that this sufficient condition is not necessary. There is, however, a type of group, viz. the discrete abelian groups, for which there remains a possibility that weak sub-convolutivity truly characterizes those weights entailing the stability of the Lp-space of functions with respect to convolution. In this thesis, we aim to elaborate new approaches to determine whether the weak subconvolutivity is a necessary and sufficient condition guaranteeing the stability of Lp(G; w) with respect to convolution in the particular case of discrete abelian groups and for p = 2. In the first part of this thesis, we reinterpret this question in light of the theory of reproducing kernel Hilbert spaces, and we obtain a substantially different proof of a theorem of Kuznetsova. The second part of the thesis is devoted to revisiting the main question, but this time, we rephrase it in the context of the operator theory. In doing so, we derive yet another proof of Kuznetsova’s theorem as well as an original estimate.
108

Sur la convergence des séries de Fourier : théorème de Carleson

Mache, Mostafa 16 April 2018 (has links)
La convergence d 'une série de Fourier est toujours un thème d'actualité. Notre sujet d 'étude porte sur la convergence presque partout de la série de Fourier d 'une fonction· de carré sommable, démontrée par L. Carleson en 1966 en utilisant une décomposition de cette fonction. C. Feffermann, en 1973, utilise la décomposition de l'opérateur de Carleson. Puis, dans la deuxième moitié des années 1990, C. Thiele et M. T . Lacey reprennent cette décomposit ion en s 'appuyant sur la st ructure du plan t emps-fréquence. C'est dans cette optique qu'on va discuter de ce sujet , en tirant profit de la géométrie du plan temps-fréquence et de l'analyse des paquets d 'ondes.
109

Les mesures de Jensen extrémales

Roy, Sylvain 12 April 2018 (has links)
Soit fi un sous-ensemble ouvert de Rd (d > 2) et soit x E fi. Une mesure de Jensen pour x par rapport à fi est une mesure borélienne de probabilité /i, supportée par un sous-ensemble compact de fi, telle que J ud/i < u(x) pour chaque fonction surharmonique u définie sur fi. Notons par Jx(fi) la famille des mesures de Jensen pour x par rapport à fi et par Jx(fi) l'ensemble des éléments extrémaux de Jx(tt). Le principal problème relié aux mesures de Jensen n'est pas de les exhiber comme il est parfois le cas avec certains objets mathématiques. Il est plutôt question de les contrôler, c'est-à-dire de les exprimer en termes d'objets mieux connus. C'est ce dont il est question dans cette thèse. Dans les Chapitres 1 à 3, on introduit les différents concepts que le lecteur devrait connaître pour bien comprendre la suite. On y aborde les principaux résultats de la théorie du potentiel classique, les mesures de Jensen ainsi que la théorie fine du potentiel et les mesures finement harmoniques construites à partir de la topologie fine relative à l'ensemble de fonctions surharmoniques. Le résultat principal de cette thèse est la caractérisation complète de ext(Jr(fi)) en termes de mesures finement harmoniques et aussi en termes de limites de mesures harmoniques définies sur des suites décroissantes de domaines. Ceci représente le contenu des Théorèmes 0.1 et 0.2 démontrés aux Chapitres 4 à 8. Au Chapitre 9, on présente un résultat sur la majoration des mesures de Jensen par les mesures harmoniques. Par le fait même, on affaiblit l'hypothèse sur la borne inférieure locale dans un résultat de B. Cole et T. Ransford (le résultat principal de Jensen measures and harmonie measures, J. Reine Angew. Math. 541 (2001), 29-53). Au chapitre 10, on présente une application à l'analyse complexe dans laquelle on améliore un résultat de Khabibullin sur la question de savoir, étant donné une suite (an) de nombres complexes et une fonction continue M : C -> R+ , s'il existe une fonction entière / ^ 0 qui s'annule en chaque an et dont le module est inférieur à M. Finalement, au chapitre 10, il est question d'une troisième caractérisation des mesures de Jensen extrémales en termes d'approximation par les fonctions (J-surharmoniques.
110

Comparing inverse probability of treatment weighting methods and optimal nonbipartite matching for estimating the causal effect of a multicategorical treatment

Diop, Serigne Arona 18 April 2019 (has links)
Des débalancements des covariables entre les groupes de traitement sont souvent présents dans les études observationnelles et peuvent biaiser les comparaisons entre les traitements. Ce biais peut notamment être corrigé grâce à des méthodes de pondération ou d’appariement. Ces méthodes de correction ont rarement été comparées dans un contexte de traitement à plusieurs catégories (>2). Nous avons mené une étude de simulation pour comparer une méthode d’appariement optimal non-biparti, la pondération par probabilité inverse de traitement ainsi qu’une pondération modifiée analogue à l’appariement (matching weights). Ces comparaisons ont été effectuées dans le cadre de simulation de type Monte Carlo à travers laquelle une variable d’exposition à 3 groupes a été utilisée. Une étude de simulation utilisant des données réelles (plasmode) a été conduite et dans laquelle la variable de traitement avait 5 catégories. Parmi toutes les méthodes comparées, celle du matching weights apparaît comme étant la plus robuste selon le critère de l’erreur quadratique moyenne. Il en ressort, aussi, que les résultats de la pondération par probabilité inverse de traitement peuvent parfois être améliorés par la troncation. De plus, la performance de la pondération dépend du niveau de chevauchement entre les différents groupes de traitement. La performance de l’appariement optimal nonbiparti est, quant à elle, fortement tributaire de la distance maximale pour qu’une paire soit formée (caliper). Toutefois, le choix du caliper optimal n’est pas facile et demeure une question ouverte. De surcroît, les résultats obtenus avec la simulation plasmode étaient positifs, dans la mesure où une réduction importante du biais a été observée. Toutes les méthodes ont pu réduire significativement le biais de confusion. Avant d’utiliser la pondération de probabilité inverse de traitement, il est recommandé de vérifier la violation de l’hypothèse de positivité ou l’existence de zones de chevauchement entre les différents groupes de traitement

Page generated in 0.0266 seconds