• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 18
  • Tagged with
  • 188
  • 188
  • 188
  • 59
  • 42
  • 32
  • 29
  • 23
  • 23
  • 22
  • 22
  • 20
  • 20
  • 19
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modèles de copules Archimédiennes pour données de Bernoulli corrélées

Tounkara, Fode 23 April 2018 (has links)
Cette thèse introduit et explore une nouvelle classe de modèles probabilistes pour des données de Bernoulli échangeables en forme de grappe. Dans ces modèles, la probabilité conditionnelle de succès est une fonction de la probabilité marginale de succès et d’un effet aléatoire positif spécifique à chaque grappe. La distribution de l’effet aléatoire contient un paramètre d’association qui est estimé pour donner une mesure de la force de la dépendance résiduelle ignorée par les marges. Nous montrons que la transformée de Laplace de l’effet aléatoire est liée au générateur des modèles de copules Archimédiennes, ce qui nous permet d’avoir un nouvel aperçu de ces modèles. L’approche que nous proposons offre de nombreux avantages. En effet, la famille de copules Archimédiennes fournit une large classe de modèles pour la sur-dispersion dans une expérience de Bernoulli. D’un point de vue statistique, la fonction de vraisemblance marginale pour les données de l’échantillon a une expression explicite, les méthodes du maximum de vraisemblance sont alors faciles à mettre en oeuvre. Nous avons considéré quatre applications de nos modèles. Premièrement, nous construisons un intervalle de confiance par vraisemblance profilée pour le coefficient de corrélation intra-grappe (ICC). La deuxième application concerne l’estimation de la taille d’une population en présence d’hétérogénéité observée et non observée (résiduelle) dans une expérience de capture-recapture. Le troisième problème traite de l’estimation dans de petites régions, et enfin le quatrième indépendant des trois premiers, analyse les caractéristiques socio-économiques des hommes qui ont une préférence à épouser des jeunes filles de moins de 18 ans. Dans la première application, nous considérons le cas le plus simple de nos modèles où aucune covariable n’est disponible puis proposons la méthode du maximum de vraisemblance pour l’estimation du coefficient de corrélation intra-grappe (ICC) à l’aide de plusieurs spécifications de copules Archimédiennes. La sélection d’un modèle particulier est effectuée en utilisant le critère d’information d’Akaike (AIC). La procédure comprend l’estimation du maximum de vraisemblance et la méthode du profil de vraisemblance (ou vraisemblance profilée). Nous avons fait des études de simulation pour mesurer la performance de la méthode d’intervalle par vraisemblance profilée sous nos modèles en termes de taux de couverture et de longueur d’intervalle de confiance, et la sensibilité de notre approche à la spécification d’un modèle de copule. La procédure que nous proposons a aussi été appliquée à des données réelles. Nous comparons notre méthode à celle proposée sous le modèle Béta-binomial, et la méthode d’intervalle de type Wald modifié proposée par Zou and Donner (2004). L’une des conclusions importantes de ces études est que l’intervalle de confiance par vraisemblance profilée obtenu sous nos modèles présente de belles propriétés en termes de taux couverture et de longueur d’intervalle de confiance, même lorsque le nombre de grappes est petit. La sélection de modèle est une étape importante : si le modèle est mal spécifié, alors cela pourrait conduire à des résultats erronés. La seconde application, une extension de la première pour accommoder des covariables au niveau des grappes, concerne la modélisation de l’hétérogéneité dans les probabilités de capture lors d’une expérience de capture-recapture dans une population fermée. Dans ce contexte, nos modèles sont utilisés pour modéliser l’hétérogéneité résiduelle qui n’est pas prise en compte par les covariables mesurées sur des unités capturées. Plusieurs modèles sont disponibles pour l’hétérogénéité non observée et la probabilité de capture marginale est modélisée en utilisant les fonctions de liens Logit et Log-Log complémentaire. Les paramètres sont estimés en utilisant la vraisemblance conditionnelle construite à partir des observations collectées sur les unités capturées au moins une fois. Ceci généralise le modèle de Huggins (1991) qui ne tient pas compte de l’hétérogénéité résiduelle. La sensibilité de l’inférence à la spécification d’un modèle est également étudiée par des simulations. Un exemple numérique est présenté. La troisième application traite de la prédiction dans de petites régions. Nous proposons des techniques de Bayes basées sur nos modèles pour estimer des proportions régionales. L’inférence Bayésienne que nous proposons consiste à trouver la distribution a posteriori de l’effet aléatoire et sa transformée de Laplace sachant les données et les paramètres du modèle. Cette transformée de Laplace est ensuite utilisée pour trouver des estimateurs de Bayes et leurs variances a posteriori pour les vraies proportions. Nous développons une étude de comparaison entre le meilleur prédicteur de Bayes (BP) et le meilleur prédicteur linéaire sans biais (BLUP). Nous avons également étudié l’efficacité du BP obtenu sous nos modèles relativement au BLUP. Les paramètres du modèle sont estimés en utilisant la méthode du maximum de vraisemblance. L’avantage de notre approche est que la fonction de vraisemblance et l’expression du meilleur prédicteur (BP) ont une forme explicite, ce qui facilite la mise en oeuvre de leur évaluation sur le plan numérique. Nous obtenons un prédicteur empirique de Bayes (EBP) en remplaçant les paramètres par leurs estimateurs dans l’expression du BP. Nous utilisons le critère d’information d’Akaike (AIC) pour la selection d’un modèle. Nous utilisons la méthode du jackknife pour estimer l’erreur quadratique moyenne des prédicteurs empiriques. Des résultats empiriques obtenus à partir de données simulées et réelles sont également présentés. Enfin, le quatrième problème traité dans cette thèse, qui est indépendant des trois premiers, concerne l’analyse des caractéristiques socio-économiques des hommes qui ont une préférence à épouser des jeunes filles de moins de 18 ans. Dans ce contexte, nous considérons les données de l’EDS 2006 du Niger et utilisons les copules Archimédiennes bidimentionelles pour modéliser l’association entre le niveau d’éducation (variable discrète) des hommes et leur revenu pré-marital (variable continue). Nous construisons la vraisemblance pour un échantillon issu de ce couple de variables aléatoires mixtes, et déduisons une estimation du paramètre de dépendance en utilisant une procédure semi-paramétrique où les marges sont estimées par leurs équivalents empiriques. Nous utilisons la méthode du jackknife pour estimer l’erreur type. Nous utilisons la méthode de Wald pour tester l’égalité entre l’association des caractéristiques socio-économiques des hommes qui épousent des jeunes filles mineures et celle des hommes qui se marient avec des femmes âgées. Les résultats du test contribuent à la validité de notre théorie selon laquelle les hommes qui épousent des jeunes filles de moins de 18 ans ont un niveau d’éducation et un revenu pré-marital faibles, lorsqu’on les compare aux hommes qui ne le font pas. / This thesis introduces and explores a new class of probability models for exchangeable clustered binary data. In these models, the conditional probability of success is characterized by a function of the marginal probability of success and a positive cluster-specific random effect. The marginal probabilities are modeled using the logit and complementary log-log link functions. The distribution of the random effect contains an association parameter that is estimated to give a measure of the strength of the within-cluster residual dependence that is not accounted for by the margins. We show that the random effect distributions can be related to exchangeable Archimedean copula models, thus giving new insights on such models. The copula approach offers many advantages. Indeed, the family of Archimedean copulas provides a large class of models for over-dispersion in a Bernoulli experiment. From a statistical perspective, the marginal likelihood function for the sample data has an explicit expression, the maximum likelihood methods are then easy to implement and computationally straightforward. Based on the proposed models, four applications are considered. First, we investigate the construction of profile likelihood confidence interval (PLCI) for the intra-cluster correlation coefficient (ICC). The second application is concerned with an heterogeneity in capture probabilities in a mark-recapture study for estimating the size of a closed population. The third contribution deals with the estimation in small areas, the fourth and final, independent of the other three, analyzes the socioeconomic characteristics of men who prefer to marry girls under 18 years old. In the first application, we consider a simple case, without covariates and construct maximum likelihood inference procedures for the intra-cluster correlation using several specifications of Archimedean copulas. The selection of a particular model is carried out using the Akaike information criterion (AIC). Profile likelihood confidence intervals for the ICC are constructed and their performance are assessed in a simulation experiment. The sensitivity of the inference to the specification of the copula family is also investigated through simulations. Numerical examples are presented. We compare our approach with that proposed under the Beta-binomial model and with the modified Wald interval method proposed by Zou and Donner (2004). One of the important findings of these studies is that the profile confidence interval obtained under our models presents nice properties, even when the number of clusters is small. Model selection is an important step: if the model is poorly specified, then this could lead to erroneous results. The second application, an extension of the first one to accommodate cluster level covariates, is concerned with an heterogeneity in capture probabilities in a capture-recapture study for estimating the size of a closed population. Unit level covariates are recorded on the units that are captured and copulas are used to model the residual heterogeneity that is not accounted for by covariates. Several models for the unobserved heterogeneity are available and the marginal capture probability is expressed using the Logit and the complementary Log-Log link functions. The parameters are estimated using a conditional likelihood constructed with the data obtained on the units caught at least once. The population size is estimated using a Horvitz-Thompson estimator constructed using the estimated probabilities that a unit is caught at least once. This generalizes the model of Huggins (1991) that does not account for a residual heterogeneity. The sensitivity of the inference to the specification of a model is also investigated through simulations. A numerical example is presented. The third application uses the models of the first two in order to estimate small area proportions. We apply Bayes techniques using a new class of probability models, to estimate small area proportions. The Bayesian inference under the proposed models consists in obtaining the posterior distribution of the random effect and its Laplace transform. This posterior Laplace transform is then used to find Bayes estimates of small area proportions. We develop a comparison between the Best Predictor (BP) and the Best Linear Unbiased Predictor (BLUP). The model parameters are estimated using the maximum likelihood (ML) method. Under the proposed model, the likelihood function and the best predictor (BP) of small area proportion have closed form expressions. Model parameters are replaced by their ML estimates in the BP to obtain the empirical best predictor (EBP). We use the Akaike information criterion (AIC) for selecting a particular model. We propose the jackknife method to estimate the mean square error of the empirical Bayes predictor. Empirical results obtained from simulated and real data are also presented. The fourth and last problem addressed in this thesis, independently of the others three, investigates socioeconomic characteristics of men who prefer to marry girls under 18 years. We consider the data from the 2006 DHS Niger and use a bivariate Archimedean copula to model the association between education level (discrete) of men and their pre-marital income (continuous). We present the likelihood function for a sample from this pair of mixed random variables, and derive an estimate of the dependence parameter using a semiparametric procedure where margins are estimated by their empirical equivalents. We use the jackknife method to estimate the standard error. We use a Wald-type procedure, to perform a parametric hypothesis test of equality between the association of the socio economic characteristics of men who marry underage girls and that of men who marry older women instead. These test results contribute to the validity of our theory that men who marry girls under 18 years old have a low level of education and income pre-marital, when compared to men who did not.
72

Modèles de dépendance dans la théorie du risque

Bargès, Mathieu 16 April 2018 (has links)
Initialement, la théorie du risque supposait l’indépendance entre les différentes variables aléatoires et autres paramètres intervenant dans la modélisation actuarielle. De nos jours, cette hypothèse d’indépendance est souvent relâchée afin de tenir compte de possibles interactions entre les différents éléments des modèles. Dans cette thèse, nous proposons d’introduire des modèles de dépendance pour différents aspects de la théorie du risque. Dans un premier temps, nous suggérons l’emploi des copules comme structure de dépendance. Nous abordons tout d’abord un problème d’allocation de capital basée sur la Tail-Value-at-Risk pour lequel nous supposons un lien introduit par une copule entre les différents risques. Nous obtenons des formules explicites pour le capital à allouer à l’ensemble du portefeuille ainsi que la contribution de chacun des risques lorsque nous utilisons la copule Farlie-Gumbel-Morgenstern. Pour les autres copules, nous fournissons une méthode d’approximation. Au deuxième chapitre, nous considérons le processus aléatoire de la somme des valeurs présentes des sinistres pour lequel les variables aléatoires du montant d’un sinistre et de temps écoulé depuis le sinistre précédent sont liées par une copule Farlie-Gumbel-Morgenstern. Nous montrons comment obtenir des formes explicites pour les deux premiers moments puis le moment d’ordre m de ce processus. Le troisième chapitre suppose un autre type de dépendance causée par un environnement extérieur. Dans le contexte de l’étude de la probabilité de ruine d’une compagnie de réassurance, nous utilisons un environnement markovien pour modéliser les cycles de souscription. Nous supposons en premier lieu des temps de changement de phases de cycle déterministes puis nous les considérons ensuite influencés en retour par les montants des sinistres. Nous obtenons, à l’aide de la méthode d’erlangisation, une approximation de la probabilité de ruine en temps fini. / Initially, it was supposed in risk theory that the random variables and other parameters of actuarial models were independent. Nowadays, this hypothesis is often relaxed to take into account possible interactions. In this thesis, we propose to introduce some dependence models for different aspects of risk theory. In a first part, we use copulas as dependence structure. We first tackle a problem of capital allocation based on the Tail- Value-at-Risk where the risks are supposed to be dependent according to a copula. We obtain explicit formulas for the capital to be allocated to the overall portfolio but also for the contribution of each risk when we use a Farlie-Gumbel-Morenstern copula. For the other copulas, we give an approximation method. In the second chapter, we consider the stochastic process of the discounted aggregate claims where the random variables for the claim amount and the time since the last claim are linked by a Farlie-Gumbel- Morgenstern copula.We show how to obtain exact expressions for the first two moments and for the moment of order m of the process. The third chapter assumes another type of dependence that is caused by an external environment. In the context of the study of the ruin probability for a reinsurance company, we use a Markovian environment to model the underwriting cycles. We suppose first deterministic cycle phase changes and then that these changes can also be influenced by the claim amounts. We use the erlangization method to obtain an approximation for the finite time ruin probability.
73

Lower bounds for the Steklov eigenvalue problem

Davoudi, Salman 17 April 2019 (has links)
Le problème de Steklov est un problème spectral qui provient de la mécanique des fluides. C’est un problème de valeur propre dont les paramètres spectraux sont dans la condition au bord. Son spectre coïncide avec celui de l’opérateur de Dirichlet-Neumann. Le spectre du problème de Steklov est discret lorsque l’opérateur de trace est compact, ce qui est le cas lorsque la frontière du domaine est lipschitzienne. Dans ce mémoire, nous prouvons de deux manières différentes l’effondrement vers 0 du spectre de Steklov pour un domaine en forme d’haltère dégénérant vers deux disques. On se concentre par la suite sur les domaines dont la frontière n’est pas uniformément lipschitzienne. Nous donnons deux exemples pour montrer que l’opérateur de trace n’est pas compact pour ces domaines. De plus, nous présentons une borne inférieure pour la première valeur propre σ₁ non nulle du problème de Steklov pour les domaines ayant deux axes de symétrie. Enfin, nous présentons des bornes inférieures pour le problème des valeurs propres Steklov pour les domaines étoilés. Ces résultats sont dus à J. R. Kuttler et V. G. Sigillito. [7, 8]. / The Steklov problem is a spectral problem whose origin lies in the mechanics of fluids. It is an eigenvalue problem with spectral parameters in the boundary conditions, which has various applications. Its spectrum coincides with that of the Dirichlet-to-Neumann operator. The spectrum of the Steklov’s problem is discrete when the trace operator is compact. In this master’s thesis, we prove the collapse of the Steklov spectrum for a dumbbell domain in two manners. We will focus on non-Lipschitz domains. We give two examples to show that the trace operator is not compact for non-Lipschitz domains. Furthermore, we present a lower bound to the first non-zero eigenvalue σ₁ of the Steklov problem for domains having two axes of symmetry. Finally, we present lower bounds for the Steklov eigenvalue problem for starshaped domains. These results were due to J. R. Kuttler and V. G. Sigillito restrict domains to domains with two axes of symmetry or star-shaped domains [7, 8].
74

Un processus empirique à valeurs mesures pour un système de particules en interaction appliqué aux réseaux complexes

Sid-Ali, Ahmed 22 February 2019 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / On propose dans cette thèse une modélisation des réseaux sociaux par des processus aléatoires à valeurs mesures. Notre démarche se base sur une approche par espace latent. Cette dernière a été utilisée dans la littérature dans le but de décrire des interactions non-observées ou latentes dans la dynamique des réseaux complexes. On caractérise les individus du réseau par des mesures de Dirac représentant leurs positions dans l’espace latent. On obtient ainsi une caractérisation du réseau en temps continu par un processus de Markov à valeurs mesures écrit comme la somme des mesures de Dirac représentant les individus. On associe au réseau trois événements aléatoires simples décrivant les arrivées et les départs d’individus suivant des horloges exponentielles en associant chaque événement à une mesure aléatoire de Poisson. Cette thèse est composée essentiellement d’un premier chapitre réservé à l’état de l’art de la littérature de la modélisation des réseaux complexes suivi d’un second chapitre introductif aux processus aléatoires à valeurs mesures. Le 3-ème et 4-ème chapitres sont constitués de deux articles co-écrits avec mon directeur de thèse, Khader Khadraoui, et sont soumis pour publication dans des journaux. Le premier article, inclus dans le chapitre 3, se compose essentiellement de la description détaillée du modèle proposé ainsi que d’une procédure de Monte Carlo permettant de générer aléatoirement des réalisations du modèle, suivi d’une analyse des propriétés théoriques du processus aléatoire à valeurs mesures sous-jacent. On explicitera notamment le générateur infinitésimal du processus de Markov qui caractérise le réseau. On s’intéressera également aux propriétés de survie et d’extinction du réseau puis on proposera une analyse asymptotique dans laquelle on démontrera, en utilisant des techniques de renormalisation, la convergence faible du processus vers une mesure déterministe solution d’un système intégro-différentiel. On terminera l’article par une étude numérique démontrant par des simulations les principales propriétés obtenues avec notre modèle. Dans le second article, inclus dans le chapitre 4, on reformule notre modèle du point de vue des graphes géométriques aléatoires. Une introduction aux graphes géométriques aléatoires est d’ailleurs proposée au chapitre 1 de cette thèse. Le but de notre démarche est d’étudier les propriétés de connectivité du réseau. Ces problématiques sont largement étudiées dans la littérature des graphes géométriques aléatoires et représentent un intérêt théorique et pratique considérable. L’idée proposée est de considérer notre modèle comme un graphe géométrique aléatoire où l’espace latent représente l’espace sous-jacent et la distribution sous-jacente est celle donnée par le processus génératif du réseau. À partir de là, la question de la connectivité du graphe se pose naturellement. En particulier, on s’intéressera à la distribution des sommets isolés, i.e. d’avoir des membres sans connexion dans le réseau. Pour cela, on pose l’hypothèse supplémentaire que chaque individu dans le graphe peut être actif ou non actif suivant une loi de Bernoulli. On démontrera alors que pour certaines valeurs du seuil de connectivité, le nombre d’individus isolés suit asymptotiquement une loi de Poisson. Aussi, la question de la détection de communautés (clustering) dans leréseau est traitée en fonction du seuil de connectivité établi. Nous terminons cette thèse par une conclusion dans laquelle on discute de la pertinence des approches proposées ainsi que des perspectives que peut offrir notre démarche. En particulier, on donne des éléments permettant de généraliser notre démarche à une classe plus large de réseaux complexes.La fin du document est consacrée aux références bibliographiques utilisées tout au long de ce travail ainsi qu’à des annexes dans lesquelles le lecteur pourra trouver des rappels utiles. / This thesis concerns the stochastic modelling of complex networks. In particular, weintroduce a new social network model based on a measure-valued stochastic processes. Individuals in the network are characterized by Dirac measures representing their positions in a virtual latent space of affinities. A continuous time network characterizationis obtained by defining an atomic measure-valued Markov process as the sum of some Dirac measures. We endow the network with a basic dynamic describing the random events of arrivals and departures following Poisson point measures. This thesis is essentially consists of a first introductory chapter to the studied problems of complex networks modelling followed by a second chapter where we present an introduction to the theory of measure-valued stochastic processes. The chapters 3 and 4 are essentially composed of two articles co-written with my thesis advisor, Khader Khadraoui and submitted to journals for publication. The first article, included in chapter 3, mainly concerns the detailed description of the proposed model and a Monte Carlo procedure allowing one to generate synthetic networks. Moreover, analysis of the principal theoretical properties of the models is proposed. In particular, the infinitesimal generator of the Markov process which characterizes the network is established. We also study the survival and extinction properties of the network. Therefore, we propose an asymptotic analysis in which we demonstrate, using a renormalization technique, the weak convergence of the network process towards a deterministic measure solution of an integro-differential system. The article is completed by a numerical study. In the second article, included in chapter 4, we reformulate our model from the point of view of random geometric graphs. An introduction to random geometric graphs framework is proposed in chapter 1. The purpose of our approach is to study the connectivity properties of the network. These issues are widely studied in the literature of random geometric graphs and represent a considerable theoretical and practical interest. The proposed idea is to consider the model as a random geometric graph where the latent space represents the underlying space and the underlying distribution is given by the generative process of the network. Therefore, the question of the connectivity of the graph arises naturally. In particular, we focus on the distribution of isolated vertices, i.e. the members with no connections in the network. To this end, we make the additional hypothesis that each individual in the network can be active or not according to a Bernoulli distribution. We then show that for some values of the connectivity threshold, the number of isolated individuals follows a Poisson distribution. In addition, the question of clustering in the network is discussed and illustrated numerically. We conclude this thesis with a conclusion and perspectives chapter in which we discuss the relevance of the proposed approaches as well as the offered perspectives.The end of the thesis is devoted to the bibliographical references used throughout this work as well as appendices in which the reader can find useful reminders.
75

Méthodes d'interpolation dans la résolution semi-lagrangienne par éléments finis, des équations de Saint-Venant

Djoumna, Georges 11 April 2018 (has links)
Lorsqu'on s'intéresse aux processus lents dans l'océan et dans l'atmosphère, il est important de calculer avec une grande précision les modes lents de Rossby. Dans cette thèse, la méthode semi-lagrangienne est combinée à la méthode des éléments finis pour simuler les ondes de Rossby lentes en modélisation océanographique. Ces ondes sont modélisées par les équations hyperboliques de Saint-Venant, étudié dans cette thèse, et obtenue à partir des équations de Navier Stokes. L'application de la méthode semi-lagrangienne conduit à un problème d'interpolation. Dans cette thèse, nous construisons des schémas d'interpolation d'ordre élevé pour traiter les opérateurs d'advection. Pour pouvoir obtenir de tels schémas, nous avons choisi de faire appel aux éléments finis de classe C1 . Nous nous limitons à l'élément fini de Bell et à la famille d'éléments finis de Hseih-Clough-Tocher, réduit et complet. Des tests numériques sont effectués pour l'équation d'advection linéaire bidimensionelle afin de mesurer le gain apporté par les interpolants C1 . Différentes approches sont proposées pour réinterpoler au pied d'une caractéristique. Une étude théorique de l'analyse de la stabilité et de la précision de ces approches est faite dans le cas de l'équation de transport unidimensionelle. Une comparaison des différentes méthodes de calcul au pied des caractéristiques est également faite à travers des essais numériques. Après avoir validé la construction des interpolants C1 et les différentes approches de remontée des caractéristiques sur des problèmes linéaires simples, nous nous attaquons aux cas non linéaires. Cette fois-ci les domaines de calcul sont complexes et réalistes, le golfe du Mexique en est une illustration. Nous avons choisi deux types d'éléments finis pour résoudre les équa tions de Saint-Venant non linéaires : les paires d'éléments finis P2 — -Pi1 et P1nc — P1. Des simulations numériques faites avec ces deux types d'approximation permettent de bien représenter les ondes de Rossby à un coût de calcul relativement faible et sans l'emploi de la viscosité artificielle.
76

Utilisation des algorithmes Géodésique et Zipper pour le calcul de domaines doublement connexes

Rajon, Quentin 12 April 2018 (has links)
Le but de ce mémoire est de présenter une généralisation des algorithmes Zipper et Géodésique, dans les cas de calculs d'applications conformes entre deux domaines doublement connexes. Nous aurons donc besoin dans un premier temps, de connaître les domaines doublement connexes et de classifier les domaines multiplement connexes de référence, ainsi que les applications analytiques permettant de s'y ramener. On définira brièvement, par la suite, les notions de capacité et de capacité hyperbolique. Ceci nous permettra d'énoncer un théorème de représentation conforme en connectivité 2. Nous travaillerons ensuite sur les revêtements universels des domaines considérés, de sorte à pouvoir récupérer les algorithmes existants dans le cas simplement connexe, et principalement, les algorithmes Zipper et Géodésique.
77

Représentations modulaires et structure locale des groupes finis

Biland, Erwan 19 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Cette thèse s’inscrit dans la recherche d’une preuve modulaire du Z ∗-théorème pour p impair, dont la seule démonstration connue repose sur la classification des groupes finis simples. Soit O une extension assez grande de l’anneau p-adique Zp, et k son corps résiduel. Soit G un groupe fini, e un bloc de l’algèbre OG et H = CG(P ) le centralisateur d’un p-sous-groupe de G. Si le sous-groupe H contrôle la fusion du bloc e en un sens très fort, nous prouvons l’existence d’une équivalence stable de type Morita entre le bloc e et un bloc f de l’algèbre OH , sous réserve qu’un groupe de défaut du bloc e soit abélien ou que son centre ne soit pas cyclique. Nous étendons ainsi un résultat déjà connu pour le bloc principal. Pour construire le bimodule qui induit cette équivalence stable, nous sommes amené à étudier les modules sur une algèbre de bloc OGe qui possèdent une source d’endopermutation fusion-stable, et que nous appelons des modules «Brauer-compa- tibles». Nous montrons en particulier comment la construction «slash» de Dade peut être appliquée à ces modules, et comment cette construction peut être rendue fonctorielle si on la restreint à une sous-catégorie «Brauer-compatible» de la caté- gorie des OGe-modules. Nous prouvons qu’un OGe-module indécomposable Brauer- compatible est caractérisé par une sous-paire vortex (Q, eQ), un module source V , et un module projectif indécomposable sur l’algèbre de bloc locale k[NG(Q, eQ)/Q]e¯Q associée à la sous-paire (Q, eQ). Nous donnons ainsi une formulation fonctorielle de la correspondance de Puig pour les modules Brauer-compatibles. / This thesis is related to the pursuit of a modular proof of the odd Z ∗-theorem, while the only known proof of that theorem relies on the classification of finite simple groups. Let O be a big enough extension of the p-adic ring Zp, and k be its residue field. Let G be a finite group, e be a block of the algebra OG, and H = CG(P ) be the centraliser of a p-subgroup of G. If the subgroup H controls the fusion of the block e in a very strong sense, we prove the existence of a stable equivalence of Morita type between the block e and a block f of the algebra OH , provided that a defect group of the block e is abelian or has a noncyclic center. This extends a result previously known for the principal block. In order to construct the bimodule that induces this stable equivalence, we are led to study the class of modules over a block algebra OGe that admit a fusion-stable endopermutation source. We call them “Brauer-friendly” modules. In particular, we show that Dade’s “slash” construction applies to these modules, and that this construction can be turned into a functor over a “Brauer-friendly” subcategory of the category of OGe-modules. We prove that an indecomposable Brauer-friendly module is characterised by a vertex subpair (Q, eQ), a source module V , and a projective indecomposable module over the local block algebra k[NG(Q, eQ)/Q]e¯Q attached to the subpair (Q, eQ). This provides a functorial version of the Puig correspondence for Brauer-friendly modules.
78

Topics in analytic number theory

Letendre, Patrick 27 September 2018 (has links)
Le présent document est un compte-rendu de quatre présentations que j'ai faites au congrès de Théorie des Nombres Québec-Maine entre 2013 et 2016. Au fil des ans, j'ai effectué quelques améliorations et corrections aux documents originaux. Le contenu, l'esprit et l'organisation sont restés essentiellement inchangés. Les quatre sujets sont fondamentalement distincts tout en étant dans un même cercle d'idées. Le premier chapitre traite d'un certain nombre de sujets en relation avec le comportement moyen de certaines fonctions multiplicatives, dans un ensemble bien précis, qui partagent plusieurs propriétés avec la fonction indicatrice des nombres libres de puissance k-ième. En particulier, on y établit plusieurs estimations de la variance dans des intervalles courts et dans des progressions arithmétiques. Le deuxième chapitre étudie un problème du crible combinatoire. Il y est question d'établir une majoration analogue à la célèbre inégalité de Brun-Titchmarsh, mais pour les nombres libres de puissance k-ième. Après quelques remarques élémentaires, on établit une nouvelle inégalité en supposant une conjecture forte en lien avec la densité maximale d'une suite de nombres ayant un diviseur de la forme pk 1pk 2 où p1 et p2 sont des nombres premiers qui satisfont certaines conditions. La méthode fournit aussi une majoration effective pour le nombre de nombres libres de puissance k-ième dans un intervalle [x + 1, x + h] lorsque h est petit par rapport à x. Le troisième chapitre, écrit en collaboration avec Jean-Marie De Koninck, établit des inégalités particulières pour la fonction τ(n) qui compte le nombre de diviseurs de n. L'objectif est d'obtenir une majoration de τ(n) qui ne dépend pas des facteurs premiers de n, mais seulement du nombre de facteurs premiers distincts de n et de son ordre de grandeur, i.e. de log n. L'inégalité principale (Théorèmes 3.4 et 3.5) a nécessité un bon volume de calcul sur ordinateur, et donc beaucoup de programmation avec Maple. Finalement, le Chapitre 4 est le début d'une étude du nombre de points entiers près d'une courbe dans l'espace R3. Le problème peut aussi être vu comme celui du nombre de points entiers près de deux courbes dans le plan Euclidien simultanément. L'objectif principal est d'utiliser l'information des deux courbes de façon nontriviale, soit de faire mieux que les meilleurs résultats connus pour une seule courbe. Étant donné la complexité du problème déjà en deux dimensions et du nombre de méthodes disponibles, il nous a semblé impossible de faire un traitement complet de la question. On s'est donc concentré sur une méthode qui utilise des approximations linéaires. Cette dernière peut sans doute être substantiellement améliorée. / Résumé en anglais / Théorie analytique des nombres
79

Résolution du contact frottant déformable-déformable par lagrangien augmenté et GCR préconditionné

Lacasse, Patrick 20 April 2018 (has links)
Ce document traite le problème de l’élasticité en grandes déformations avec contact frottant. Dans le premier chapitre, nous présentons un rappel des lois auxquelles nous ferons référence : lois de comportement matériau, conditions aux limites, contact et frottement selon la loi de Coulomb. Le coeur de la thèse commence par la discrétisation des conditions de bord. L’imposition en moyenne de la non-pénétration et de la loi de Coulomb est explicitée dans le but de se ramener en dimension finie. C’est dans ce domaine que les algorithmes sont développés. Les conditions d’optimalité sont donc calculées pour le problème déjà discrétisé et sont linéarisées par la suite selon le paradigme des contraintes actives. Suivant cette stratégie, l’état de contact est fixé à chaque itération de la méthode de Newton, transformant les conditions de contact en contraintes d’égalité. Le système de conditions d’optimalité ainsi obtenu peut alors être linéarisé. La résolution de ce nouveau système linéaire constitue l’autre partie importante de cette thèse. Les méthodes de pénalisation et d’Uzawa sont d’abord exposées ; elles serviront de point de comparaison. Nous construisons par la suite un algorithme basé sur un GCR préconditionné par une factorisation faisant apparaître un complément de Schur. Le tout est présenté d’abord dans le cas plus simple du contact sans frottement, puis en ajoutant le frottement. Des résultats numériques, parfois académiques (des cubes) et parfois industriels (des lamelles de pneus), viennent finalement appuyer les convictions que non seulement ces méthodes sont rapides, mais qu’elles sont aussi robustes. / This thesis addresses the problem of large deformation elasticity with frictional contact. In the first chapter, we recall the laws to which we refer: material behavior laws, boundary conditions, contact and friction according to Coulomb’s law. The heart of the thesis begins with the discretization of boundary conditions. Mortar formulations for non-penetration and Coulomb’s law are explained in order to set the problem in a finite dimensional space. Optimality conditions are calculated for the discretized problem and are subsequently linearized according to the paradigm of active set strategy. Under this approach, the contact state is set at each iteration of Newton’s method, transforming the contact conditions in equality constraints. The system of optimality conditions thus obtained can then be linearized. The resolution of this new linear system is another important part of this thesis. Methods of penalization and Uzawa are first exposed; they serve as a comparison point. Thereafter, we introduce a preconditioned GCR algorithm based on a factorization using a Schur complement. The whole problem is presented first in the simplest case of contact without friction, and, in the last chapter, with friction. Numerical results, sometimes academic (cubes) and sometimes industrial (slides tires) finally support the belief that not only these methods are efficient, but they are also robust.
80

Sur l'approximation de fonctions additives par des fonctions multiplicatives

Laniel, François 23 November 2018 (has links)
Pour une fonction additive f et une fonction multiplicative g , soit E ( f, g ; x ) := # { n ≤ x : f ( n ) = g ( n ) } . Dans cette thèse, nous améliorons le résultat de De Koninck, Doyon et Letendre relatif à l’ordre de grandeur de E ( ω, g ; x ) et E (Ω , g ; x ) . Nous obtenons aussi des résultats généralisant l’inégalité d’Hardy-Ramanujan et le théorème de Landau. De plus, nous appliquons la méthode de Selberg-Delange de façon à obtenir une formule relative à la fréquence des fonctions ω ( n ) et Ω( n ) en progression arithmétique. Finalement, nous trouvons une condition suffisante pour qu’une fonction arithmétique quel- conque possède une fonction de répartition et obtenons une version quantitative du théorème d’Erdős-Wintner. / For an additive function f and a multiplicative function g , let E ( f, g ; x ) := # { n ≤ x : f ( n ) = g ( n ) } . In this thesis, we improve the result of De Koninck, Doyon and Letendre regarding the order of magnitude of E ( ω, g ; x ) and E (Ω , g ; x ) . We also obtain results which generalise the Hardy-Ramanujan inequalities and the Landau theorem. Moreover, we use the Selberg-Delange method in order to obtain a formula on the frequency of the fonctions ω ( n ) and Ω( n ) in arithmetic progression. Finaly, we find a sufficient condition for an arithmetical function to possess a distribution function and obtain a quantitative version of the Erdős-Wintner theorem.

Page generated in 0.0191 seconds