• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 18
  • Tagged with
  • 188
  • 188
  • 188
  • 59
  • 42
  • 32
  • 29
  • 23
  • 23
  • 22
  • 22
  • 20
  • 20
  • 19
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Analyse de l'impact d'une intervention à grande échelle avec le modèle de risques proportionnels de Cox avec surplus de zéros : application au projet Avahan de lutte contre le VIH/SIDA en Inde

Loko, Houdété Odilon 20 April 2018 (has links)
L’évaluation de l’impact des interventions à grande échelle est nécessaire dans un contexte de rareté des ressources. La rapidité de leur mise en oeuvre et certaines raisons éthiques font qu’on ne randomise pas les populations en groupes témoin et traitement. La non disponibilité de données fiables avant le démarrage des interventions ajoute aux difficultés. Certains ont proposé, dans ce cas, la reconstruction de l’historique des données à partir d’enquêtes. Dans le cas du projet Avahan pour lutter contre le VIH/SIDA, pour déterminer son effet sur l’utilisation du condom par les travailleuses du sexe, nous avons proposé une méthode qui est un mélange des modèles de régression logistique et de Cox. Nous comparons notre méthode à une basée sur les équations d’estimation généralisées en utilisant une simulation et les données d’Avahan. Les résultats montrent que notre méthode est plus puissante, mais moins robuste.
112

Méthodes du calcul de la prime : Bonus-malus, Réassurance, Système aléatoire à la liaisons complètes

Essis-Breton, Nicolas 16 April 2018 (has links)
Dans ce mémoire, nous considérons différentes méthodes du calcul de la prime et de révision de la prime. Dans l'introduction, nous examinons d'abord les propriétés souhaitables d'un calcul de la prime ainsi que les différentes méthodes pour déterminer un principe de prime. Nous nous concentrons ensuite sur deux contextes où le principe de prime est déterminé de façon à réviser la prime en fonction de l'expérience de l'assuré. Nous considérons aussi un contexte où les aspects numériques reliés au calcul d'un principe de prime peuvent être analysés. Avec les systèmes bonus-malus, nous présentons une méthode classique de révision de la prime. Puis, après une analyse des principaux produits de réassurance, nous expliquons différentes méthodes numériques pour évaluer la prime. Avec les systèmes aléatoires à liaisons complètes, nous introduisons une approche nouvelle au problème de révision de la prime qui permet de déterminer des principes de prime optimaux dans certaines situations. / [Bonus malus ; Système aléatoire à liaisons complètes]
113

Métriques perceptuelles pour la compression d'images : éude et comparaison des algorithmes JPEG et JPEG2000.

Brunet, Dominique 13 April 2018 (has links)
Les algorithmes de compression d'images JPEG et JPEG2000 sont présentés, puis comparés grâce à une métrique perceptuelle. L'algorithme JPEG décompose une image par la transformée en cosinus discrète, approxime les coefficients transformés par une quantisation uniforme et encode le résultat par l'algorithme de Huffman. Pour l'algorithme JPEG2000, on utilise une transformée en ondelettes décomposant une image en plusieurs résolutions. On décrit et justifie la construction d'ondelettes orthogonales ou biorthogonales ayant le maximum de propriétés parmi les suivantes: valeurs réelles, support compact, plusieurs moments, régularité et symétrie. Ensuite, on explique sommairement le fonctionnement de l'algorithme JPEG2000, puis on montre que la métrique RMSE n'est pas bonne pour mesurer l'erreur perceptuelle. On présente donc quelques idées pour la construction d'une métrique perceptuelle se basant sur le fonctionnement du système de vision humain, décrivant en particulier la métrique SSIM. On utilise finalement cette dernière métrique pour conclure que JPEG2000 fait mieux que JPEG. / In the present work we describe the image compression algorithms: JPEG and JPEG2000. We then compare them using a perceptual metric. JPEG algorithm decomposes an image with the discrete cosine transform, the transformed map is then quantized and encoded with the Huffman code. Whereas the JPEG2000 algorithm uses wavelet transform to decompose an image in many resolutions. We describe a few properties of wavelets and prove their utility in image compression. The wavelets properties are for instance: orthogonality or biorthogonality, real wavelets, compact support, number of moments, regularity and symmetry. We then briefly show how does JPEG2000 work. After we prove that RMSE error is clearly not the best perceptual metric. So forth we suggest other metrics based on a human vision system model. We describe the SSIM index and suggest it as a tool to evaluate image quality. Finally, using the SSIM metric, we show that JPEG2000 surpasses JPEG.
114

Comparing inverse probability of treatment weighting methods and optimal nonbipartite matching for estimating the causal effect of a multicategorical treatment

Diop, Serigne Arona 18 April 2019 (has links)
Des débalancements des covariables entre les groupes de traitement sont souvent présents dans les études observationnelles et peuvent biaiser les comparaisons entre les traitements. Ce biais peut notamment être corrigé grâce à des méthodes de pondération ou d’appariement. Ces méthodes de correction ont rarement été comparées dans un contexte de traitement à plusieurs catégories (>2). Nous avons mené une étude de simulation pour comparer une méthode d’appariement optimal non-biparti, la pondération par probabilité inverse de traitement ainsi qu’une pondération modifiée analogue à l’appariement (matching weights). Ces comparaisons ont été effectuées dans le cadre de simulation de type Monte Carlo à travers laquelle une variable d’exposition à 3 groupes a été utilisée. Une étude de simulation utilisant des données réelles (plasmode) a été conduite et dans laquelle la variable de traitement avait 5 catégories. Parmi toutes les méthodes comparées, celle du matching weights apparaît comme étant la plus robuste selon le critère de l’erreur quadratique moyenne. Il en ressort, aussi, que les résultats de la pondération par probabilité inverse de traitement peuvent parfois être améliorés par la troncation. De plus, la performance de la pondération dépend du niveau de chevauchement entre les différents groupes de traitement. La performance de l’appariement optimal nonbiparti est, quant à elle, fortement tributaire de la distance maximale pour qu’une paire soit formée (caliper). Toutefois, le choix du caliper optimal n’est pas facile et demeure une question ouverte. De surcroît, les résultats obtenus avec la simulation plasmode étaient positifs, dans la mesure où une réduction importante du biais a été observée. Toutes les méthodes ont pu réduire significativement le biais de confusion. Avant d’utiliser la pondération de probabilité inverse de traitement, il est recommandé de vérifier la violation de l’hypothèse de positivité ou l’existence de zones de chevauchement entre les différents groupes de traitement
115

Mesures de risque et dépendance

Mailhot, Mélina 19 April 2018 (has links)
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités. / In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
116

Mouvement de l'ensemble de Julia des polynômes en itération aléatoire

Fortier, Jérôme 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / L'ensemble de Julia d'une fonction rationnelle, issu de la théorie dite classique de l'itération, possède une généralisation à une théorie dite aléatoire, où les fonctions appliquées peuvent être différentes d'une itération à l'autre. En restreignant notre étude de l'itération aléatoire aux cas où les suites de fonctions considérées sont des suites dites bornées de polynômes, plusieurs phénomènes de la théorie classique se généralisent, et on se demande jusqu'à quel point c'est le cas. On étudie donc les liens entre les deux théories via la question suivante : comment est modifié l'ensemble de Julia lorsque les coefficients des fonctions qui l'engendrent sont modifiés? Un théorème classique décrit ainsi l'ensemble de Julia comme ressemblant à une multifonction méromorphe, et on tente de généraliser celui-ci. Il faut donc, d'abord, décrire les grandes lignes de la théorie l'itération et de celle des multifonctions méromorphes.
117

Modélisation du transport d'eau et du changement de volume dans les neurones et les astrocytes

Lenkeu Lenkeu, Nadège Octavie 24 April 2018 (has links)
La microscopie holographique utilise des techniques d’interférométrie pour mesurer les changements de volume des neurones et des astrocytes avec une précision sans précédent. Un défi important serait de relier les changements de phase mesurés aux changements de volume du neurone et plus encore de relier l’étendue de ces changements de volumes à certaines propriétés des neurones comme le niveau d’activité des cotransporteurs cation-chlorure (CCC) et certaines propriétés biomécaniques des membranes. L’objectif à plus long terme est d’utiliser des changements de phase pour détecter des modifications dans la réponse volumique des neurones à un choc osmotique par exemple, modifications qui pourraient éventuellement permettre de détecter des pathologies. Pour comprendre l’information que l’on peut tirer des mesures expérimentales, il est important de comprendre le lien entre différentes variables : force de la pompe Na⁺ – K⁺ATPase, la perméabilité de la membrane à l’eau, les propriétés biomécaniques de la membrane et les changements de phase observés par l’expérimentateur. Pour y arriver, nous aborderons quelques notions sur les systèmes dynamiques, plus précisément nous utiliserons les Equations Différentielles Ordinaires (E.D.O.) afin d’éffectuer la modélisation mathématique du phénomène illustrant la variation du volume de la membrane cellulaire, ainsi que les variations des quantités de K⁺, Na⁺ et Cl⁻, qui constituent la principale composition ionique des astrocytes, qui sont les cellules étudiées dans ce projet. Dans ce même régistre de rappel mathématique sur les systèmes dynamiques, nous parlerons des bifurcations, pour lesquelles nous décrirons quand et comment est ce qu’elles apparaîssent tout en les illustrant par des exemples, ceci dans l’optique de se préparer à une meilleure compréhension des résultats à venir après l’étude de notre modèle, puisqu’on espère y observer des bifurcations. Nous serons ainsi amenés à étudier profondémént le système d’E.D.O obtenu, notamment la recherche des points d’équilibre et leurs comportements dans l’espace des phases, voir s’il ya lieu des points de bifurcation et leurs interprétations pour la cellule concernée. Le but visé étant d’obtenir des bifurcations, ce qui expliquerait le dysfonctionnement des astrocytes, et expliquerait certainement l’origine de certaines maladies maladies neurodégénératives ; nous verrons finalement après étude du modèle qu’il n’existe pas de bifurcation, néanmoins la simplicité du modèle utilisé ouvre des portes à de futurs projets plus complexes qui permettront peut-être d’atteindre les objectifs visés. / The holographic microscopy uses interferometry techniques for measuring changes in volume of neurons with an unprecedented accuracy. A major challenge is to relate the measured phase changes with the neuron volume changes and more to relate the extent of these changes volumes to certain properties of neurons such as the activity level of Cation-Chloride Cotransporter (CCC) and some biomechanical properties membranes. The longer term objective is the use of phase changes for detecting changes in the density response of neurons to an osmotic shock which could possibly allow the detection of many kind of pathologies. To understand the information that can be derived from experimental measurements, it is important to understand the relationship between different variables: force pump Na⁺ – K⁺ ATPase, membrane permeability of water, biomechanical properties of the membranes and the phase changes observed by the experimenter. To achieve this, we need some dynamical system skills, we will use the Ordinary Differential Equations (E.D.O) in order to perform the mathematical modeling of the phenomenon illustrating the variation of the membrane volume, as well as the variations in quantities of K⁺, Na⁺ and Cl⁻, which constitute the main ionic composition of astrocytes, which are the cells studied in this project. In this mathematical recall on dynamical systems, we will talk about the bifurcations for a better understanding of the incoming results since we are expecting bifurcations for our model. We will study deeply the E.D.O. system obtained including the search of equilibrium points and their behavior in the phase space, and we will see if there are bifurcations and what is their meaning. The aim being to obtain bifurcations, which would explain the dysfunction of the astrocytes, and would certainly explain the origin of certain neurodegenerative diseases; we will finally see, after studying the model, that there is no bifurcation, nevertheless the simplicity of the model used opens doors to more complex future projects that will perhaps achieve the desired objectives.
118

La récupération des dérivées : développement d'une nouvelle méthode d'estimation des dérivées avec une étude de convergence

Pouliot, Benoît 17 April 2018 (has links)
L'adaptation de maillage peut être très utile dans l'application de la méthode des éléments finis à certains problèmes physico-mathématiques. L'adaptation est une procédure qui nécessite, entre autres, des algorithmes efficaces de calcul des dérivées de fonctions de type Pk ou Qk- Des méthodes d'estimation des dérivées ont donc été élaborées pour résoudre ce problème. Ce travail consiste à expliquer au lecteur ce qu'est exactement la récupération des dérivées et à dresser une liste des méthodes classiques qui sont utilisées de nos jours. Nous développons aussi une nouvelle méthode de récupération pour les fonctions de type Pi qui est, à plusieurs égards, beaucoup plus performante que les méthodes classiques. Un aspect intéressant de cette nouvelle méthode est qu'elle est globale et qu'elle n'a ainsi pas besoin de traitement spécial sur le bord des maillages.
119

Une méthode d'éléments finis mixtes duale raffinée pour le couplage des équations de Navier-Stokes et de la chaleur

Brahmi, Ahcène. 12 April 2018 (has links)
Ce travail est consacré à l'étude du couplage des équations de Navier-Stokes et de la chaleur posées dans un domaine polygonal non convexe. Après avoir analysé le comportement singulier des solutions de ces équations près des coins du domaine considéré, nous présentons une formulation mixte duale de ces équations basée sur l'introduction de deux nouvelles inconnues : a qui est le tenseur gradient de la vitesse et le champ vectoriel ^ qui désigne le gradient de la température. Ensuite, en considérant une famille de maillage Th du domaine fi, nous analysons une méthode d'éléments finis mixte duale basée sur cette dernière formulation en utilisant l'élément fini de Raviart-Thomas de plus bas degré pour approximer les nouvelles inconnues cr et <^ sur chaque triangle K de la triangulation Th. Tandis que les variables n, p et T seront approximées par des polynômes de degré zéro sur chaque triangle K. En particulier, nous montrons que l'on peut retrouver l'ordre de convergence quasi-optimal si le maillage est raffiné suivant certaines règles qui sont essentiellement celles introduites par G. Raugel et basées sur le fait que les solutions sont régulières dans des espaces de Sobolev à poids. Nous discutons les aspects d'implémentation de la méthode d'éléments finis mixte duale raffinée pour ces équations en utilisant un algorithme de point fixe combiné à une formulation hybride de deux systèmes issus du découplage du problème discret : l'un correspondant aux équations de Navier-Stokes et l'autre à l'équation de la chaleur. Nos résultats numériques obtenus, en plus de confirmer l'ordre de convergence optimal pour un problème test posé dans un domaine polygonal non convexe, sont tout-à-fait comparables avec ceux existants dans la littérature pour la convection naturelle dans une cavité carrée.
120

Les parties puissante et libre de carrés d'un entier

Cloutier, Maurice-Étienne 19 April 2018 (has links)
Tout entier positif peut être représenté comme le produit de sa partie puissante et de sa partie libre de carrés. Comme nous le verrons dans ce mémoire, pour la plupart des entiers n, c'est leur partie libre de carrés sq(n), et non leur partie puissante pow(n), qui est la plus « dominante ». C'est ainsi que ∑n≤x sq(n) est de l'ordre de x² tout comme l'est ∑n≤xn-> alors que ∑n≤xPow(n) est beaucoup plus petite, soit de l'ordre de x³/². Notre objectif dans ce mémoire est, dans un premier temps, d'établir le comportement asymptotique de diverses sommations ∑n≤x pow(n)asq(n)b, où a et b sont des entiers donnés. Dans un deuxième temps, nous remarquerons qu'en ajoutant la restriction « n est y-friable » aux sommations ∑n≤x sq(n) et ∑n≤xpow(n), alors c'est l'ordre de grandeur de y (par rapport à x) qui déterminera laquelle des deux sommes est la plus dominante.

Page generated in 0.0431 seconds