• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 18
  • Tagged with
  • 188
  • 188
  • 188
  • 59
  • 42
  • 32
  • 29
  • 24
  • 23
  • 22
  • 22
  • 20
  • 20
  • 19
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Mesures de risque et dépendance

Mailhot, Mélina 19 April 2018 (has links)
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités. / In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
112

Mouvement de l'ensemble de Julia des polynômes en itération aléatoire

Fortier, Jérôme 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / L'ensemble de Julia d'une fonction rationnelle, issu de la théorie dite classique de l'itération, possède une généralisation à une théorie dite aléatoire, où les fonctions appliquées peuvent être différentes d'une itération à l'autre. En restreignant notre étude de l'itération aléatoire aux cas où les suites de fonctions considérées sont des suites dites bornées de polynômes, plusieurs phénomènes de la théorie classique se généralisent, et on se demande jusqu'à quel point c'est le cas. On étudie donc les liens entre les deux théories via la question suivante : comment est modifié l'ensemble de Julia lorsque les coefficients des fonctions qui l'engendrent sont modifiés? Un théorème classique décrit ainsi l'ensemble de Julia comme ressemblant à une multifonction méromorphe, et on tente de généraliser celui-ci. Il faut donc, d'abord, décrire les grandes lignes de la théorie l'itération et de celle des multifonctions méromorphes.
113

Integral means of the derivatives of Blaschke products and zero sequences for the Dirichlet space

Shabankhah, Mahmood 13 April 2018 (has links)
Ce travail s'inscrit dans le cadre général de la théorie des espaces de fonctions holomorphes du disque unité. Depuis son apparution au début du 20e siècle cette théorie a retenu l 'attention des analystes. Grâce à leurs travaux, les propriétés et les connexions de ces espaces avec des sujets variés en analyse complexe et en théorie des opérateurs sont maintenant largement connues. Malgré tous les progrès faits, il reste encore des problèmes ouverts par rapport à ces espaces qui sont faciles à énoncer mais extrêmement difficiles à résoudre. La première partie de cette thèse porte sur les moyennes intégrales des dérivées logarithmiques des produits de Blaschke. Plus précisément , nous allons établir de nouvelles estimations pour les moyennes de Hardy et de Bergman pondérées du rapport B(ℓ) / B d 'un produit de Blaschke B qui divise sa ℓ > ou = 1, lorsque les zéros de B satisfont une condition de séparation de type hyperbolique. Ensuite, nous allons montrer que nos estimations entraînent et généralisent les résultats classiques connus sur ces moyennes. Notre approche est basée sur une technique qui a été récemment dévéloppée par Javad Mashreghi , mon directeur de thèse, et Emmanuel Fricain. Dans la deuxième partie de cette thèse, nous allons aborder la question de la caractérisation des zéros de Pespace de Dirichlet classique V. En fait, cette question est extrêmement difficile et reste toujours ouverte. Cependant, en procédant par une nouvelle approche, nous allons obtenir des conditions suffisantes pour qu'une suite soit une suite de zéros pour V. De plus, nous allons donner une caractérisation de certains sous-ensembles du cercle unité, appelés les enselnbles de Carleson , en termes de leurs sous-suites convergentes. Cette caractérisation donne lieu à quelques résultats intéressants sur les zéros de V. Dans un premier temps, nous allons obtenir une caractérisation des sous-ensembles E du cercle unité qui ont la propriété suivante: toute suite de points dont les arguments sont dans E et qui est une suite de Blaschke, est nécessairement une suite de zéros pour V. Dans un deuxième temps, nous allons obtenir un nouveau critère pour les ensembles de Blaschke de V.
114

Analyse de l'impact d'une intervention à grande échelle avec le modèle de risques proportionnels de Cox avec surplus de zéros : application au projet Avahan de lutte contre le VIH/SIDA en Inde

Loko, Houdété Odilon 20 April 2018 (has links)
L’évaluation de l’impact des interventions à grande échelle est nécessaire dans un contexte de rareté des ressources. La rapidité de leur mise en oeuvre et certaines raisons éthiques font qu’on ne randomise pas les populations en groupes témoin et traitement. La non disponibilité de données fiables avant le démarrage des interventions ajoute aux difficultés. Certains ont proposé, dans ce cas, la reconstruction de l’historique des données à partir d’enquêtes. Dans le cas du projet Avahan pour lutter contre le VIH/SIDA, pour déterminer son effet sur l’utilisation du condom par les travailleuses du sexe, nous avons proposé une méthode qui est un mélange des modèles de régression logistique et de Cox. Nous comparons notre méthode à une basée sur les équations d’estimation généralisées en utilisant une simulation et les données d’Avahan. Les résultats montrent que notre méthode est plus puissante, mais moins robuste.
115

Méthodes du calcul de la prime : Bonus-malus, Réassurance, Système aléatoire à la liaisons complètes

Essis-Breton, Nicolas 16 April 2018 (has links)
Dans ce mémoire, nous considérons différentes méthodes du calcul de la prime et de révision de la prime. Dans l'introduction, nous examinons d'abord les propriétés souhaitables d'un calcul de la prime ainsi que les différentes méthodes pour déterminer un principe de prime. Nous nous concentrons ensuite sur deux contextes où le principe de prime est déterminé de façon à réviser la prime en fonction de l'expérience de l'assuré. Nous considérons aussi un contexte où les aspects numériques reliés au calcul d'un principe de prime peuvent être analysés. Avec les systèmes bonus-malus, nous présentons une méthode classique de révision de la prime. Puis, après une analyse des principaux produits de réassurance, nous expliquons différentes méthodes numériques pour évaluer la prime. Avec les systèmes aléatoires à liaisons complètes, nous introduisons une approche nouvelle au problème de révision de la prime qui permet de déterminer des principes de prime optimaux dans certaines situations. / [Bonus malus ; Système aléatoire à liaisons complètes]
116

Métriques perceptuelles pour la compression d'images : éude et comparaison des algorithmes JPEG et JPEG2000.

Brunet, Dominique 13 April 2018 (has links)
Les algorithmes de compression d'images JPEG et JPEG2000 sont présentés, puis comparés grâce à une métrique perceptuelle. L'algorithme JPEG décompose une image par la transformée en cosinus discrète, approxime les coefficients transformés par une quantisation uniforme et encode le résultat par l'algorithme de Huffman. Pour l'algorithme JPEG2000, on utilise une transformée en ondelettes décomposant une image en plusieurs résolutions. On décrit et justifie la construction d'ondelettes orthogonales ou biorthogonales ayant le maximum de propriétés parmi les suivantes: valeurs réelles, support compact, plusieurs moments, régularité et symétrie. Ensuite, on explique sommairement le fonctionnement de l'algorithme JPEG2000, puis on montre que la métrique RMSE n'est pas bonne pour mesurer l'erreur perceptuelle. On présente donc quelques idées pour la construction d'une métrique perceptuelle se basant sur le fonctionnement du système de vision humain, décrivant en particulier la métrique SSIM. On utilise finalement cette dernière métrique pour conclure que JPEG2000 fait mieux que JPEG. / In the present work we describe the image compression algorithms: JPEG and JPEG2000. We then compare them using a perceptual metric. JPEG algorithm decomposes an image with the discrete cosine transform, the transformed map is then quantized and encoded with the Huffman code. Whereas the JPEG2000 algorithm uses wavelet transform to decompose an image in many resolutions. We describe a few properties of wavelets and prove their utility in image compression. The wavelets properties are for instance: orthogonality or biorthogonality, real wavelets, compact support, number of moments, regularity and symmetry. We then briefly show how does JPEG2000 work. After we prove that RMSE error is clearly not the best perceptual metric. So forth we suggest other metrics based on a human vision system model. We describe the SSIM index and suggest it as a tool to evaluate image quality. Finally, using the SSIM metric, we show that JPEG2000 surpasses JPEG.
117

Modélisation du transport d'eau et du changement de volume dans les neurones et les astrocytes

Lenkeu Lenkeu, Nadège Octavie 24 April 2018 (has links)
La microscopie holographique utilise des techniques d’interférométrie pour mesurer les changements de volume des neurones et des astrocytes avec une précision sans précédent. Un défi important serait de relier les changements de phase mesurés aux changements de volume du neurone et plus encore de relier l’étendue de ces changements de volumes à certaines propriétés des neurones comme le niveau d’activité des cotransporteurs cation-chlorure (CCC) et certaines propriétés biomécaniques des membranes. L’objectif à plus long terme est d’utiliser des changements de phase pour détecter des modifications dans la réponse volumique des neurones à un choc osmotique par exemple, modifications qui pourraient éventuellement permettre de détecter des pathologies. Pour comprendre l’information que l’on peut tirer des mesures expérimentales, il est important de comprendre le lien entre différentes variables : force de la pompe Na⁺ – K⁺ATPase, la perméabilité de la membrane à l’eau, les propriétés biomécaniques de la membrane et les changements de phase observés par l’expérimentateur. Pour y arriver, nous aborderons quelques notions sur les systèmes dynamiques, plus précisément nous utiliserons les Equations Différentielles Ordinaires (E.D.O.) afin d’éffectuer la modélisation mathématique du phénomène illustrant la variation du volume de la membrane cellulaire, ainsi que les variations des quantités de K⁺, Na⁺ et Cl⁻, qui constituent la principale composition ionique des astrocytes, qui sont les cellules étudiées dans ce projet. Dans ce même régistre de rappel mathématique sur les systèmes dynamiques, nous parlerons des bifurcations, pour lesquelles nous décrirons quand et comment est ce qu’elles apparaîssent tout en les illustrant par des exemples, ceci dans l’optique de se préparer à une meilleure compréhension des résultats à venir après l’étude de notre modèle, puisqu’on espère y observer des bifurcations. Nous serons ainsi amenés à étudier profondémént le système d’E.D.O obtenu, notamment la recherche des points d’équilibre et leurs comportements dans l’espace des phases, voir s’il ya lieu des points de bifurcation et leurs interprétations pour la cellule concernée. Le but visé étant d’obtenir des bifurcations, ce qui expliquerait le dysfonctionnement des astrocytes, et expliquerait certainement l’origine de certaines maladies maladies neurodégénératives ; nous verrons finalement après étude du modèle qu’il n’existe pas de bifurcation, néanmoins la simplicité du modèle utilisé ouvre des portes à de futurs projets plus complexes qui permettront peut-être d’atteindre les objectifs visés. / The holographic microscopy uses interferometry techniques for measuring changes in volume of neurons with an unprecedented accuracy. A major challenge is to relate the measured phase changes with the neuron volume changes and more to relate the extent of these changes volumes to certain properties of neurons such as the activity level of Cation-Chloride Cotransporter (CCC) and some biomechanical properties membranes. The longer term objective is the use of phase changes for detecting changes in the density response of neurons to an osmotic shock which could possibly allow the detection of many kind of pathologies. To understand the information that can be derived from experimental measurements, it is important to understand the relationship between different variables: force pump Na⁺ – K⁺ ATPase, membrane permeability of water, biomechanical properties of the membranes and the phase changes observed by the experimenter. To achieve this, we need some dynamical system skills, we will use the Ordinary Differential Equations (E.D.O) in order to perform the mathematical modeling of the phenomenon illustrating the variation of the membrane volume, as well as the variations in quantities of K⁺, Na⁺ and Cl⁻, which constitute the main ionic composition of astrocytes, which are the cells studied in this project. In this mathematical recall on dynamical systems, we will talk about the bifurcations for a better understanding of the incoming results since we are expecting bifurcations for our model. We will study deeply the E.D.O. system obtained including the search of equilibrium points and their behavior in the phase space, and we will see if there are bifurcations and what is their meaning. The aim being to obtain bifurcations, which would explain the dysfunction of the astrocytes, and would certainly explain the origin of certain neurodegenerative diseases; we will finally see, after studying the model, that there is no bifurcation, nevertheless the simplicity of the model used opens doors to more complex future projects that will perhaps achieve the desired objectives.
118

La récupération des dérivées : développement d'une nouvelle méthode d'estimation des dérivées avec une étude de convergence

Pouliot, Benoît 17 April 2018 (has links)
L'adaptation de maillage peut être très utile dans l'application de la méthode des éléments finis à certains problèmes physico-mathématiques. L'adaptation est une procédure qui nécessite, entre autres, des algorithmes efficaces de calcul des dérivées de fonctions de type Pk ou Qk- Des méthodes d'estimation des dérivées ont donc été élaborées pour résoudre ce problème. Ce travail consiste à expliquer au lecteur ce qu'est exactement la récupération des dérivées et à dresser une liste des méthodes classiques qui sont utilisées de nos jours. Nous développons aussi une nouvelle méthode de récupération pour les fonctions de type Pi qui est, à plusieurs égards, beaucoup plus performante que les méthodes classiques. Un aspect intéressant de cette nouvelle méthode est qu'elle est globale et qu'elle n'a ainsi pas besoin de traitement spécial sur le bord des maillages.
119

Une méthode d'éléments finis mixtes duale raffinée pour le couplage des équations de Navier-Stokes et de la chaleur

Brahmi, Ahcène 12 April 2018 (has links)
Ce travail est consacré à l'étude du couplage des équations de Navier-Stokes et de la chaleur posées dans un domaine polygonal non convexe. Après avoir analysé le comportement singulier des solutions de ces équations près des coins du domaine considéré, nous présentons une formulation mixte duale de ces équations basée sur l'introduction de deux nouvelles inconnues : a qui est le tenseur gradient de la vitesse et le champ vectoriel ^ qui désigne le gradient de la température. Ensuite, en considérant une famille de maillage Th du domaine fi, nous analysons une méthode d'éléments finis mixte duale basée sur cette dernière formulation en utilisant l'élément fini de Raviart-Thomas de plus bas degré pour approximer les nouvelles inconnues cr et <^ sur chaque triangle K de la triangulation Th. Tandis que les variables n, p et T seront approximées par des polynômes de degré zéro sur chaque triangle K. En particulier, nous montrons que l'on peut retrouver l'ordre de convergence quasi-optimal si le maillage est raffiné suivant certaines règles qui sont essentiellement celles introduites par G. Raugel et basées sur le fait que les solutions sont régulières dans des espaces de Sobolev à poids. Nous discutons les aspects d'implémentation de la méthode d'éléments finis mixte duale raffinée pour ces équations en utilisant un algorithme de point fixe combiné à une formulation hybride de deux systèmes issus du découplage du problème discret : l'un correspondant aux équations de Navier-Stokes et l'autre à l'équation de la chaleur. Nos résultats numériques obtenus, en plus de confirmer l'ordre de convergence optimal pour un problème test posé dans un domaine polygonal non convexe, sont tout-à-fait comparables avec ceux existants dans la littérature pour la convection naturelle dans une cavité carrée.
120

Comparaison de modèles de régression logistique utilisés pour l'analyse de données recueillies dans le cadre d'études de type cas-témoins appariés sur le déplacement animal

Beauregard, Benjamin 19 April 2018 (has links)
L’étude de la sélection des ressources en fonction du déplacement des animaux est un sujet qui intéresse plusieurs chercheurs en écologie, qui cherchent à prédire comment les ressources disponibles influencent le déplacement des animaux dans un environnement hétérogène. Pour ce faire, une stratégie souvent utilisée consiste à comparer les caractéristiques des lieux visités à celles des lieux disponibles mais non visités à différents instants. Comme l’étendue du territoire des lieux disponibles est généralement imposant, un échantillonnage aléatoire des lieux non-visités devient pratiquement inévitable. Toutefois, une méthode d’échantillonnage non adéquate peut induire un biais dans les inférences. L’échantillonnage des lieux non-visités peut se faire selon une étude longitudinale cas-témoins appariée dont la variable réponse prend la valeur 1 dans le cas d’une ressource sélectionnée et la valeur 0 dans le cas contraire. Un modèle de régression logistique peut donc être ajusté aux données. L’objectif de ce mémoire est d’étudier les avantages et les limites de divers modèles de régression logistique, tout particulièrement le modèle à effets mixtes, dans le cadre d’études cas-témoins appariées. Une étude de simulation ainsi que l’analyse de données réelles nous a permis de comparer les inférences obtenues par le modèle mixte à ceux d’un modèle à effets fixes. Les conclusions observables indiquent que les modèles mixtes sont plus performants que les modèles fixes lorsque le type d’environnement est "homogène" et "très homogène" avec une faible force de sélection, mais rarement dans d’autres situations.

Page generated in 0.0381 seconds