• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 18
  • Tagged with
  • 188
  • 188
  • 188
  • 59
  • 42
  • 32
  • 29
  • 24
  • 23
  • 22
  • 22
  • 20
  • 20
  • 19
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Discrétisation par éléments finis de l'opérateur de Laplace-Hodge

Lévesque, Jean-Sébastien 19 April 2018 (has links)
L’opérateur de Laplace-Hodge est un opérateur différentiel qui généralise le Laplacien traditionnel aux formes différentielles de degré k. Bien que les formes différentielles offrent un formalisme idéal pour représenter et manipuler les champs de vecteurs, leur utilisation dans le contexte des éléments finis est relativement récente. Nous présenterons d’abord les principales notions théoriques concernant les formes différentielles, puis nous développerons tous les éléments nécessaires à la mise en oeuvre d’une formulation mixte permettant de discrétiser le problème du Laplacien de Hodge avec la méthode des éléments finis. Cette discrétisation sera essentiellement basée sur les formes de Whitney. Nous présenterons ensuite de nombreux résultats numériques couvrant une grande variété de cas.
132

Commutativity of the exponential spectrum

Gevorgyan, Aram 23 April 2018 (has links)
Pour l'algèbre de Banach complexe A ayant l'élément unité, on dénote par G(A) l'ensemble des éléments inversibles de A, et par G1(A) on dénote la composante qui contient l'unité. Le spectre de a ∈ A est l'ensemble de tous les nombres complexes λ tels que λ1 - a ∉ G(A), et le spectre exponentiel de a est l'ensemble de tous les nombres complexes tels que λ1 - a ∉ G1(A). Évidemment, pour chaque élément de l'algèbre, son spectre exponentiel contient le spectre habituel. Il est bien connu que le spectre habituel a une propriété que l'on nommera "propriété de commutativité". Cela signifie que, pour chaque choix des deux éléments a; b ∈ A, nous avons Sp(ab) \ {0} = Sp(ba) \ {0}, où Sp est le spectre. Avons-nous la même propriété pour les spectres exponentiels? Cette question n'est toujours pas résolue. L'objectif de ce mémoire est d'étudier le spectre exponentiel, et plus particulièrement sa propriété de commutativité. Dans le premier chapitre, nous donnerons les définitions d'algèbre de Banach complexe, spectre et spectre exponentiel de ses éléments, et leurs propriétés de base. Aussi nous établirons des relations topologiques entre les spectres exponentiel et habituel. Dans le deuxième chapitre, nous définirons les fonctions holomorphes sur une algèbre de Banach, et discuterons du problème de la propriété de commutativité de spectre exponentiel, en établissant des résultats positifs connus. Dans le troisième et dernier chapitre, nous examinerons quelques exemples d'algèbres de Banach, décrivant les ensembles G(A) et G1(A), et discuterons de la propriété de commutativité pour ces algèbres. / For a complex Banach algebra A with unit element, we denote by G(A) the set of invertible elements of A, and by G1(A) we denote the component of G(A) which contains the unit. The spectrum of a ∈ A is the set of all complex numbers λ such that λ1 - a ∉ G(A), and the exponential spectrum of a is the set of all complex numbers λ such that λ1 - a ∉ G1(A). Of course for each element of the algebra its exponential spectrum contains the usual spectrum. It is well known that the usual spectrum has the so-called commutativity property. This means that, for any two elements a and b of A, we have Sp(ab) \ {0} = Sp(ba) \ {0}, where Sp denotes the spectrum. Does this property hold for exponential spectra? This is still an open question. The purpose of this memoir is to study the exponential spectrum, and particularly its commutativity property. In chapter one, we will give definitions of a complex Banach algebra, the spectrum and exponential spectrum of its elements, and their basic properties. Also we will establish topological relations between exponential and usual spectra. In chapter two, we will define holomorphic functions on a Banach algebra, and also discuss the commutativity property problem for the exponential spectrum, establishing some known positive results. In the last chapter, we will consider some examples of Banach algebras, describing the sets G(A) and G1(A), and discuss the commutativity property for these algebras.
133

Modélisation de la dispersion chromatique et de l'atténuation dans les fibres microstructurées à cœur suspendu

Gagnon, Pierre-Louis 24 April 2018 (has links)
D'abord, nous présentons les principes physiques nous permettant de modéliser et comprendre le phénomène de propagation linéaire des impulsions lumineuses dans un milieu homogène, dans les guides d'ondes planaires et enfin dans les fibres optiques microstructurées. Ensuite, nous faisons une analyse mathématique rigoureuse des équations linéaires de propagation et posons le problème comme celui de la recherche de valeurs propres d'opérateurs auto-adjoints dans un espace de Hilbert. On verra que ces résultats théoriques s'appliquent aux équations simulées dans le logiciel Comsol Multiphysics. Enfin, nous recensons et proposons différentes façons de prédire les valeurs de dispersion chromatique et d'atténuation dans les fibres microstructurées à coeur suspendu en utilisant les notions et équations discutés dans les deux premiers chapitres. Le choix de la géométrie, du matériau et de la longueur d'onde de la lumière transmise sont parmi les variables étudiées numériquement. Nous ferons également un exemple détaillé d'utilisation du logiciel Comsol Multiphysics pour construire un modèle de fibre optique microstructurée.
134

Comparing inverse probability of treatment weighting methods and optimal nonbipartite matching for estimating the causal effect of a multicategorical treatment

Diop, Serigne Arona 18 April 2019 (has links)
Des débalancements des covariables entre les groupes de traitement sont souvent présents dans les études observationnelles et peuvent biaiser les comparaisons entre les traitements. Ce biais peut notamment être corrigé grâce à des méthodes de pondération ou d’appariement. Ces méthodes de correction ont rarement été comparées dans un contexte de traitement à plusieurs catégories (>2). Nous avons mené une étude de simulation pour comparer une méthode d’appariement optimal non-biparti, la pondération par probabilité inverse de traitement ainsi qu’une pondération modifiée analogue à l’appariement (matching weights). Ces comparaisons ont été effectuées dans le cadre de simulation de type Monte Carlo à travers laquelle une variable d’exposition à 3 groupes a été utilisée. Une étude de simulation utilisant des données réelles (plasmode) a été conduite et dans laquelle la variable de traitement avait 5 catégories. Parmi toutes les méthodes comparées, celle du matching weights apparaît comme étant la plus robuste selon le critère de l’erreur quadratique moyenne. Il en ressort, aussi, que les résultats de la pondération par probabilité inverse de traitement peuvent parfois être améliorés par la troncation. De plus, la performance de la pondération dépend du niveau de chevauchement entre les différents groupes de traitement. La performance de l’appariement optimal nonbiparti est, quant à elle, fortement tributaire de la distance maximale pour qu’une paire soit formée (caliper). Toutefois, le choix du caliper optimal n’est pas facile et demeure une question ouverte. De surcroît, les résultats obtenus avec la simulation plasmode étaient positifs, dans la mesure où une réduction importante du biais a été observée. Toutes les méthodes ont pu réduire significativement le biais de confusion. Avant d’utiliser la pondération de probabilité inverse de traitement, il est recommandé de vérifier la violation de l’hypothèse de positivité ou l’existence de zones de chevauchement entre les différents groupes de traitement
135

Mesures de risque et dépendance

Mailhot, Mélina 19 April 2018 (has links)
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités. / In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
136

Mouvement de l'ensemble de Julia des polynômes en itération aléatoire

Fortier, Jérôme 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / L'ensemble de Julia d'une fonction rationnelle, issu de la théorie dite classique de l'itération, possède une généralisation à une théorie dite aléatoire, où les fonctions appliquées peuvent être différentes d'une itération à l'autre. En restreignant notre étude de l'itération aléatoire aux cas où les suites de fonctions considérées sont des suites dites bornées de polynômes, plusieurs phénomènes de la théorie classique se généralisent, et on se demande jusqu'à quel point c'est le cas. On étudie donc les liens entre les deux théories via la question suivante : comment est modifié l'ensemble de Julia lorsque les coefficients des fonctions qui l'engendrent sont modifiés? Un théorème classique décrit ainsi l'ensemble de Julia comme ressemblant à une multifonction méromorphe, et on tente de généraliser celui-ci. Il faut donc, d'abord, décrire les grandes lignes de la théorie l'itération et de celle des multifonctions méromorphes.
137

Integral means of the derivatives of Blaschke products and zero sequences for the Dirichlet space

Shabankhah, Mahmood 13 April 2018 (has links)
Ce travail s'inscrit dans le cadre général de la théorie des espaces de fonctions holomorphes du disque unité. Depuis son apparution au début du 20e siècle cette théorie a retenu l 'attention des analystes. Grâce à leurs travaux, les propriétés et les connexions de ces espaces avec des sujets variés en analyse complexe et en théorie des opérateurs sont maintenant largement connues. Malgré tous les progrès faits, il reste encore des problèmes ouverts par rapport à ces espaces qui sont faciles à énoncer mais extrêmement difficiles à résoudre. La première partie de cette thèse porte sur les moyennes intégrales des dérivées logarithmiques des produits de Blaschke. Plus précisément , nous allons établir de nouvelles estimations pour les moyennes de Hardy et de Bergman pondérées du rapport B(ℓ) / B d 'un produit de Blaschke B qui divise sa ℓ > ou = 1, lorsque les zéros de B satisfont une condition de séparation de type hyperbolique. Ensuite, nous allons montrer que nos estimations entraînent et généralisent les résultats classiques connus sur ces moyennes. Notre approche est basée sur une technique qui a été récemment dévéloppée par Javad Mashreghi , mon directeur de thèse, et Emmanuel Fricain. Dans la deuxième partie de cette thèse, nous allons aborder la question de la caractérisation des zéros de Pespace de Dirichlet classique V. En fait, cette question est extrêmement difficile et reste toujours ouverte. Cependant, en procédant par une nouvelle approche, nous allons obtenir des conditions suffisantes pour qu'une suite soit une suite de zéros pour V. De plus, nous allons donner une caractérisation de certains sous-ensembles du cercle unité, appelés les enselnbles de Carleson , en termes de leurs sous-suites convergentes. Cette caractérisation donne lieu à quelques résultats intéressants sur les zéros de V. Dans un premier temps, nous allons obtenir une caractérisation des sous-ensembles E du cercle unité qui ont la propriété suivante: toute suite de points dont les arguments sont dans E et qui est une suite de Blaschke, est nécessairement une suite de zéros pour V. Dans un deuxième temps, nous allons obtenir un nouveau critère pour les ensembles de Blaschke de V.
138

Analyse de l'impact d'une intervention à grande échelle avec le modèle de risques proportionnels de Cox avec surplus de zéros : application au projet Avahan de lutte contre le VIH/SIDA en Inde

Loko, Houdété Odilon 20 April 2018 (has links)
L’évaluation de l’impact des interventions à grande échelle est nécessaire dans un contexte de rareté des ressources. La rapidité de leur mise en oeuvre et certaines raisons éthiques font qu’on ne randomise pas les populations en groupes témoin et traitement. La non disponibilité de données fiables avant le démarrage des interventions ajoute aux difficultés. Certains ont proposé, dans ce cas, la reconstruction de l’historique des données à partir d’enquêtes. Dans le cas du projet Avahan pour lutter contre le VIH/SIDA, pour déterminer son effet sur l’utilisation du condom par les travailleuses du sexe, nous avons proposé une méthode qui est un mélange des modèles de régression logistique et de Cox. Nous comparons notre méthode à une basée sur les équations d’estimation généralisées en utilisant une simulation et les données d’Avahan. Les résultats montrent que notre méthode est plus puissante, mais moins robuste.
139

Méthodes du calcul de la prime : Bonus-malus, Réassurance, Système aléatoire à la liaisons complètes

Essis-Breton, Nicolas 16 April 2018 (has links)
Dans ce mémoire, nous considérons différentes méthodes du calcul de la prime et de révision de la prime. Dans l'introduction, nous examinons d'abord les propriétés souhaitables d'un calcul de la prime ainsi que les différentes méthodes pour déterminer un principe de prime. Nous nous concentrons ensuite sur deux contextes où le principe de prime est déterminé de façon à réviser la prime en fonction de l'expérience de l'assuré. Nous considérons aussi un contexte où les aspects numériques reliés au calcul d'un principe de prime peuvent être analysés. Avec les systèmes bonus-malus, nous présentons une méthode classique de révision de la prime. Puis, après une analyse des principaux produits de réassurance, nous expliquons différentes méthodes numériques pour évaluer la prime. Avec les systèmes aléatoires à liaisons complètes, nous introduisons une approche nouvelle au problème de révision de la prime qui permet de déterminer des principes de prime optimaux dans certaines situations. / [Bonus malus ; Système aléatoire à liaisons complètes]
140

Métriques perceptuelles pour la compression d'images : éude et comparaison des algorithmes JPEG et JPEG2000.

Brunet, Dominique 13 April 2018 (has links)
Les algorithmes de compression d'images JPEG et JPEG2000 sont présentés, puis comparés grâce à une métrique perceptuelle. L'algorithme JPEG décompose une image par la transformée en cosinus discrète, approxime les coefficients transformés par une quantisation uniforme et encode le résultat par l'algorithme de Huffman. Pour l'algorithme JPEG2000, on utilise une transformée en ondelettes décomposant une image en plusieurs résolutions. On décrit et justifie la construction d'ondelettes orthogonales ou biorthogonales ayant le maximum de propriétés parmi les suivantes: valeurs réelles, support compact, plusieurs moments, régularité et symétrie. Ensuite, on explique sommairement le fonctionnement de l'algorithme JPEG2000, puis on montre que la métrique RMSE n'est pas bonne pour mesurer l'erreur perceptuelle. On présente donc quelques idées pour la construction d'une métrique perceptuelle se basant sur le fonctionnement du système de vision humain, décrivant en particulier la métrique SSIM. On utilise finalement cette dernière métrique pour conclure que JPEG2000 fait mieux que JPEG. / In the present work we describe the image compression algorithms: JPEG and JPEG2000. We then compare them using a perceptual metric. JPEG algorithm decomposes an image with the discrete cosine transform, the transformed map is then quantized and encoded with the Huffman code. Whereas the JPEG2000 algorithm uses wavelet transform to decompose an image in many resolutions. We describe a few properties of wavelets and prove their utility in image compression. The wavelets properties are for instance: orthogonality or biorthogonality, real wavelets, compact support, number of moments, regularity and symmetry. We then briefly show how does JPEG2000 work. After we prove that RMSE error is clearly not the best perceptual metric. So forth we suggest other metrics based on a human vision system model. We describe the SSIM index and suggest it as a tool to evaluate image quality. Finally, using the SSIM metric, we show that JPEG2000 surpasses JPEG.

Page generated in 0.0269 seconds