• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 6
  • 1
  • Tagged with
  • 62
  • 62
  • 44
  • 43
  • 43
  • 43
  • 29
  • 20
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Prédiction de l'attrition en date de renouvellement en assurance automobile avec processus gaussiens

Pannetier Lebeuf, Sylvain 08 1900 (has links)
Le domaine de l’assurance automobile fonctionne par cycles présentant des phases de profitabilité et d’autres de non-profitabilité. Dans les phases de non-profitabilité, les compagnies d’assurance ont généralement le réflexe d’augmenter le coût des primes afin de tenter de réduire les pertes. Par contre, de très grandes augmentations peuvent avoir pour effet de massivement faire fuir la clientèle vers les compétiteurs. Un trop haut taux d’attrition pourrait avoir un effet négatif sur la profitabilité à long terme de la compagnie. Une bonne gestion des augmentations de taux se révèle donc primordiale pour une compagnie d’assurance. Ce mémoire a pour but de construire un outil de simulation de l’allure du porte- feuille d’assurance détenu par un assureur en fonction du changement de taux proposé à chacun des assurés. Une procédure utilisant des régressions à l’aide de processus gaus- siens univariés est développée. Cette procédure offre une performance supérieure à la régression logistique, le modèle généralement utilisé pour effectuer ce genre de tâche. / The field of auto insurance is working by cycles with phases of profitability and other of non-profitability. In the phases of non-profitability, insurance companies generally have the reflex to increase the cost of premiums in an attempt to reduce losses. For cons, very large increases may have the effect of massive attrition of the customers. A too high attrition rate could have a negative effect on long-term profitability of the company. Proper management of rate increases thus appears crucial to an insurance company. This thesis aims to build a simulation tool to predict the content of the insurance portfolio held by an insurer based on the rate change proposed to each insured. A proce- dure using univariate Gaussian Processes regression is developed. This procedure offers a superior performance than the logistic regression model typically used to perform such tasks.
22

Modèle de mélange de lois multinormales appliqué à l'analyse de comportements et d'habiletés cognitives d'enfants.

Giguère, Charles-Édouard 11 1900 (has links)
Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter. / This study is about the use of mixture to model behavioral and cognitive data measured repeatedly across development in children. Estimation of multinormal mixture models using the EM algorithm is explained in detail. This algorithm simplifies computation of mixture models because the parameters in each group are estimated separately, allowing to model covariance across time more easily. This last point is often disregarded when estimating mixture models. This study focused on the consequences of a misspecified covariance matrix when estimating the number of groups in a mixture. The main consequence is an overestimation of the number of groups, i.e. we estimate groups that do not exist. In particular, the independence assumption of the observations across time when they were in fact correlated resulted in estimating many non existing groups. This overestimation of the number of groups also resulted in an overfit of the model, i.e. we used more parameters than necessary. Finally mixture models were fitted to behavioral and cognitive data. We fitted the data first assuming a covariance structure, then assuming independence. In most cases, the analyses conducted assuming a covariance structure ended up having fewer groups and the results were simpler and clearer to interpret.
23

Partition adaptative de l’espace dans un algorithme MCMC avec adaptation régionale

Grenon-Godbout, Nicolas 06 1900 (has links)
No description available.
24

Modèle de mélange de lois multinormales appliqué à l'analyse de comportements et d'habiletés cognitives d'enfants

Giguère, Charles-Édouard 11 1900 (has links)
No description available.
25

Caractérisation de l'interface fibre/matrice : application aux composites polypropylène/chanvre / Fibre/matrix interface characterization : application to hemp fiber/polypropylene composites

Nguyen, Duy Cuong 11 May 2016 (has links)
Les agro-composites font l'objet de nombreuses études et applications industrielles en raison des multiples propriétés mécaniques qu'ils présentent. Ces propriétés présentent de grandes perspectives comparées à celles des composites traditionnels. Cependant les connaissances sur le comportement mécanique de l'interface fibre/matrice restent limitées. De plus, la différence de propriété entre la fibre hydrophile et la matrice hydrophobe peut causer des défauts au niveau de l’interface. Il est donc important de caractériser finement la décohésion à l'interface au cours d'une sollicitation. Plusieurs méthodes ont été proposées dans la littérature, elles sont généralement très complexes à mettre en œuvre et sont coûteuses. Dans cette étude, nous avons développé une méthode de caractérisation en se basant sur l'essai de « pull-out ». La géométrie de la fibre a été prise en compte dans le calcul des propriétés mécaniques de l'interface par la mise à profit d'une approche inspirée de la tomographie. L'influence de la température d'élaboration sur les propriétés mécaniques de l'interface a été étudiée de manière à définir la température optimale. L'évolution des propriétés interfaciales a été suivie au cours d'un vieillissement en humidité relative. Après quatre semaines, la résistance au cisaillement et la rigidité au cisaillement de l'interface sont diminuées fortement alors que la déformation à la rupture est augmentée / Agro-composites are increasingly studied and applied to various industries over recent years due to good mechanical properties compared to conventional composites especially in terms of specific values. However, since low adhesion between the hydrophilic fiber and hydrophobic matrix, which occurs one of the main breaks modes in this kind of material, the characterization of the interface becomes a key problem. For investigation of this issue, existing methods show limitation for reasons of complexity (in preparation, in principle) and of cost. In this study, we developed a « pull-out ». In particular, the real fiber geometry of the plant fiber was taken into the calculation of mechanical properties of interface using a tomography inspired method. By checking the effective temperature of the molding then varying it, we studied the effect of this processing parameter to mechanical properties of fibre/matrix interface and determined the optimal conditions. The developed experimental protocol is applied to aged interfaces in order to clarifying the evolution of interfacial properties during the aging time to relative humidity. After four weeks, the interfacial shear strength and the shear modulus of the interface were greatly reduced while the shear deformation at the rupture was greatly increased
26

Effet Marangoni aux interfaces fluides / Marangoni effect at fluid interfaces

Le Roux, Sébastien 10 July 2015 (has links)
Nous présentons au cours de ce manuscrit diverses expériences de dépôt de tensioactifs solubles dans l'eau à l'interface entre deux fluides. Après quelques développements théoriques, nous étudions l'étalement de tensioactifs solubles déposés à une interface eau/air. Nous présentons au cours de cette partie deux configurations expérimentales dans lesquelles ces molécules exhibent une vitesse caractéristique d'écoulement induit ainsi qu'une distance finie d'étalement dépendant de la CMC du surfactant utilisé, qui se traduit par l'apparition d'une tache centimétrique à la surface de l'eau. Nous mettons alors au point un protocole de mesure simple et rapide de CMC utilisant notre dispositif expérimental. À cet étalement s'ajoutent une déformation verticale de l'interface, la mise en place d'une double recirculation toroïdale, ainsi qu'une instabilité hydrodynamique de surface tout autour de la tache. La deuxième expérience porte sur l'étalement de tensioactifs solubles à une interface eau/huile. Dans cette expérience, les déformations verticales induites par l'étalement peuvent devenir très importantes, si bien que sous certaines conditions cette déformation crée un trou dans la couche d'huile. Nous nous penchons donc sur l'étude de ces déformations verticales, ainsi que sur les caractéristiques de ce cratère. Enfin, la dernière partie traite du dépôt d'une goutte de Triton X-100 à la surface de l'eau. Ce tensioactif possède la propriété de gélifier lorsqu'il est hydraté, ce qui lui permet de flotter. On observe alors un phénomène d'auto-propulsion de la goutte. Nous nous intéressons plus particulièrement à la structure microscopique de cette phase gel, ainsi qu'aux trajectoires erratiques empruntées par la goutte. / We report experiments about the deposition of water soluble surfactants at the interface between two fluids. After some theoretical developments, we study the spreading of water soluble amphiphiles at the water/air interface. In this part, we present two experimental setups where these molecules show a typical induced flow velocity, and a finite spreading distance, depending on the CMC of surfactant we use, which results in the apparition of a coronna on the surface of the liquid. We then set up a fast and simple CMC measurement protocole using our experimental setup. This spreading induces also a vertical deformation of the interface, a double toroidal recirculation in the bulk, and a beatiful hydrodynamic surface instability all around the coronna. The second experiment is about the spreading of amphiphiles at the interface between oil and water. In this experiment, the vertical deformations induced by the spreading can become so important that under certain circumstances, we manage to create a hole in the oil layer. We focus on the study of these vertical deformations and on the caracteristics of this hole. Finally, the last experiment is about the deposition of a Triton X-100 drop at the water/air interface. This molecule has the ability to gelify when it gets hydrated, allowing him to float. Then we can observe the self propulsion of the droplet. We focus on the microscopic structure of this gel phase, and also on the erratic trajectories followed by the drop.
27

Efficacité de l’algorithme EM en ligne pour des modèles statistiques complexes dans le contexte des données massives

Martel, Yannick 11 1900 (has links)
L’algorithme EM (Dempster et al., 1977) permet de construire une séquence d’estimateurs qui converge vers l’estimateur de vraisemblance maximale pour des modèles à données manquantes pour lesquels l’estimateur du maximum de vraisemblance n’est pas calculable. Cet algorithme est remarquable compte tenu de ses nombreuses applications en apprentissage statistique. Toutefois, il peut avoir un lourd coût computationnel. Les auteurs Cappé et Moulines (2009) ont proposé une version en ligne de cet algorithme pour les modèles appartenant à la famille exponentielle qui permet de faire des gains d’efficacité computationnelle importants en présence de grands jeux de données. Cependant, le calcul de l’espérance a posteriori de la statistique exhaustive, qui est nécessaire dans la version de Cappé et Moulines (2009), est rarement possible pour des modèles complexes et/ou lorsque la dimension des données manquantes est grande. On doit alors la remplacer par un estimateur. Plusieurs questions se présentent naturellement : les résultats de convergence de l’algorithme initial restent-ils valides lorsqu’on remplace l’espérance par un estimateur ? En particulier, que dire de la normalité asymptotique de la séquence des estimateurs ainsi créés, de la variance asymptotique et de la vitesse de convergence ? Comment la variance de l’estimateur de l’espérance se reflète-t-elle sur la variance asymptotique de l’estimateur EM? Peut-on travailler avec des estimateurs de type Monte-Carlo ou MCMC? Peut-on emprunter des outils populaires de réduction de variance comme les variables de contrôle ? Ces questions seront étudiées à l’aide d’exemples de modèles à variables latentes. Les contributions principales de ce mémoire sont une présentation unifiée des algorithmes EM d’approximation stochastique, une illustration de l’impact au niveau de la variance lorsque l’espérance a posteriori est estimée dans les algorithmes EM en ligne et l’introduction d’algorithmes EM en ligne permettant de réduire la variance supplémentaire occasionnée par l’estimation de l’espérance a posteriori. / The EM algorithm Dempster et al. (1977) yields a sequence of estimators that converges to the maximum likelihood estimator for missing data models whose maximum likelihood estimator is not directly tractable. The EM algorithm is remarkable given its numerous applications in statistical learning. However, it may suffer from its computational cost. Cappé and Moulines (2009) proposed an online version of the algorithm in models whose likelihood belongs to the exponential family that provides an upgrade in computational efficiency in large data sets. However, the conditional expected value of the sufficient statistic is often intractable for complex models and/or when the missing data is of a high dimension. In those cases, it is replaced by an estimator. Many questions then arise naturally: do the convergence results pertaining to the initial estimator hold when the expected value is substituted by an estimator? In particular, does the asymptotic normality property remain in this case? How does the variance of the estimator of the expected value affect the asymptotic variance of the EM estimator? Are Monte-Carlo and MCMC estimators suitable in this situation? Could variance reduction tools such as control variates provide variance relief? These questions will be tackled by the means of examples containing latent data models. This master’s thesis’ main contributions are the presentation of a unified framework for stochastic approximation EM algorithms, an illustration of the impact that the estimation of the conditional expected value has on the variance and the introduction of online EM algorithms which reduce the additional variance stemming from the estimation of the conditional expected value.
28

Efficacité des distributions instrumentales en équilibre dans un algorithme de type Metropolis-Hastings

Boisvert-Beaudry, Gabriel 08 1900 (has links)
Dans ce mémoire, nous nous intéressons à une nouvelle classe de distributions instrumentales informatives dans le cadre de l'algorithme Metropolis-Hastings. Ces distributions instrumentales, dites en équilibre, sont obtenues en ajoutant de l'information à propos de la distribution cible à une distribution instrumentale non informative. Une chaîne de Markov générée par une distribution instrumentale en équilibre est réversible par rapport à la densité cible sans devoir utiliser une probabilité d'acceptation dans deux cas extrêmes: le cas local lorsque la variance instrumentale tend vers 0 et le cas global lorsqu'elle tend vers l'infini. Il est nécessaire d'approximer les distributions instrumentales en équilibre afin de pouvoir les utiliser en pratique. Nous montrons que le cas local mène au Metropolis-adjusted Langevin algorithm (MALA), tandis que le cas global mène à une légère modification du MALA. Ces résultats permettent de concevoir un nouvel algorithme généralisant le MALA grâce à l'ajout d'un nouveau paramètre. En fonction de celui-ci, l'algorithme peut utiliser l'équilibre local ou global ou encore une interpolation entre ces deux cas. Nous étudions ensuite la paramétrisation optimale de cet algorithme en fonction de la dimension de la distribution cible sous deux régimes: le régime asymptotique puis le régime en dimensions finies. Diverses simulations permettent d'illustrer les résultats théoriques obtenus. De plus, une application du nouvel algorithme à un problème de régression logistique bayésienne permet de comparer son efficacité à des algorithmes existants. Les résultats obtenus sont satisfaisants autant d'un point de vue théorique que computationnel. / In this master's thesis, we are interested in a new class of informed proposal distributions for Metropolis-Hastings algorithms. These new proposals, called balanced proposals, are obtained by adding information about the target density to an uninformed proposal distribution. A Markov chain generated by a balanced proposal is reversible with respect to the target density without the need for an acceptance probability in two extreme cases: the local case, where the proposal variance tends to zero, and the global case, where it tends to infinity. The balanced proposals need to be approximated to be used in practice. We show that the local case leads to the Metropolis-adjusted Langevin algorithm (MALA), while the global case leads to a small modification of the MALA. These results are used to create a new algorithm that generalizes the MALA by adding a new parameter. Depending on the value of this parameter, the new algorithm will use a locally balanced proposal, a globally balanced proposal, or an interpolation between these two cases. We then study the optimal choice for this parameter as a function of the dimension of the target distribution under two regimes: the asymptotic regime and a finite-dimensional regime. Simulations are presented to illustrate the theoretical results. Finally, we apply the new algorithm to a Bayesian logistic regression problem and compare its efficiency to existing algorithms. The results are satisfying on a theoretical and computational standpoint.
29

Paramètres de résistance de l'interface gravier-enrobé bitumineux du barrage de la Romaine-2

Soud, Ibrahim January 2012 (has links)
La résolution d'un problème d'interaction gravier-enrobé bitumineux dans les barrages en remblai avec des noyaux bitumineux nécessite la connaissance du comportement des interfaces entre ces deux matériaux. Ce travail constitue une contribution dans ce sens. Des échantillons ont été confectionnés dans le laboratoire en utilisant des pierres concassées dont la granulométrie est médiane et un enrobé bitumineux caractéristique de la Romaine 2. L’appareil de cisaillement direct a été utilisé pour réaliser les essais sur ces échantillons sous une contrainte normale constante. En plus de l’effet de la contrainte normale appliqué, les influences de différents paramètres tels que la température, la vitesse de cisaillement et le pourcentage de bitume de l’interface ont été explorés. La conclusion majeure que l’on peut tirer de ces essais est que le comportement de l’interface susmentionnée est dominé par l’enrobé bitumineux et que l’enveloppe de rupture de cette interface, dans des conditions de vitesse de cisaillement très faible ou de température très élevée, passerait par l’origine et ayant un angle de frottement égal à 38.7°. Mots clés Interface; gravier-enrobé bitumineux ; Cisaillement direct ; vitesse de cisaillement ; température; enveloppe de rupture; barrage en remblai avec de noyau bitumineux. / The resolution of the problem of interaction gravel-asphalt in embankment dams with bituminous cores requires the knowledge of interfaces behavior between these two materials. This work is a contribution in this direction. Specimens were made in the laboratory using crushed stones owing a median particle size distribution and a characteristic asphalt of the Romaine 2. The direct shear device was used to perform the tests on these samples under a constant normal stress. In addition to the effect of applied normal stress, the influences of various parameters such as temperature, shear rate and the percentage of bitumen in the interface were explored. The major conclusion that can be drawn from these tests is that the behavior of the aforementioned interface is dominated by the asphalt and the failure envelope of this interface in conditions of very low shear rate or very high temperature, passes through the origin with a friction angle equal to 38.7 °. Keywords Interface; gravel-asphalt; direct shear; shear rate; temperature; failure envelope; ACRD.
30

Une méthode d'éléments finis adaptive pour les problèmes à surfaces libres instationnaires

Benmoussa, Khalid 11 April 2018 (has links)
Le calcul des surfaces libres a fait l'objet de plusieurs ouvrages. L'objectif de ces travaux est de calculer avec précision les interfaces entre fluides immiscibles en minimisant la diffusion numérique et les pertes de masse. Plusieurs techniques existent pour effectuer de telles simulations et dans ce travail, on présente une variante améliorée de la méthode des surfaces de niveau (« level-set method »). Cette méthode requiert la résolution d'une équation de transport pour l'interface, couplée à la résolution des équations de NavierStokes. Dans la méthode proposée, l'interface est représentée par la surface de niveau 0 de la fonction distance signée. Cette interface présente une zone de transition de largeur 2e des paramètres rhéologiques des deux fluides comme la viscosité et la densité. Ces paramètres sont régularisés à l'interface pour éviter de gérer des discontinuités. La tension superficielle caractérise la résistance à la déformation de l'interface et joue un rôle très important. Il est donc primordial de bien l'imposer comme terme source dans l'équation de Navier-Stokes, ce qui est réalisé par l'introduction d'un tenseur qui agit uniquement à l'interface. Pour remédier au problème de conservation de la masse, nous avons développé une technique qui consiste à modifier la surface de niveau 0 de manière à conserver le volume. Cette correction est calculée avec la méthode de la sécante. Toutes ces stratégies sont facilitées par l'introduction d'une méthode d'adaptation de maillage instationnaire permettant de concentrer les éléments au voisinage de l'interface, là où le besoin s'en fait sentir. Cela assure une imposition très précise des forces surfaciques ainsi que de la transition des caractéristiques rhéologiques des différents fluides. Ce remaillage adaptatif est basé sur un estimateur d'erreur hiérarchique en dimension 2 et sur un estimateur basé sur une métrique en dimension 3. La résolution des équations de Navier-Stokes est faite par une méthode directe en dimension 2 et par une méthode itérative en dimension 3. L'élément de Taylor-Hood et un schéma implicite de différences arrières d'ordre 2 sont utilisés pour les discrétisations en espace et en temps. On utilise une méthode SUPG pour les équations de transport et de régularisation de l'interface. Enfin, plusieurs problèmes sont traités afin de valider la méthode et de comparer nos résultats avec ceux obtenus par d'autres chercheurs et différentes méthodes. On soulève enfin un certain nombre de questions sur les méthodes employées dans la littérature.

Page generated in 0.0545 seconds