• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 2
  • Tagged with
  • 17
  • 17
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Eléments aléatoires à valeurs convexes compactes

Van Cutsem, Bernard 30 June 1971 (has links) (PDF)
.
2

Modélisation d'une variable aléatoire à l'aide d'un réseau

Jarras, Heikel 28 September 2023 (has links)
Titre de l'écran-titre (visionné le 25 septembre 2023) / Le domaine de l'assurance regorge de toutes sortes de données. Avec des milliers, voire des millions de clients, les compagnies d'assurance ont su emmagasiner un nombre impressionnant d'informations. À partir de celles-ci, elles sont en mesure de développer plusieurs modèles qui leur permettent d'anticiper le comportement de leur clientèle. Elles ont maintenant à leur disposition des modèles qui permettent d'estimer le temps restant avant qu'un client n'abandonne une police d'assurance de dommages. Une compagnie d'assurance souhaite cependant approfondir ses connaissances et améliorer ses prévisions en étudiant l'influence des relations entre les clients sur l'abandon d'une police d'assurance. Certaines données descriptives des clients sont disponibles ainsi que cinq fichiers qui lient les individus à des identifiants de groupe. Ces derniers sont utilisés pour créer des réseaux représentant les relations qui existent entre les clients de la compagnie. L'objectif de ce mémoire est donc d'explorer les données réseaux et de comprendre l'impact que les relations peuvent avoir sur certaines variables, plus particulièrement sur l'abandon d'une police d'assurance de dommages. Des statistiques descriptives en lien avec les réseaux, comme le nombre de liens entre deux individus qui abandonnent ou l'assortativité, permettent rapidement de savoir s'il est pertinent de continuer l'exploration ou non. Par la suite, un test de permutation permet de mieux comprendre l'influence des relations sur le fait qu'un client abandonne ou non. Puis, pour terminer, un modèle statistique qui permet d'estimer une matrice de covariance à partir des relations d'un réseau est présenté. / The insurance sector is full of all kinds of data. With thousands, if not millions, of customers, insurance companies have accumulated a substantial amount of information. From this information, they can develop several models that allow them to anticipate their customer's behavior. They now have models that allow them to estimate the remaining time before a customer cancels their insurance policy. However, an insurance company wishes to deepen their understanding, and improve predictions by studying the influence of relationships between clients on the cancellation of damage insurance policies. Some descriptive data on the customers is available, as well as five files linking individuals to groups. This is how the networks are created. The objective of this thesis is therefore to explore network data and understand the influence that relationships can have on certain descriptive variables, and more specifically on the cancellation of a damage insurance policy. Descriptive statistics related to networks, such as the number of links between two individuals who cancel or assortativity, quickly allow us to know if it is relevant to continue the exploration or not. Then, the permutation test allows us to better understand the influence of relationships on the cancellation of the insurance policy. Finally, a statistical model that allows us to estimate a covariance matrix from a network is presented.
3

Détection des valeurs aberrantes dans un échantillon gaussien multidimensionnel

Garel, Bernard 28 June 1976 (has links) (PDF)
.
4

Une information sur les matrices de covariance : la liaison-information

Michaux, Christian 30 June 1973 (has links) (PDF)
.
5

Étude d'une classe d'estimateurs à noyau de la densité d'une loi de probabilité

Abdous, Belkacem 23 January 2019 (has links)
Dans ce travail nous donnons un aperçu des plus intéressantes approches visant à déterminer la fenêtre optimale en estimation de la densité d’une loi de probabilité par la méthode du noyau. Nous construisons ensuite une classe d’estimateurs à noyau de la densité pour lesquels nous avons établi des conditions suffisantes de convergence uniforme presque sûre et L¹ presque sûre vers la densité à estimer f [f incliné vers la droite]. Cette classe d’estimateurs à noyau étant assez générale, elle nous a permis d’appliquer ces résultats de convergence à des estimateurs à noyau classiques comme ceux de Deheuvels (1977-a), Shanmugam (1977), Bierens (1983), et Devroye et Wagner (1983). Elle nous a permis également, de construire une famille d’estimateurs à noyau de moyenne μn et de matrice de variance-covariance Vn, où fin est un estimateur non spécifié de la moyenne de / et Vn, à une constante multiplicative près, la matrice de variance-covariance empirique. Enfin, en simulant quelques modèles univariés connus, nous avons comparé les performances de l’estimateur à noyau de Parzen-Rosenblatt avec celles de l’estimateur à noyau de variance la variance empirique et de moyenne /xn, où a été choisi comme étant la moyenne empirique X n ou bien la médiane X n ou bien la moyenne empirique a-tronquée (a = 0.1) ou bien l’estimateur de Gastwirth (1966). / Québec Université Laval, Bibliothèque 2018
6

Modélisation du risque de liquidité et méthodes de quantification appliquées au contrôle stochastique séquentiel

Gassiat, Paul 07 December 2011 (has links) (PDF)
Cette thèse est constituée de deux parties pouvant être lues indépendamment. Dans la première partie on s'intéresse à la modélisation mathématique du risque de liquidité. L'aspect étudié ici est la contrainte sur les dates des transactions, c'est-à-dire que contrairement aux modèles classiques où les investisseurs peuvent échanger les actifs en continu, on suppose que les transactions sont uniquement possibles à des dates aléatoires discrètes. On utilise alors des techniques de contrôle optimal (programmation dynamique, équations d'Hamilton-Jacobi-Bellman) pour identifier les fonctions valeur et les stratégies d'investissement optimales sous ces contraintes. Le premier chapitre étudie un problème de maximisation d'utilité en horizon fini, dans un cadre inspiré des marchés de l'énergie. Dans le deuxième chapitre on considère un marché illiquide à changements de régime, et enfin dans le troisième chapitre on étudie un marché où l'agent a la possibilité d'investir à la fois dans un actif liquide et un actif illiquide, ces derniers étant corrélés. Dans la deuxième partie on présente des méthodes probabilistes de quantification pour résoudre numériquement un problème de switching optimal. On considère d'abord une approximation en temps discret du problème et on prouve un taux de convergence. Ensuite on propose deux méthodes numériques de quantification : une approche markovienne où on quantifie la loi normale dans le schéma d'Euler, et dans le cas où la diffusion n'est pas contrôlée, une approche de quantification marginale inspirée de méthodes numériques pour le problème d'arrêt optimal.
7

Point predictions for objectively known distributions

Pierrot, Thibaud 19 April 2018 (has links)
L’objectif de ce mémoire est de mieux comprendre comment les agents résument une distribution de probabilité en un point. Nous proposons une approche expérimentale permettant d’observer la relation entre les prédictions des agents pour la réalisation future d’une variable aléatoire et la distribution de probabilité objective de cette variable. Pour ce faire, nous avons créé et conduit une experience durant laquelle nous montrons à nos sujets différentes distributions de probabilités pour des variables aléatoires. Leur tâche est de résumer ces distributions en une prédiction pour la réalisation suivante de la variable aléatoire considérée. Nous analysons les données receuillies lors de cette experience afin de verifier la pertinence de celles-ci. Nous montrons que la base de données produite contient des informations pertinentes concernant le lien entre prediction et distribution de probabilité. Par la suite, nous tentons d’établir une relation dirècte entre les prédictions rapportées et les percentiles des distributions de probabilité. Nous trouvons que 32% de nos sujets rapportent une prédiction contenue dans l’intervalle de percentile [40 ; 68] pour au moins 50% des distributions. Toutefois, cette relation semble avoir un pouvoir explicatif relativement faible. Mots clefs : Prédiction - Distribution de Probabilité - Croyances - Prise de Décision Face au Risque - Règles de Score Propres - Methode Expérimentale / The objective of this thesis is to better understand how people summarize their subjective distributions when asked for point predictions. We propose an experimental approach to investigate the relationship between point predictions reported by agents for the realization of a random variable and its objectively known probability distribution. We designed and conducted an experiment in which we were showing to our subjects the distributions for a random variable and asked them to report a point summarizing their beliefs for the next realization. We conduct a descriptive analysis to verify whether the data we collected in our experiment are pertinent. We then investigate whether percentiles of the distribution could be an explanation for our subjects’ point predictions. We find that the distributions have an influence on the predictions and that 32% of the subjects report predictions corresponding to a percentile included in the range [40; 68] for more than 50% of the distributions. Consequently, we can see that the database must contain relevant information as to how the subjects summarize distributions into point predictions but percentiles only seem to be a weak explanatory factor for the relationship between distributions and point predictions. Keywords: Point predictions - Probability distribution - Beliefs - Decision making under risk - Proper Scoring Rules - Experimental method
8

Analyse modale des structures avec incertitudes par la méthode des éléments finis stochastiques spectrale

Ahmad, Jalaa 24 June 2009 (has links) (PDF)
Dans le cadre de la modélisation de structures comportant des paramètres incertains, nous nous intéressons aux caractéristiques spectrales des systèmes mécaniques. Alternatives aux méthodes de Monte-Carlo pour le traitement des problèmes de propagation d'incertitudes dans les modèles mécaniques structuraux, les méthodes d'éléments finis stochastiques (MEFS) connaissent un succès grandissant depuis une dizaine d'années, concrétisé par de nombreux travaux de recherche internationaux. Le présent travail s'inscrit dans le cadre de ces recherches. Dans cette optique, nous décrivons dans une première partie les caractéristiques spectrales, aussi bien les valeurs propres que les modes propres, des structures comportant des paramètres modélisés par des variables aléatoires ou par des champs aléatoires. Pour ce faire, nous utilisons la méthode spectrale des éléments finis stochastiques, que nous avons étendue au calcul des valeurs et vecteurs propres. Les propriétés du matériau sont modélisées par un développement de Karhunen-Loève, alors que les valeurs et les vecteurs propres sont développés sur la base du chaos polynomial. Une méthode de résolution adoptée est proposée pour le découplage du système d'équations. La méthode proposée, essentiellement valable pour les problèmes linéaires, présente l'intérêt de permettre la prise en compte, non seulement de variables aléatoires, mais également de champs stochastiques pour la modélisation probabiliste des paramètres incertains du modèle. Quatre applications à différents niveaux de complexité permettent de juger de ses possibilités. Nous étudions ensuite le couplage de la conception robuste et de la MEFSS, cette dernière représente un outil puissant pour l'optimisation de la performance dynamique des systèmes mécaniques, puisqu'elle permet d'obtenir, à moindre coût, la moyenne et l'écart-type de la réponse, afin d'évaluer la solution robuste. L'intérêt de l'outil présenté est illustré par deux exemples sur des structures en automobile.
9

Théorèmes limites fonctionnels et estimation de la densité spectrale pour des suites stationnaires.

Dede, Sophie 26 November 2009 (has links) (PDF)
L'objet de ma thèse est l'étude du comportement de certaines distances entre la mesure empirique d'un processus stationnaire et sa loi marginale (distance de type Cramér-Von Mises ou de type Wasserstein), dans le cas de variables aléatoires dépendantes au sens large, incluant par exemple, certains systèmes dynamiques. Nous établissons, dans un second chapitre, un principe de déviations modérées, sous des conditions projectives, pour une suite stationnaire de variables aléatoires bornées à valeurs dans un espace de Hilbert H, que ce soit pour un processus adapté ou non. Parmi les applications, nous avons travaillé, non seulement à l'étude de la statistique de Cramér-Von Mises, mais aussi sur les fonctions de processus linéaires (importantes dans les problèmes de prédiction) et les chaines de Markov stables. Dans le troisième chapitre, nous donnons un Théorème Limite Central pour des suites stationnaires ergodiques de différences de martingales dans L^1. Puis, par une approximation par des différences de martingales, nous en déduisons un Théorème Limite Central pour des suites stationnaires ergodiques de variables aléatoires à valeurs dans L^1, et satisfaisant des conditions projectives. Ceci nous permet d'obtenir des résultats sur le comportement asymptotique de statistiques du type distance de Wasserstein pour une importante classe de suites dépendantes. En particulier, les résultats sont appliquées à l'étude de systèmes dynamiques, ainsi qu'à celle des processus linéaires causaux. Pour finir, afin de construire des intervalles de confiance asymptotiques pour la moyenne d'une suite stationnaire à partir du Théorème Limite Central, nous proposons un estimateur lissé de la densité spectrale. Dans ce dernier chapitre, nous donnons des critères projectifs pour la convergence dans L^1 d'un estimateur lissé de la densité spectrale. Cela nous permet via un Théorème Limite Central d'avoir des régions de confiance pour les paramètres dans un modèle de régression paramétrique.
10

Information-theoretic variable selection and network inference from microarray data

Meyer, Patrick E. 16 December 2008 (has links)
Statisticians are used to model interactions between variables on the basis of observed<p>data. In a lot of emerging fields, like bioinformatics, they are confronted with datasets<p>having thousands of variables, a lot of noise, non-linear dependencies and, only, tens of<p>samples. The detection of functional relationships, when such uncertainty is contained in<p>data, constitutes a major challenge.<p>Our work focuses on variable selection and network inference from datasets having<p>many variables and few samples (high variable-to-sample ratio), such as microarray data.<p>Variable selection is the topic of machine learning whose objective is to select, among a<p>set of input variables, those that lead to the best predictive model. The application of<p>variable selection methods to gene expression data allows, for example, to improve cancer<p>diagnosis and prognosis by identifying a new molecular signature of the disease. Network<p>inference consists in representing the dependencies between the variables of a dataset by<p>a graph. Hence, when applied to microarray data, network inference can reverse-engineer<p>the transcriptional regulatory network of cell in view of discovering new drug targets to<p>cure diseases.<p>In this work, two original tools are proposed MASSIVE (Matrix of Average Sub-Subset<p>Information for Variable Elimination) a new method of feature selection and MRNET (Minimum<p>Redundancy NETwork), a new algorithm of network inference. Both tools rely on<p>the computation of mutual information, an information-theoretic measure of dependency.<p>More precisely, MASSIVE and MRNET use approximations of the mutual information<p>between a subset of variables and a target variable based on combinations of mutual informations<p>between sub-subsets of variables and the target. The used approximations allow<p>to estimate a series of low variate densities instead of one large multivariate density. Low<p>variate densities are well-suited for dealing with high variable-to-sample ratio datasets,<p>since they are rather cheap in terms of computational cost and they do not require a large<p>amount of samples in order to be estimated accurately. Numerous experimental results<p>show the competitiveness of these new approaches. Finally, our thesis has led to a freely<p>available source code of MASSIVE and an open-source R and Bioconductor package of<p>network inference. / Doctorat en sciences, Spécialisation Informatique / info:eu-repo/semantics/nonPublished

Page generated in 0.0613 seconds