• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 354
  • 141
  • 34
  • 3
  • 1
  • Tagged with
  • 514
  • 187
  • 141
  • 103
  • 84
  • 80
  • 67
  • 66
  • 63
  • 63
  • 63
  • 62
  • 58
  • 57
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Gestion des actifs financiers : de l’approche Classique à la modélisation non paramétrique en estimation du DownSide Risk pour la constitution d’un portefeuille efficient / The Management of financial assets : from Classical Approach to the Nonparametric Modelling in the DownSide Risk Estimation in Order to Get an Optimal Portfolio

Ben Salah, Hanene 23 November 2015 (has links)
La méthode d'optimisation d'un portefeuille issue de la minimisation du DownSide Risk a été mise au point pour suppléer les carences de la méthode classique de Markowitz dont l'hypothèse de la normalité de la distribution des rendements se trouve défaillante très souvent. Dans cette thèse, nous proposons d'introduire des estimateurs non paramétriques de la moyenne ou de la médiane conditionnelle pour remplacer les rendements observés d'un portefeuille ou des actifs constituant un portefeuille dans le cas du DownSide Risk. Ces estimateurs nous permettent d'obtenir des frontières efficientes lisses et facilement interprétables. Nous développons des algorithmes itératifs pour résoudre les différents problèmes d'optimisation permettant d'obtenir des portefeuilles optimaux. Nous proposons aussi une nouvelle mesure de risque dit risque conditionnel qui tient compte des anticipations des valeurs futures des différents rendements. Pour le définir nous avons fait appel aux prédicteurs non paramétriques basés sur l'estimation de la moyenne conditionnelle. Enfin, nous avons testé et validé toutes nos méthodes sur des données issues de différents marchés et nous avons montré leur performance et leur efficacité comparées aux méthodes classiques / The DownSide Risk (DSR) model for portfolio optimization allows to overcome the drawbacks of the classical Mean-Variance model concerning the asymmetry of returns and the risk perception of investors. This optimization model deals with a positive definite matrix that is endogenous with respect to the portfolio weights and hence leads to a non standard optimization problem. To bypass this hurdle, we developed a new recursive minimization procedure that ensures the convergence to the solution and gives a smooth portfolio efficient frontier. Our method consists in replacing all the returns by their nonparametric estimators counterpart using kernel mean or median regressions. This technique provides an effect similar to the case where an infinite number of observations is available. We also develop a new portfolio optimization model where the risks are measured through conditional variance or semivariance. This strategy allows us to take advantage from returns prediction which are obtained by nonparametric univariate methods. The prediction step uses kernel estimation of the conditional mean. Data from different markets are used to test and validate the proposed approaches, and results indicate better overall performance
32

Amplificateur paramétrique Josephson : limite quantique, modélisation et caractérisation

Boutin, Samuel January 2015 (has links)
Au cours des dernières années, le développement de l’amplificateur paramétrique Josephson a permis de grandement accroître la fidélité de la mesure des qubits supraconducteurs. De plus, ce nouvel outil a ouvert un éventail de possibilités expérimentales telles la mesure de sauts quantiques et la compression de la lumière. Par contre, de récents résultats expérimentaux [Murch et al. Nature 499, 62 (2013), Zhong et al. NJP 15, 125013 (2013)] démontrent que, malgré les bonnes propriétés de cet amplificateur à faible bruit, des imperfections limitent ses performances. Dans le cadre de ce mémoire, une modélisation de l’amplificateur paramétrique Josephson (JPA) au-delà des approximations standards est présentée afin de mieux comprendre et caractériser ces imperfections. Pour la première fois, le JPA à pompe de courant monochromatique, le JPA à pompe de courant bichromatique et le JPA à pompe de flux sont comparés dans un même formalisme. Ceci permet une analyse des avantages et inconvénients de chacun au-delà de ce qui se trouve dans la littérature. En particulier, l’analyse démontre que ces différentes pompes mènent à des corrections d’ordres supérieurs différentes. À l’aide d’outils numériques et analytiques, on caractérise le champ en sortie de l’amplificateur. On démontre alors que le niveau de compression de ce champ est limité par les corrections d’ordres supérieurs généralement négligées dans la modélisation du JPA. Ce résultat numérique est comparé aux résultats expérimentaux obtenus par nos collaborateurs du laboratoire de nanoélectronique quantique de l’Université de Berkeley. Finalement, les cumulants de troisième et quatrième ordres sont calculés et démontrent que le caractère non gaussien du champ en sortie d’un amplificateur paramétrique Josephson augmente avec le gain et la non-linéarité.
33

Estimation et inférence non paramétriques basées sur les polynômes de Bernstein

Belalia, Mohamed January 2016 (has links)
Dans la première partie de cette thèse, nous avons proposé des tests non paramétriques d'indépendance entre des variables aléatoires continues. Les tests proposés sont basés sur la fonction de copule empirique de Bernstein et la fonction de densité de copule de Bernstein. La deuxième partie, nous avons abordé le problème de l’estimation non paramétrique de la fonction de densité de probabilité conditionnelle et la fonction de répartition conditionnelle basée sur une représentation polynomiale de Bernstein. Les estimateurs proposés ont été utilisés pour estimer la fonction de régression et la fonction de quantile conditionnelle. Les propriétés asymptotiques de ces estimateurs ont été établies. Finalement, une étude de simulation est menée pour montrer la performance de nos estimateurs, soit sur des exemples simulés ou bien des données réelles.
34

Enseignement et apprentissage des tests d'hypothèses paramétriques difficultés rencontrées par des étudiants en sciences humaines : une contribution à l'éducation statistique

Zendrera, Noëlle January 2010 (has links)
Les tests statistiques constituent un appréciable outil d'aide à la décision dans nombre de domaines. Dans le champ de l'éducation statistique, cette thèse étudie les difficultés de compréhension suscitées lors de l'apprentissage des tests d'hypothèses.Les objectifs visent à cerner, d'une part, les conceptions au regard des concepts et procédures impliqués dans un test de comparaison d'une moyenne à une norme et, d'autre part, les raisonnements élaborés lors de la résolution de ce test inductif. Auprès d'étudiants en sciences humaines, futurs psychologues et praticiens des tests, l'étude contribue à élucider les conceptions vis-à-vis des concepts d'échantillon, moyenne échantillonnale, population parente, moyenne parentale, population de référence, norme, latéralité, hypothèses, statistique de test, seuil, valeur critique, décision et conclusion, ainsi qu'à éclairer les raisonnements résolutifs. Ces questions rejoignent certains travaux (Batanero, 2000; Birnbaum, 1982 Lecoutre et al., 2003 ; Poitevineau, 2004 ; Vallecillos, 1997), plutôt ciblés sur un concept isolé et recueillant par questionnaire fermé ; peu d'études ont visé les idées des apprenants lors d'une"résolution complète et libre". Ce travail tente de contribuer à combler cette lacune, en sollicitant une résolution"complète" et en utilisant deux outils de recueil : une épreuve écrite (90 sujets) puis des entretiens individuels à résolution de problème (10 sujets). L'analyse des résultats confirme l'existence d'une grande variété de conceptions et dévoile de multiples"conceptions erronées", voire des"absences de conceptualisation" ; les résultats les plus notoires concernent les concepts de"population parente" et de"moyenne de la population parente" ainsi que la logique inductive attendue, qui ont suscité des difficultés chez la quasi-totalité des étudiants. Cette thèse apporte une explication multicausale à ces difficultés et soulève l'éventuelle existence d'un"obstacle à l'apprentissage" (Brousseau, 1998) en le signifié du terme"parente".Les apports de cette recherche, probablement généralisables à tout le milieu estudiantin, pourront être utiles dans l'enseignement des tests et la recherche en éducation statistique, pour la construction de dispositifs d'enseignement plus favorables à l'apprenant et au praticien.
35

Expertise biothermique de matériaux soumis à des rayonnements infrarouges intenses : De l'identification paramétrique à l'évaluation des risques de brûlure

Museux, Nathanaëlle 25 November 2010 (has links) (PDF)
Face à l'émergence de la technologie laser sur les champs de bataille, la protection du combattant face à de potentielles agressions thermiques doit être assurée. Le contexte de cette étude, supportée par le ministère de la Défense, concerne principalement les interactions laser-peau (nue) et plus particulièrement la lésion qui peut en résulter : la brûlure. Afin d'observer les effets d'une telle agression sur ce matériau biologique, un modèle animal (le porc, dont la peau est très similaire à celle de l'Homme) est étudié selon trois longueurs d'onde. Se basant sur des études antérieures réalisées dans notre laboratoire ainsi que sur des recherches bibliographiques et considérant les résultats obtenus in-vivo, un modèle mathématique simulant les transferts de chaleur dans la peau soumise à des rayonnements lasers infrarouges est développé. Sa validation, à l'aide des expérimentations, permet de prédire les lésions que pourraient engendrer divers types d'agressions lasers sur le bras, le visage et sur la paume de la main. En complément, une étude est menée afin d'identifier un des paramètres clés de la modélisation : la diffusivité thermique d'un matériau biologique. Pour ce faire, considérant le cadre des méthodes périodiques, une analyse de sensibilité est effectuée pour désigner les paramètres dont les incertitudes influencent particulièrement les résultats et pour concevoir de manière optimale un banc expérimental dédié à l'identification. Enfin, les comparaisons, entre les résultats obtenus expérimentalement (avec les différents lasers) et ceux simulés, sont discutées et les perspectives de ces recherches sont présentées.
36

Modélisation et validation expérimentale des complexes insonorisants pour la prévision vibroacoustique numérique basse et moyenne fréquences des automobiles

Fernandez, Charles 11 December 2008 (has links) (PDF)
Dans cette recherche, on construit un modèle simplifié en basses et moyennes fréquences de complexes insonorisants (habillages) de l'industrie automobile à partir d'un élément élastoacoustique stochastique. Le modèle simplifié moyen est issu d'une extension de la théorie des structures floues et dépend de trois paramètres physiques : densité modale, amortissement et masse participante. Le modèle simplifié stochastique qui prend en compte les incertitudes de modèle et de données est construit en utilisant une approche probabiliste non paramétrique et dépend de trois paramètres de dispersion. Le modèle simplifié de l'habillage est implémenté dans un modèle vibroacoustique stochastique industriel d'automobile. Deux problèmes inverses sont résolus à l'aide d'une base de données expérimentales sur véhicules construite en parallèle et permettent d'identifier les paramètres du modèle complet. L'analyse des résultats permet de valider les développements théoriques et la méthodologie proposée
37

Etude mathématique de la sensibilité POD (Proper orthogonal decomposition)

Akkari, Nissrine 20 December 2012 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés à l'étude mathématique de la sensibilité paramétrique de la méthode de réduction de modèles par projection connue sous le nom de POD pour Proper Orthogonal Decomposition. Dans beaucoup d'applications de la mécanique des fluides,la base de projection (base POD) calculée à un paramètre caractéristique fixe du problème de Navier-Stokes, est utilisée à la suite pour construire des modèles d'ordre réduit ROM-POD pour d'autres valeurs du paramètre caractéristique. Alors, la prédiction du comportement de ce ROM-POD vis-à-vis du problème initial est devenue cruciale. Pour cela, nous avons discuté cette problématique d'un point de vue mathématique. Nous avons établi des résultats mathématiques de sensibilité paramétrique des erreurs induites par application de la méthode ROM-POD. Plus précisément, notre approche est basée sur l'établissement d'estimations a priori de ces erreurs paramétriques, en utilisant les méthodes énergétiques classiques. Nos résultats sont démontrés pour les deux problèmes de type Burgers et Navier-Stokes. Des validations numériques de ces résultats mathématiques ont été faites uniquement pour le problème de type Burgers.
38

Estimation non-paramétrique de la distribution et densité de copules

Kadi, Nabil January 2014 (has links)
Les copules représentent un outil innovant pour modéliser la structure de dépendance de plusieurs variables aléatoires. Introduites par Sklar [1959] pour résoudre un problème de probabilité énoncé par Maurice Fréchet, les copules deviennent essentielles à l'appréhension de nombreux domaines d'application tels que l'hydrologie (Salvadori, De Michele, Kottegoda, et Rosso [2007]), les sciences actuarielles (Frees et Valdez [1998]), ou la finance (Cherubini, Vecchiato, et Luciano [2004]; Mc-Neil, Frey, et Embrechts [2005]). Le grand intérêt est qu'elles fournissent des expressions relativement simples des structures des dépendances liant les marges d'une loi multidimensionnelle. Plus précisément, pour le cas bidimensionnel, une copule C définie sur [0, 1] [indice supérieur 2], associée à une distribution F de marges uniformes F [indice inférieur 1] et F [indice inférieur 2], permet de représenter la fonction de répartition jointe F(x [indice inférieur 1], x [indice inférieur 2]) en fonction de ces marginales F [indice inférieur 1](x [indice inférieur 1]) et F [indice inférieur 2](x [indice inférieur 2]) par la relation : F(x [indice inférieur 1], x [indice inférieur 2]) = C(F [indice inférieur 1](x [indice inférieur 1]), F [indice inférieur 2](x [indice inférieur 2])). Cependant en pratique, la copule est inconnue, d'où l'utilité de l'estimer. Dans ce mémoire nous commençons par les définitions et les propriétés liées aux copules ainsi que les modèles paramétriques des copules. Ensuite nous présentons les différentes méthodes d'estimation: paramétriques, semi-paramétriques et non-paramétriques. Dans ce travail, on a étudié les propriétés asymptotiques d'un estimateur non-paramétrique basé sur les polynômes de Bernstein proposé par Sancetta & Satchell [2004]. Aussi, on a utilisé cet estimateur pour proposer un nouvel estimateur du tau de Kendall.
39

Visualisation de l'ensemble de Pareto pour un problème linéaire bicritère : application à un problème de fonderie

Ntigura Habingabwa, Marie Emmanuel January 2017 (has links)
Dans ce mémoire nous avons, en premier lieu, identifié et présenté deux méthodes de calcul de l'ensemble de Pareto.Ces méthodes ne demandent qu'un logiciel élémentaire de programmation linéaire. En second lieu nous avons analysé une problématique issue du domaine de la fonderie. Nous avons présenté un problème de base de mélange classique. Ensuite nous avons considéré un problème bicritère de correction d'un prémélange et calculé son ensemble de Pareto. En troisième lieu nous avons constaté qu'il était possible de présenter une formulation unifiée des deux problèmes précédents sous forme d'un second problème bicritère. Cette unification fait intervenir une transformation géométrique. Finalement nous avons terminé ce mémoire par une étude sommaire de cette transformation géométrique mettant en évidence les cônes de préférence associés aux ensembles de Pareto de ces différents problèmes.
40

Sur l'estimation du rapport de deux paramètres d'intensité poissonniens et l'estimation par fonctions de masse prédictives

Chabot, Myriam January 2016 (has links)
Ce mémoire est consacré à l'étude du modèle statistique bivarié duquel sont issues deux variables aléatoires conditionnellement indépendantes de loi de Poisson, dont les taux ne sont pas nécessairement égaux. Tout au long de ce mémoire, l'emphase est mise sur le développement d'un cadre bayésien au problème d'estimation paramétrique pour un tel modèle. Deux thèmes principaux y sont abordés : l'inférence statistique du rapport des deux paramètres d'intensité poissonniens et les densités prédictives. Ces problèmes surviennent notamment dans le contexte d'estimation de l'efficacité d'un vaccin développé par Laurent (Laurent, 2012) de même que Laurent et Legrand (Laurent et Legrand, 2012), ou encore, par celui d'estimation de l'efficacité d'un traitement contre le cancer par Lindley (Lindley, 2002). Alors que, dans ces articles, aucune contrainte paramétrique n'est imposée sur le rapport des deux taux poissonniens, une partie du mémoire abordera également ces thèmes lorsqu'il y a une contrainte restreignant le domaine du rapport sur l'intervalle $[0,1]$. Il sera alors possible d'établir des liens avec un article sur les files d'attente d'Armero et Bayarri (Armero et Bayarri, 1994).

Page generated in 0.0434 seconds