• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

A class of bivariate Erlang distributions and ruin probabilities in multivariate risk models

Groparu-Cojocaru, Ionica 11 1900 (has links)
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables. / In this contribution, we introduce a new class of bivariate distributions of Marshall-Olkin type, called bivariate Erlang distributions. The Laplace transform, product moments and conditional densities are derived. Potential applications of bivariate Erlang distributions in life insurance and finance are considered. Further, our research project is devoted to the study of multivariate risk processes, which may be useful in analyzing ruin problems for insurance companies with a portfolio of dependent classes of business. We apply results from the theory of piecewise deterministic Markov processes in order to derive exponential martingales needed to establish computable upper bounds of the ruin probabilities, as their exact expressions are intractable.
232

Évolution des projets de formation de futurs enseignants du primaire au contact de situations probabilistes

Rioux, Miranda 06 1900 (has links)
Il semble y avoir des attentes réciproques non comblées en formation initiale à l’enseignement des mathématiques. Cherchant à comprendre la genèse de ces attentes, nous nous sommes intéressée à la vision que les étudiants nourrissent des phénomènes d’enseignement. Ayant postulé que les étudiants ont une vision déterministe de ces phénomènes, et considérant que leur anticipation oriente leur projet de formation, nous nous sommes attaquée au problème de la rencontre des projets des étudiants et des formateurs. Deux objectifs généraux ont été formulés : le premier concerne la description des projets de formation des étudiants tandis que le second concerne l’expérimentation d’une séquence de situations susceptible de faire évoluer leurs projets. Cette recherche a été menée auprès de 58 étudiants du baccalauréat en enseignement en adaptation scolaire et sociale d’une même université, lesquels entamaient leur formation initiale à l’enseignement des mathématiques. Afin d’explorer les projets qu’ils nourrissent a priori, tous les étudiants ont complété un questionnaire individuel sur leur vision des mathématiques et de leur enseignement et ont participé à une première discussion de groupe sur le sujet. Une séquence de situations probabilistes leur a ensuite été présentée afin d’induire une complexification de leur projet. Enfin, cette expérimentation a été suivie d’une seconde discussion de groupe et complétée par la réalisation de huit entretiens individuels. Il a été mis en évidence que la majorité des étudiants rencontrés souhaitent avant tout évoluer en tant qu’enseignant, en développant leur capacité à enseigner et à faire apprendre ou comprendre les mathématiques. Bien que certaines visées se situent dans une perspective transmissive, celles-ci ne semblent pas représentatives de l’ensemble des projets "visée". De plus, même si la plupart des étudiants rencontrés projettent de développer des connaissances relatives aux techniques et aux méthodes d’enseignement, la sensibilité à la complexité dont certains projets témoignent ne permet plus de réduire les attentes des étudiants à l’endroit de leur formation à la simple constitution d’un répertoire de techniques d’enseignement réputées efficaces. En ce qui a trait aux modes d’anticipation relevés a priori, nos résultats mettent en relief des anticipations se rattachant d’abord à un mode adaptatif, puis à un mode prévisionnel. Aucune anticipation se rattachant à un mode prospectif n’a été recensée a priori. La séquence a permis aux étudiants de s’engager dans une dialectique d’action, de formulation et de validation, elle les a incités à recourir à une approche stochastique ainsi qu’à porter un jugement de probabilité qui prenne en compte la complexité de la situation. A posteriori, nous avons observé que les projets "visée" de certains étudiants se sont complexifiés. Nous avons également noté un élargissement de la majorité des projets, lesquels considèrent désormais les autres sommets du triangle didactique. Enfin, des anticipations se rattachant à tous les modes d’anticipation ont été relevées. Des anticipations réalisées grâce à un mode prospectif permettent d’identifier des zones d’incertitude et de liberté sur lesquelles il est possible d’agir afin d’accroître la sensibilité à la complexité des situations professionnelles à l’intérieur desquelles les futurs enseignants devront se situer. / There seems to be unfulfilled reciprocal expectations in mathematical education and initial preparation of teachers. While trying to understand the genesis of their expectations, we were interested in the vision that future teachers have of the educational phenomena. Having postulated that these students have a deterministic view of these phenomena and considering that their anticipation guides their training project, we addressed the problem of the encounter of student and educator projects. Two general objectives were formulated: the first aims at describing student training projects while the second addresses the development of a sequence of situations to help enrich their initial projects. This research was conducted among 58 undergraduate students in special education at a single university. They were beginning their initial training in teaching mathematics. In order to explore their initial projects, all students completed a questionnaire to inform on their personal vision of mathematics and its teaching. They also participated in an initial group discussion on the subject. A sequence of probabilistic situations was then presented to induce enrichment of their project. Finally, this experiment was followed by a second group discussion and completed with eight interviews. It was highlighted that the majority of the students met want to evolve primarily as a teacher, developing their ability to teach and stimulate learning and understanding of mathematics. Although some project goals fall into a transmissive perspective, these do not seem representative of the overall goals of the projects. Moreover, although most students want to develop knowledge of techniques and teaching methods, the sensitivity to complexity shown in some projects does not allow to reduce students' expectations regarding their training to the building of a repertoire of teaching techniques deemed effective. Regarding modes of anticipation identified initially, our results highlight anticipations connected with first an adaptive mode and then a forecast mode. We found no initial anticipation connected with a prospective mode. The sequence has allowed students to engage in a dialectic of action, formulation and validation, it prompted them to use a stochastic approach and to make probability judgment that takes into account the complexity of the situation. Afterwards, we observed that the projects of some students had become more complex. We also noted a widening of the majority of projects which opened to considering other vertices of the didactic triangle. Finally, anticipations relating to all modes of anticipation were identified. Anticipations made through a prospective mode helped identify areas of uncertainty and freedom upon which it appears possible to act, to increase sensitivity to the complexity of the educational situations and the act of teaching.
233

Algorithmes pour la réconciliation d’un arbre de gènes avec un arbre d’espèces

Doyon, Jean-Philippe 04 1900 (has links)
Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes. / A reconciliation between a gene tree and a species tree depicts an evolutionary scenario of the homologous genes in terms of gene duplications and gene losses. To infer such a reconciliation given a gene tree and a species tree, parsimony is generally used according to the number of gene duplications and/or losses. The combinatorial models of reconciliation are based on probabilistic or combinatorial criteria. The first paper defines a simple and more general combinatorial model of reconciliation which clearly identifies duplication and loss events and does not only induce the most parsimonious reconciliation. An architecture of all possible reconciliations is developed together with efficient algorithms (that is counting, randomization, and exploration) to study combinatorial properties of the space of all reconciliations or only the most parsimonious ones. Based on the classical birth-death process, an algorithm that computes the likelihood of a reconciliation has recently been proposed. The second paper uses this algorithm together with the combinatorial tools described above to compute efficiently, either exactly or approximately, the posterior probability of the reconciliations located in the considered subspace. Based on realistic gene duplication and loss rates and on real/simulated datasets of fungal gene families, our results suggest that the probability mass of the whole space of reconciliations is mostly located around the most parsimonious ones. In the context of posterior probability approximation, our approach is a valuable alternative to a MCMC method and can competes against a sophisticated, efficient, and exact computation of the probability of a given reconciliation. The Gene Tree Parsimony (GTP) problem is to infer a species tree that minimizes the number of duplications and/or losses over a set of gene family trees. Based on a new approch that explores the whole species tree space for the considered taxa and an efficient computation of the reconciliation cost, the third paper describes a Branch-and- Bound algorithm that solves exactly the GTP problem. When the considered number of taxa is too large, our algorithm can naturally take into account predefined relationships between sets of taxa. We test our algorithm on a dataset of eukaryotic gene families spanning 29 taxa.
234

Processus de Markov diffusifs par morceaux: outils analytiques et numériques

Bect, Julien 18 June 2007 (has links) (PDF)
Ce travail de thèse a pour objet l'étude de modèles markoviens qui résultent de la prise en compte d'incertitudes dans des systèmes possédant une dynamique hybride : entrées bruitées, dynamique mal connue, ou évènements aléatoires par exemple. De tels modèles, parfois qualifiés de Systèmes Hybrides Stochastiques (SHS), sont utilisés principalement en automatique et en recherche opérationnelle.<br /><br />Nous introduisons dans la première partie du mémoire la notion de processus diffusif par morceaux, qui fournit un cadre théorique général qui unifie les différentes classes de modèles "hybrides" connues dans la littérature. Différents aspects de ces modèles sont alors envisagés, depuis leur construction mathématique (traitée grâce au théorème de renaissance pour les processus de Markov) jusqu'à l'étude de leur générateur étendu, en passant par le phénomène de Zénon.<br /><br />La deuxième partie du mémoire s'intéresse plus particulièrement à la question de la "propagation de l'incertitude", c'est-à-dire à la manière dont évolue la loi marginale de l'état au cours du temps. L'équation de Fokker-Planck-Kolmogorov (FPK) usuelle est généralisée à diverses classes de processus diffusifs par morceaux, en particulier grâce aux notions d'intensité moyenne de sauts et de courant de probabilité. Ces résultats sont illustrés par deux exemples de modèles multidimensionnels, pour lesquels une résolution numérique de l'équation de FPK généralisée a été effectuée grâce à une discrétisation en volumes finis. La comparaison avec des méthodes de type Monte-Carlo est également discutée à partir de ces deux exemples.
235

Sur quelques méthodes en mécanique aléatoire

Sab, Karam 21 March 1989 (has links) (PDF)
Cette thèse contient quatre contributions indépendantes a la mécanique aléatoire: 1) une contribution aux suites à discrépance faible afin d'accélérer la convergence des algorithmes de type Monte-Carlo ; 2) l'homogénéisation des matériaux élastiques à microstructure aléatoire : on définit rigoureusement les tenseurs élastiques macroscopiques, on donne une méthode de simulation pour les calculer, enfin cette méthode est mise en oeuvre sur un matériau fictif ; 3) la fatigue à grand nombre de cycles des métaux polycristallins : on établit un nouveau critère d'endurance pour tous les chargements périodiques ; ce critère est susceptible de modéliser l'aspect aléatoire de la rupture ; 4) l'analyse de la simulation en calcul a 1 rupture probabiliste des structures discrètes : on montre notamment que l'approche par les vitesses est adaptée quand on a à effectuer une simulation et que l'algorithme du simplexe peut être utilisé.
236

Wordspotting from multilingual and stylistic documents / Repérage de mots dans les images de documents multilingues et graphiques

Tarafdar, Arundhati 12 July 2017 (has links)
Les outils et méthodes d’analyse d’images de documents (DIA) donnent aujourd’hui la possibilité de faire des recherches par mots-clés dans des bases d’images de documents alors même qu’aucune transcription n’est disponible. Dans ce contexte, beaucoup de travaux ont déjà été réalisés sur les OCR ainsi que sur des systèmes de repérage de mots (spotting) dédiés à des documents textuels avec une mise en page simple. En revanche, très peu d’approches ont été étudiées pour faire de la recherche dans des documents contenant du texte multi-orienté et multi-échelle, comme dans les documents graphiques. Par exemple, les images de cartes géographiques peuvent contenir des symboles, des graphiques et du texte ayant des orientations et des tailles différentes. Dans ces documents, les caractères peuvent aussi être connectés entre eux ou bien à des éléments graphiques. Par conséquent, le repérage de mots dans ces documents se révèle être une tâche difficile. Dans cette thèse nous proposons un ensemble d’outils et méthodes dédiés au repérage de mots écrits en caractères bengali ou anglais (script Roman) dans des images de documents géographiques. L’approche proposée repose sur plusieurs originalités. / Word spotting in graphical documents is a very challenging task. To address such scenarios this thesis deals with developing a word spotting system dedicated to geographical documents with Bangla and English (Roman) scripts. In the proposed system, at first, text-graphics layers are separated using filtering, clustering and self-reinforcement through classifier. Additionally, instead of using binary decision we have used probabilistic measurement to represent the text components. Subsequently, in the text layer, character segmentation approach is applied using water-reservoir based method to extract individual character from the document. Then recognition of these isolated characters is done using rotation invariant feature, coupled with SVM classifier. Well recognized characters are then grouped based on their sizes. Initial spotting is started to find a query word among those groups of characters. In case if the system could spot a word partially due to any noise, SIFT is applied to identify missing portion of that partial spotting. Experimental results on Roman and Bangla scripts document images show that the method is feasible to spot a location in text labeled graphical documents. Experiments are done on an annotated dataset which was developed for this work. We have made this annotated dataset available publicly for other researchers.
237

Optimisation du coût du cycle de vie des structures en béton armé / Life cycle cost optimization of reinforced concrete structures

Saad, Lara 09 May 2016 (has links)
Les structures de génie civil, en particulier les ponts en béton armé, doivent être conçues et gérées pour assurer les besoins de transport et de communication dans la société. Il est indispensable de garantir un fonctionnement convenable et sécuritaire de ces structures, puisque les défaillances peuvent conduire à des perturbations du transport, des pertes catastrophiques de concessions et des pertes de vies humaines, avec des impacts économiques, sociétaux et environnementaux graves, à court et à long termes. Les gestionnaires entreprennent diverses activités pour maintenir la performance et le fonctionnement adéquat à long terme, tout en satisfaisant les contraintes financières et sécuritaires. Idéalement, ils peuvent recourir à des techniques d'optimisation pour établir les compromis entre la réduction du coût du cycle de vie (LCC) et la maximisation de la durée de vie. Cela nécessite le développement de l’analyse du cycle de vie, de l’analyse de fiabilité et de l'optimisation structurale.Les approches actuelles pour la conception et la gestion des structures s’appuyant sur l’analyse du coût de cycle de vie, montrent les besoins suivants : (1) une approche intégrée et systématique pour modéliser de façon cohérente les processus de dégradation, les charges de trafic, le vieillissement et les conséquences directes et indirectes de la défaillance, (2) une considération complète des dépendances économiques, structurales et stochastiques entre les différents éléments de l’ouvrage, (3) une approche permettant de modéliser efficacement un système structural formé de plusieurs éléments interdépendants, (4) une évaluation des conséquences de la dégradation et de la redistribution des charges entre les éléments en tenant compte de la redondance du système et de la configuration de l’ouvrage, (5) une méthode d'optimisation de la conception et de la maintenance qui préserve l’exigence de fiabilité tout en considérant la robustesse de la décision. L'objectif global de cette thèse est de fournir des procédures améliorées qui peuvent être appliquées à la conception et à la gestion fiabilistes et robustes des ouvrages en béton armé, en réduisant les coûts supportés par les gestionnaires et les utilisateurs, tout en tenant compte des dépendances entre les éléments. Dans la première partie de cette thèse, une synthèse bibliographique concernant les procédures de la conception et de la maintenance basée sur des calculs fiabilistes est présentée, et les différents composants du LCC sont développés. Ensuite, une approche est proposée pour la conception des ouvrages en tenant compte du coût aux usagers et en intégrant dans la fonction du coût de cycle de vie. Le modèle couplé corrosion-fatigue est aussi considéré dans l’optimisation de la conception. La planification de la maintenance des ouvrages est ensuite développée, en considérant les différents types d'interaction entre les éléments, en particulier les dépendances économiques, structurales et stochastiques. Ce modèle utilise l'analyse de l'arbre de défaillance et les probabilités conditionnelles pour tenir compte des dépendances dans la planification de la maintenance. Les conséquences de la dégradation et de la redistribution des charges sont prises en compte dans l'approche proposée. Par ailleurs, une méthode pratique de calcul de la fiabilité d'un système formé de plusieurs composantes interdépendantes est proposée, à travers un facteur de redondance calculé par la modélisation mécanique. Enfin, une nouvelle procédure d'optimisation est proposée, permettant de tenir compte des incertitudes dans le système et la capacité structurale de s'adapter aux variabilités intrinsèques. La procédure proposée tient compte des incertitudes et de la variabilité dans une formulation cohérente, validée au moyen des applications numériques. (...) / Civil engineering structures, particularly reinforced concrete bridges, should be designed and managed to ensure the society needs. It is crucial to assure that these structures function properly and safely as damage during the service life can lead to transport disturbance, catastrophic loss of property, causalities, as well as severe economic, social, and environmental impacts, in addition to long term consequences. Decision-makers adopt various activities to maintain adequate long-term performance and functionality while satisfying financial constraints. Ideally, they may employ optimization techniques to identify the trade-offs between minimizing the life-cycle cost (LCC) and maximizing the expected service life. This requires the development of three challenging chores: life cycle analysis, reliability analysis and structural optimization. The current approaches for the design and management of structures through a Life-cycle cost analysis (LCCA) highlight the following needs: (1) an integrated and systematic approach to model coherently the deterioration processes, the increasing traffic loads, the aging and the direct and indirect consequences of failure, (2) a mutual consideration of economic, structural and stochastic dependencies between the elements of a structural system, (3) an adequate approach for the deterioration dependencies and load redistribution between the elements, (4) an improvement of system reliability computation as a function of the structural redundancy and configuration that can take into account the dependencies between the elements, (5) a consideration of design and maintenance optimization procedures that focus coherently on the robustness of the management decision and on the satisfaction of reliability requirements.The overall objective of this study is to provide improved LCCA and procedures that can be applied to select optimal and robust design and maintenance decisions regarding new and existing reinforced concrete structures, by minimizing both manager and user costs, while providing the required safety along the structure lifetime, taking into account the most severe degradation processes and the dependencies between structural elements. In the first part of this thesis, a literature review concerning the current probabilistic design and maintenance procedures is presented, and the LCC components are discussed. Then, a new approach is developed to evaluate the user delay costs on a reinforced concrete bridge structure, based on direct and indirect costs related to degradation and failure, and to integrate it to the life cycle cost function, in order to allow for probabilistic design. In addition,the coupled corrosion-fatigue model is considered in the design optimization. Afterward, a structural maintenance planning approach is developed to consider the three types of interactions, namely economic, structural and stochastic dependencies. The proposed model uses fault tree analysis and conditional probabilities to reflect the dependencies in the maintenance planning. The consequences of degradation are evaluated and a method is proposed to account for the load redistribution. Moreover, a practical formulation for quantifying the reliability of a system formed of interrelated components is proposed, by the mean of a redundancy factor that can be computed by finite element analysis. Finally, a new optimization procedure is proposed, by taking into account the uncertainties in the analysis, and the structural ability to adapt to variability, unforeseen actions or deterioration mechanisms. The proposed procedure takes account of uncertainties andvariability in one consistent formulation, which is shown through numerical applications. (...)
238

Non-parametric synthesis of volumetric textures from a 2D sample / Méthodes non-paramétriques pour la synthèse de textures volumiques à partir d’un exemple 2D

Urs, Radu Dragos 29 March 2013 (has links)
Ce mémoire traite de synthèse de textures volumiques anisotropes à partir d’une observation 2D unique. Nous présentons différentes variantes d’algorithmes non paramétriques et multi-échelles. Leur principale particularité réside dans le fait que le processus de synthèse 3D s’appuie sur l’échantillonnage d’une seule image 2D d’entrée, en garantissant la cohérence selon les différentes vues de la texture 3D. Deux catégories d’approches sont abordées, toutes deux multi-échelles et basées sur une hypothèse markovienne. La première catégorie regroupe un ensemble d’algorithmes dits de recherche de voisinages fixes, adaptés d’algorithmes existants de synthèses de textures volumiques à partir de sources 2D multiples. Le principe consiste, à partir d’une initialisation aléatoire, à modifier les voxels un par un, de façon déterministe, en s’assurant que les configurations locales de niveaux de gris sur des tranches orthogonales contenant le voxel sont semblables à des configurations présentes sur l’image d’entrée. La deuxième catégorie relève d’une approche probabiliste originale dont l’objectif est de reproduire, sur le volume texturé, les interactions entre pixels estimées sur l’image d’entrée. L’estimation est réalisée de façon non paramétrique par fenêtrage de Parzen. L’optimisation est gérée voxel par voxel, par un algorithme déterministe de type ICM. Différentes variantes sont proposées, relatives aux stratégies de gestion simultanée des tranches orthogonales contenant le voxel. Ces différentes méthodes sont d’abord mises en œuvre pour la synthèse d’un jeu de textures structurées, de régularité et d’anisotropie variées. Une analyse comparée et une étude de sensibilité sont menées, mettant en évidence les atouts et faiblesses des différentes approches. Enfin, elles sont appliquées à la simulation de textures volumiques de matériaux composites carbonés, à partir de clichés obtenus à l’échelle nanométrique par microscopie électronique à transmission. Le schéma expérimental proposé permet d’évaluer quantitativement et de façon objective les performances des différentes méthodes. / This thesis deals with the synthesis of anisotropic volumetric textures from a single 2D observation. We present variants of non parametric and multi-scale algorithms. Their main specificity lies in the fact that the 3D synthesis process relies on the sampling of a single 2D input sample, ensuring consistency in the different views of the 3D texture. Two types of approaches are investigated, both multi-scale and based on markovian hypothesis. The first category brings together a set of algorithms based on fixed-neighbourhood search, adapted from existing algorithms of texture synthesis from multiple 2D sources. The principle is that, starting from a random initialisation, the 3D texture is modified, voxel by voxel, in a deterministic manner, ensuring that the grey level local configurations on orthogonal slices containing the voxel are similar to configurations of the input image. The second category points out an original probabilistic approach which aims at reproducing in the textured volume the interactions between pixels learned in the input image. The learning is done by non-parametric Parzen windowing. Optimization is handled voxel by voxel by a deterministic ICM type algorithm. Several variants are proposed regarding the strategies used for the simultaneous handling of the orthogonal slices containing the voxel. These synthesis methods are first implemented on a set of structured textures of varied regularity and anisotropy. A comparative study and a sensitivity analysis are carried out, highlighting the strengths and the weaknesses of the different algorithms. Finally, they are applied to the simulation of volumetric textures of carbon composite materials, on nanometric scale snapshots obtained by transmission electron microscopy. The proposed experimental benchmark allows to evaluate quantitatively and objectively the performances of the different methods.
239

L’espérance comme expérience ontologique chez Gabriel Marcel / Hope as ontological experience for Gabriel Marcel

Adjobi, Vast-Amour Dingui 12 December 2017 (has links)
L'espérance se présente comme l'expérience d'un avenir qui n'a pas été encore vécu et qui se donne comme inobjectivable. Cette intuition a commandé la problématique de cette recherche, qui met au jour les conditions de possibilité d'une espérance véritable dans un monde – le nôtre – où elle ne trouve pas immédiatement sa place. Ce monde ''cassé'', comme l'appelle Gabriel Marcel, est sous l'emprise de la technique. C'est un monde où prime l'exigence du faire et où les questions existentielles sont réduites elles-mêmes à des ''problèmes'' qui doivent trouver leur ''solution'' comme n'importe quel problème relevant de l'ordre de l'avoir. Il y a, en ce sens, un ''problème de l'espérance ». Il se développe dans une philosophie qui s'émancipe de la foi et dont on trouve des illustrations notamment dans le probabilisme de Hume et dans le matérialisme de Bloch. Or Gabriel Marcel fait le pari, par la méthode dite de la ''réflexion seconde'', de placer l'espérance sous le sceau du ''mystère''. Il s'agit alors de comprendre que l'espérance, pensée sur le plan de l'être et non plus de l'avoir, relève d'une expérience qui est toujours en cours de formation, et qui ouvre le chemin que suit une personne que définissent sa capacité d'agir, ses relations avec les autres personnes et son aptitude à la responsabilité. Nous soutenons dans ce sens, avec l'appui de Ricœur, que l'identité du sujet de l'espérance est essentiellement intersubjective et ouverte, selon une exigence de fidélité créatrice.  Nous trouvons plus précisément dans le nous familial, comme l'appelle Marcel, la condition de possibilité d'une expérience concrète de l'espérance, comprise alors comme patience d'un présent éprouvant et confiance en un avenir incertain. Renvoyant dos à dos, pour ce faire, les conceptions essentialiste et constructiviste de la famille, nous appelons vœu créateur ce qui, au sein même de la famille, dont nous proposons une conception élargie, est jaillissement du nouveau et promesse de vie. Ainsi nous affirmons que l'espérance, pour invérifiable qu'elle soit, est, mais selon des formes authentiques ou inauthentiques. L'enjeu de ce travail, en reconnaissant cette différence au cœur même de l'espérance, est de comprendre comment celle-ci, plus que comme un ensemble de moyens, se présente fondamentalement comme une mise en route qui se reçoit d'un appel de ou à l'autre, et qui est constitutive de toute action vouée au temps. La présence de cet autre déborde toute tentative d'objectivation. Elle est le lieu intérieur où se vit in fine l'attente active qu'est l'espérance comme expérience ontologique. / Hope appears as the experience of a future which was not still lived yet and which is given as inobjectivable. This intuition has commanded the problematic of this research, which brings to light the conditions of possibility of a true hope in a world – ours – where it does not immediately find its place. This « broken » world, as Gabriel Marcel calls it, is under the influence of technic. It's a world in which prevail the need to do things, and also where existential questions are reduced to ''problems'' which must find their ''solution'' as any other problem come under the order of the possession. In this way, there is a ''problem of hope''. A philosophy is growing which emancipate itself from faith and which illustrations are found in particular in Hume's probabilism and Bloch's materialism. But Gabriel Marcel, by the method said about ''second reflection », bet to place hope under the seal of ''mystery''. It's all about understanding that hope, thought on the plan of ''the being'' and no more of ''the having'' is an experience still on training and which opens the way that follows a person defined by its ability to act, its relations to others and its aptitude to responsibility. In this sense, we support, with Ricoeur's support, that the subject identity of hope is essentially intersubjective and opened, according to a requirement of creative fidelity. We find more exactly in the « I and you familial» as Marcel calls it, the condition of possibility of a concrete experience of hope, understood as patience of a trying present and trust in an uncertain future. Referring back to back, the essentialist and constructivist conceptions of the family, we call creative vow, what within the family, of which we propose an enlarged conception is springing forth for the new and promise of life. So we assert that hope, however unverifiable as it may be, is, but according to authentic and inauthentic forms. The challenge of this work, recognizing this difference at the very heart of hope, is to understand how it, more than as a set of means, is fundamentally a start-up that is received from a call. From one to other, and which is constitutive of all action devoted to time. The presence of this other overflows any attempt at objectification. It is the inner place where the active expectation of hope as an ontological experience is lived.
240

Essays in functional econometrics and financial markets

Tsafack-Teufack, Idriss 07 1900 (has links)
Dans cette thèse, j’exploite le cadre d’analyse de données fonctionnelles et développe l’analyse d’inférence et de prédiction, avec une application à des sujets sur les marchés financiers. Cette thèse est organisée en trois chapitres. Le premier chapitre est un article co-écrit avec Marine Carrasco. Dans ce chapitre, nous considérons un modèle de régression linéaire fonctionnelle avec une variable prédictive fonctionnelle et une réponse scalaire. Nous effectuons une comparaison théorique des techniques d’analyse des composantes principales fonctionnelles (FPCA) et des moindres carrés partiels fonctionnels (FPLS). Nous déterminons la vitesse de convergence de l’erreur quadratique moyen d’estimation (MSE) pour ces méthodes. Aussi, nous montrons cette vitesse est sharp. Nous découvrons également que le biais de régularisation de la méthode FPLS est plus petit que celui de FPCA, tandis que son erreur d’estimation a tendance à être plus grande que celle de FPCA. De plus, nous montrons que le FPLS surpasse le FPCA en termes de prédiction avec moins de composantes. Le deuxième chapitre considère un modèle autorégressif entièrement fonctionnel (FAR) pour prèvoir toute la courbe de rendement du S&P 500 a la prochaine journée. Je mène une analyse comparative de quatre techniques de Big Data, dont la méthode de Tikhonov fonctionnelle (FT), la technique de Landweber-Fridman fonctionnelle (FLF), la coupure spectrale fonctionnelle (FSC) et les moindres carrés partiels fonctionnels (FPLS). La vitesse de convergence, la distribution asymptotique et une stratégie de test statistique pour sélectionner le nombre de retard sont fournis. Les simulations et les données réelles montrent que les méthode FPLS performe mieux les autres en terme d’estimation du paramètre tandis que toutes ces méthodes affichent des performances similaires en termes de prédiction. Le troisième chapitre propose d’estimer la densité de neutralité au risque (RND) dans le contexte de la tarification des options, à l’aide d’un modèle fonctionnel. L’avantage de cette approche est qu’elle exploite la théorie d’absence d’arbitrage et qu’il est possible d’éviter toute sorte de paramétrisation. L’estimation conduit à un problème d’inversibilité et la technique fonctionnelle de Landweber-Fridman (FLF) est utilisée pour le surmonter. / In this thesis, I exploit the functional data analysis framework and develop inference, prediction and forecasting analysis, with an application to topics in the financial market. This thesis is organized in three chapters. The first chapter is a paper co-authored with Marine Carrasco. In this chapter, we consider a functional linear regression model with a functional predictor variable and a scalar response. We develop a theoretical comparison of the Functional Principal Component Analysis (FPCA) and Functional Partial Least Squares (FPLS) techniques. We derive the convergence rate of the Mean Squared Error (MSE) for these methods. We show that this rate of convergence is sharp. We also find that the regularization bias of the FPLS method is smaller than the one of FPCA, while its estimation error tends to be larger than that of FPCA. Additionally, we show that FPLS outperforms FPCA in terms of prediction accuracy with a fewer number of components. The second chapter considers a fully functional autoregressive model (FAR) to forecast the next day’s return curve of the S&P 500. In contrast to the standard AR(1) model where each observation is a scalar, in this research each daily return curve is a collection of 390 points and is considered as one observation. I conduct a comparative analysis of four big data techniques including Functional Tikhonov method (FT), Functional Landweber-Fridman technique (FLF), Functional spectral-cut off (FSC), and Functional Partial Least Squares (FPLS). The convergence rate, asymptotic distribution, and a test-based strategy to select the lag number are provided. Simulations and real data show that FPLS method tends to outperform the other in terms of estimation accuracy while all the considered methods display almost the same predictive performance. The third chapter proposes to estimate the risk neutral density (RND) for options pricing with a functional linear model. The benefit of this approach is that it exploits directly the fundamental arbitrage-free equation and it is possible to avoid any additional density parametrization. The estimation problem leads to an inverse problem and the functional Landweber-Fridman (FLF) technique is used to overcome this issue.

Page generated in 0.0716 seconds