• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 10
  • 2
  • Tagged with
  • 40
  • 18
  • 13
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Options américaines et processus de Lévy

Bouselmi, Aych 11 December 2013 (has links) (PDF)
Les marchés financiers ont connu, grâce aux études réalisées durant les trois dernières décennies, une expansion considérable et ont vu l'apparition de produits dérivés divers et variés. Parmi les plus répandus, on retrouve les options américaines. Une option américaine est par définition une option qu'on a le droit d'exercer avant l'échéance convenue T. Les plus basiques sont le Put ou le Call américain (respectivement option de vente (K - x)+ ou d'achat (x - K)+). La première partie, et la plus conséquente, de cette thèse est consacrée à l'étude des options américaines dans des modèles exponentiels de Lévy. On commence dans un cadre multidimensionnel caractérise le prix d'une option américaine, dont le Pay-off appartient à une classe de fonctions non forcément bornées, à l'aide d'une inéquation variationnelle au sens des distributions. On étudie, ensuite, les propriétés générales de la région d'exercice ainsi que de la frontière libre. On affine encore ces résultats en étudiant, en particulier, la région d'exercice d'un Call américain sur un panier d'actifs, où on caractérise en particulier la région d'exercice limite (à l'échéance). Dans un deuxième temps, on se place dans un cadre unidimensionnel et on étudie le comportement du prix critique (fonction délimitant la région d'exercice) d'un Put américain près de l'échéance. Particulièrement, on considère le cas où le prix ne converge pas vers le strike K, dans un modèle Jump-diffusion puis dans un modèle où le processus de Lévy est à saut pur avec un comportement proche de celui d'un &-stable. La deuxième partie porte sur l'approximation numérique de la Credit Valuation Adjustment (CVA). On y présente une méthode basée sur le calcul de Malliavin inspirées de celles utilisées pour les options américaines. Une étude de la complexité de cette méthode y est aussi présentée et comparée aux méthodes purement Monte Carlo et aux méthodes fondées sur la régression.
22

Fouille de données complexes et logique floue : extraction de motifs à partir de bases de données multidimensionnelles

Laurent, Anne 27 April 2009 (has links) (PDF)
Ce mémoire décrit mes activités de recherche et d'animation de recherche depuis ma thèse, soutenue en 2002. Les travaux décrits ici ont été principalement menés au LIRMM (Université Montpellier 2, CNRS UMR 5506), au sein de l'équipe TATOO. Dans ce contexte, je me suis attachée à concilier des visions trop souvent vues comme divergentes au sein des communautés liées à la fouille de données complexes : gérer l'approximation (à la fois dans les données et dans les résultats produits), la fouille de données et les bases de données complexes et volumineuses, notamment les entrepôts de données. Plus précisément, mes travaux visent à montrer qu'il est possible de relever le défi jusqu'à présent non totalement solutionné d'extraire des connaissances exploitables par les experts non informaticiens à partir d'entrepôts de données, en prenant en compte au mieux les particularités de ce domaine. En particulier, j'ai porté d'une part une grande attention à exploiter la dimension temporelle des entrepôts et d'autre part à montrer autant que faire se peut que flou et passage à l'échelle ne sont pas des notions antagonistes. Dans cet objectif, j'ai mené, dirigé, encadré et valorisé à travers des collaborations scientifiques et industrielles des travaux dont je rapporte ici une synthèse.
23

Embodied navigation of complex piano notation : rethinking musical interaction from a performer’s perspective / « Navigation incarnée » de la notation complexe pour piano : repenser l’interaction musicale selon la perspective de l’interprète

Antoniadis, Pavlos 22 June 2018 (has links)
La thèse propose un paradigme d’interaction avec la notation musicale complexe pour piano selon une perspective « incarnée » et «située » de l’interprète. Ce paradigme, que je nomme navigation incarnée, s’oppose au paradigme traditionnel d’interprétation textuelle. Le paradigme traditionnel considère un processus de lecture linéaire et hiérarchique, selon lequel la compréhension et l’internalisation du texte musical sont les conditions préalables pour l’application de la technique instrumentale, permettant par la suite une interprétation personnelle. À la place de ce paradigme, je propose de traiter la notation musicale comme un élément dynamique, non linéaire, et à la fois incarné et externalisé. Dans une deuxième phase, le paradigme proposé devient la base du développement d’outils adaptés au projet de la navigation incarnée et de diverses applications, incluant l’analyse de la performance, l’apprentissage incarné et interactif, la composition musicale et l’improvisation. / This thesis proposes a performer-specific paradigm of embodied interaction with complex piano notation. This paradigm, which I term embodied navigation, extends and even confronts the traditional paradigm of textual interpretation. The latter assumes a linear and hierarchical process, whereby internalized understanding of the musical text is considered a prerequisite of instrumental technique towards personal interpretation. In lieu of that, I advocate for a dynamic, non-linear, embodied and external processing of music notation. At a second stage, the proposed paradigm serves as the basis for the development of methodologies and customized tools for a range of applications, including: performance analysis, embodied interactive learning, contemporary composition, free improvisation and piano pedagogy.
24

Gestion et visualisation de données hétérogènes multidimensionnelles : application PLM à la neuroimagerie / Management and visualisation oh heterogeneous multidimensional data : PLM application to neuroimaging

Allanic, Marianne 17 December 2015 (has links)
La neuroimagerie est confrontée à des difficultés pour analyser et réutiliser la masse croissante de données hétérogènes qu’elle produit. La provenance des données est complexe – multi-sujets, multi-analyses, multi-temporalités – et ces données ne sont stockées que partiellement, limitant les possibilités d’études multimodales et longitudinales. En particulier, la connectivité fonctionnelle cérébrale est analysée pour comprendre comment les différentes zones du cerveau travaillent ensemble. Il est nécessaire de gérer les données acquises et traitées suivant plusieurs dimensions, telles que le temps d’acquisition, le temps entre les acquisitions ou encore les sujets et leurs caractéristiques. Cette thèse a pour objectif de permettre l’exploration de relations complexes entre données hétérogènes, ce qui se décline selon deux axes : (1) comment gérer les données et leur provenance, (2) comment visualiser les structures de données multidimensionnelles. L’apport de nos travaux s’articule autour de trois propositions qui sont présentées à l’issue d’un état de l’art sur les domaines de la gestion de données hétérogènes et de la visualisation de graphes. Le modèle de données BMI-LM (Bio-Medical Imaging – Lifecycle Management) structure la gestion des données de neuroimagerie en fonction des étapes d’une étude et prend en compte le caractère évolutif de la recherche grâce à l’association de classes spécifiques à des objets génériques. L’implémentation de ce modèle au sein d’un système PLM (Product Lifecycle Management) montre que les concepts développés depuis vingt ans par l’industrie manufacturière peuvent être réutilisés pour la gestion des données en neuroimagerie. Les GMD (Graphes Multidimensionnels Dynamiques) sont introduits pour représenter des relations complexes entre données qui évoluent suivant plusieurs dimensions, et le format JGEX (Json Graph EXchange) a été créé pour permettre le stockage et l’échange de GMD entre applications. La méthode OCL (Overview Constraint Layout) permet l’exploration visuelle et interactive de GMD. Elle repose sur la préservation partielle de la carte mentale de l’utilisateur et l’alternance de vues complètes et réduites des données. La méthode OCL est appliquée à l’étude de la connectivité fonctionnelle cérébrale au repos de 231 sujets représentées sous forme de GMD – les zones du cerveau sont représentées par les nœuds et les mesures de connectivité par les arêtes – en fonction de l’âge, du genre et de la latéralité : les GMD sont obtenus par l’application de chaînes de traitement sur des acquisitions IRM dans le système PLM. Les résultats montrent deux intérêts principaux à l’utilisation de la méthode OCL : (1) l’identification des tendances globales sur une ou plusieurs dimensions et (2) la mise en exergue des changements locaux entre états du GMD. / Neuroimaging domain is confronted with issues in analyzing and reusing the growing amount of heterogeneous data produced. Data provenance is complex – multi-subjects, multi-methods, multi-temporalities – and the data are only partially stored, restricting multimodal and longitudinal studies. Especially, functional brain connectivity is studied to understand how areas of the brain work together. Raw and derived imaging data must be properly managed according to several dimensions, such as acquisition time, time between two acquisitions or subjects and their characteristics. The objective of the thesis is to allow exploration of complex relationships between heterogeneous data, which is resolved in two parts : (1) how to manage data and provenance, (2) how to visualize structures of multidimensional data. The contribution follow a logical sequence of three propositions which are presented after a research survey in heterogeneous data management and graph visualization. The BMI-LM (Bio-Medical Imaging – Lifecycle Management) data model organizes the management of neuroimaging data according to the phases of a study and takes into account the scalability of research thanks to specific classes associated to generic objects. The application of this model into a PLM (Product Lifecycle Management) system shows that concepts developed twenty years ago for manufacturing industry can be reused to manage neuroimaging data. GMDs (Dynamic Multidimensional Graphs) are introduced to represent complex dynamic relationships of data, as well as JGEX (Json Graph EXchange) format that was created to store and exchange GMDs between software applications. OCL (Overview Constraint Layout) method allows interactive and visual exploration of GMDs. It is based on user’s mental map preservation and alternating of complete and reduced views of data. OCL method is applied to the study of functional brain connectivity at rest of 231 subjects that are represented by a GMD – the areas of the brain are the nodes and connectivity measures the edges – according to age, gender and laterality : GMDs are computed through processing workflow on MRI acquisitions into the PLM system. Results show two main benefits of using OCL method : (1) identification of global trends on one or many dimensions, and (2) highlights of local changes between GMD states.
25

Approche intégrative du développement musculaire afin de décrire le processus de maturation en lien avec la survie néonatale / Integrative approach of muscular development to describe the maturation process related to the neonatal survival

Voillet, Valentin 29 September 2016 (has links)
Depuis plusieurs années, des projets d'intégration de données omiques se sont développés, notamment avec objectif de participer à la description fine de caractères complexes d'intérêt socio-économique. Dans ce contexte, l'objectif de cette thèse est de combiner différentes données omiques hétérogènes afin de mieux décrire et comprendre le dernier tiers de gestation chez le porc, période influençant la mortinatalité porcine. Durant cette thèse, nous avons identifié les bases moléculaires et cellulaires sous-jacentes de la fin de gestation, en particulier au niveau du muscle squelettique. Ce tissu est en effet déterminant à la naissance car impliqué dans l'efficacité de plusieurs fonctions physiologiques comme la thermorégulation et la capacité à se déplacer. Au niveau du plan expérimental, les tissus analysés proviennent de foetus prélevés à 90 et 110 jours de gestation (naissance à 114 jours), issus de deux lignées extrêmes pour la mortalité à la naissance, Large White et Meishan, et des deux croisements réciproques. Au travers l'application de plusieurs études statistiques et computationnelles (analyses multidimensionnelles, inférence de réseaux, clustering et intégration de données), nous avons montré l'existence de mécanismes biologiques régulant la maturité musculaire chez les porcelets, mais également chez d'autres espèces d'intérêt agronomique (bovin et mouton). Quelques gènes et protéines ont été identifiées comme étant fortement liées à la mise en place du métabolisme énergétique musculaire durant le dernier tiers de gestation. Les porcelets ayant une immaturité du métabolisme musculaire seraient sujets à un plus fort risque de mortalité à la naissance. Un second volet de cette thèse concerne l'imputation de données manquantes (tout un groupe de variables pour un individu) dans les méthodes d'analyses multidimensionnelles, comme l'analyse factorielle multiple (AFM) (ou multiple factor analysis (MFA)). Dans notre contexte, l'AFM fut particulièrement intéressante pour l'intégration de données d'un ensemble d'individus sur différents tissus (deux ou plus). Afin de conserver ces individus manquants pour tout un groupe de variables, nous avons développé une méthode, appelée MI-MFA (multiple imputation - MFA), permettant l'estimation des composantes de l'AFM pour ces individus manquants. / Over the last decades, some omics data integration studies have been developed to participate in the detailed description of complex traits with socio-economic interests. In this context, the aim of the thesis is to combine different heterogeneous omics data to better describe and understand the last third of gestation in pigs, period influencing the piglet mortality at birth. In the thesis, we better defined the molecular and cellular basis underlying the end of gestation, with a focus on the skeletal muscle. This tissue is specially involved in the efficiency of several physiological functions, such as thermoregulation and motor functions. According to the experimental design, tissues were collected at two days of gestation (90 or 110 days of gestation) from four fetal genotypes. These genotypes consisted in two extreme breeds for mortality at birth (Meishan and Large White) and two reciprocal crosses. Through statistical and computational analyses (descriptive analyses, network inference, clustering and biological data integration), we highlighted some biological mechanisms regulating the maturation process in pigs, but also in other livestock species (cattle and sheep). Some genes and proteins were identified as being highly involved in the muscle energy metabolism. Piglets with a muscular metabolism immaturity would be associated with a higher risk of mortality at birth. A second aspect of the thesis was the imputation of missing individual row values in the multidimensional statistical method framework, such as the multiple factor analysis (MFA). In our context, MFA was particularly interesting in integrating data coming from the same individuals on different tissues (two or more). To avoid missing individual row values, we developed a method, called MI-MFA (multiple imputation - MFA), allowing the estimation of the MFA components for these missing individuals.
26

Caractérisation des réponses immunitaires chez les patients atteints de myopathies auto-immunes idiopathiques / Characterization of immune responses in patients with autoimmune idiopathic myopathies

Dzangué Tchoupou, Gaëlle 19 September 2018 (has links)
Les myosites sont des maladies auto-immunes, caractérisées par des atteintes musculaires et extra musculaires. Le diagnostic des myosites peut être difficile et nécessite de l’expertise, afin d’éviter l’administration de thérapie inapproprié. Les mécanismes impliqués au cours des myosites sont peu connus. Notre but était de décrire le profil immunitaire des patients, afin d’identifier des biomarqueurs. Nous avons utilisé un panel de 36 marqueurs pour caractériser les PBMC issus de patients actifs (MIs, SAS anti-Jo1, myopathies anti-SRP et anti-HMGCR) et de sujets sains par cytométrie de masse combiné au « barcoding ». Tout d’abord, nous avons mis au point une procédure technique pour la détection simultanée de cibles extracellulaires et intracellulaires. En utilisant différents outils bio-informatiques, nous avons isolé une fréquence de lymphocytes CD8+T-bet+ > 51.5% comme étant un biomarqueur spécifique de la MIs en comparaison aux autres myosites, avec une sensibilité de 94,74% et une spécificité de 88,46%. De plus, nous avons identifié un profil immunitaire CD8+T-bet+ CD57- activé, potentiellement capable de prolifération et de maintien de mécanismes auto-immuns chez les patients atteints de MIs. Chez les patients anti-Jo1, nous avons observé une dérégulation de l’homéostasie des lymphocytes B, caractérisée par une diminution des lymphocytes B mémoires circulants. La présence de ces derniers dans le muscle des patients suggère qu’ils se nichent dans le muscle afin d’éviter l’action des immunosuppresseurs. Ces travaux ont permis l’identification de biomarqueurs et de phénotypes cellulaires potentiellement impliqués au cours de la MIs et du SAS anti-Jo1. / Myositis is an autoimmune disease characterized by muscular and extra-muscular disorders. In the early stages of the disease, the diagnosis of myositis can be misleading and requires expertise, in order to avoid the administration of inappropriate treatment. The mechanisms involved in these diseases are poorly understood. Our aim was to describe the immune profile specific to each patient group, in order to identify biomarkers that may be useful for diagnosis and management of patients. We used a panel of 36 markers by mass cytometry to characterize PBMCs derived from active patients (sIBM, anti-Jo1 ASyS, anti-SRP and anti-HMGCR myopathies) and healthy subjects. First, we developed and optimized a technical procedure for the simultaneous detection of extracellular and intracellular targets by mass cytometry. Using different bioinformatics tools, we isolated a frequency of CD8 +T-bet + cells > 51.5% as a specific biomarker for sIBM compared to other myositis, with a sensitivity of 94.74% and a specificity of 88. , 46%. In addition, we identified an activated CD8 + T-bet + CD57- immune profile, potentially capable of proliferation and the maintenance of autoimmune mechanisms in patients with sIBM. In anti-Jo1 patients, we observed a dysregulation of B cell homeostasis, characterized by a decrease in circulating memory B cells. The presence of the latter in the muscle of patients suggests that they nest in the muscle to avoid immunosuppressants. This work allowed the identification of a biomarker that could enhance the diagnosis of MIs compared to other myositis and the identification of cells potentially involved during sIBM and anti-Jo1 ASyS.
27

Generalizing association rules in n-ary relations : application to dynamic graph analysis / Généralisation des règles d'association dans des relations n-aires : application à l'analyse de graphes dynamiques

Nguyen, Thi Kim Ngan 23 October 2012 (has links)
Le calcul de motifs dans de grandes relations binaires a été très étudié. Un succès emblématique concerne la découverte d'ensembles fréquents et leurs post-traitements pour en dériver des règles d'association. Il s'agit de calculer des motifs dans des relations binaires qui enregistrent quelles sont les propriétés satisfaites par des objets. En fait, de nombreux jeux de données se présentent naturellement comme des relations n-aires (avec n > 2). Par exemple, avec l'ajout de dimensions spatiales et/ou temporelles (lieux et/ou temps où les propriétés sont enregistrées), la relation binaire Objets x Propriétés est étendue à une relation 4-aire Objets x Propriétés x Lieux x Temps. Nous avons généralisé le concept de règle d'association dans un tel contexte multi-dimensionnel. Contrairement aux règles usuelles qui n'impliquent que des sous-ensembles d'un seul domaine de la relation, les prémisses et les conclusions de nos règles peuvent impliquer des sous-ensembles arbitraires de certains domaines. Nous avons conçu des mesures de fréquence et de confiance pour définir la sémantique de telles règles et c'est une contribution significative de cette thèse. Le calcul exhaustif de toutes les règles qui ont des fréquences et confiances suffisantes et l'élimination des règles redondantes ont été étudiés. Nous proposons ensuite d'introduire des disjonctions dans les conclusions des règles, ce qui nécessite de retravailler les définitions des mesures d'intérêt et les questions de redondance. Pour ouvrir un champ d'application original, nous considérons la découverte de règles dans des graphes relationnels dynamiques qui peuvent être codés dans des relations n-aires (n ≥ 3). Une application à l'analyse des usages de bicyclettes dans le système Vélo'v (système de Vélos en libre-service du Grand Lyon) montre quelques usages possibles des règles que nous savons calculer avec nos prototypes logiciels. / Pattern discovery in large binary relations has been extensively studied. An emblematic success in this area concerns frequent itemset mining and its post-processing that derives association rules. In this case, we mine binary relations that encode whether some properties are satisfied or not by some objects. It is however clear that many datasets correspond to n-ary relations where n > 2. For example, adding spatial and/or temporal dimensions (location and/or time when the properties are satisfied by the objects) leads to the 4-ary relation Objects x Properties x Places x Times. Therefore, we study the generalization of association rule mining within arbitrary n-ary relations: the datasets are now Boolean tensors and not only Boolean matrices. Unlike standard rules that involve subsets of only one domain of the relation, in our setting, the head and the body of a rule can include arbitrary subsets of some selected domains. A significant contribution of this thesis concerns the design of interestingness measures for such generalized rules: besides a frequency measures, two different views on rule confidence are considered. The concept of non-redundant rules and the efficient extraction of the non-redundant rules satisfying the minimal frequency and minimal confidence constraints are also studied. To increase the subjective interestingness of rules, we then introduce disjunctions in their heads. It requires to redefine the interestingness measures again and to revisit the redundancy issues. Finally, we apply our new rule discovery techniques to dynamic relational graph analysis. Such graphs can be encoded into n-ary relations (n ≥ 3). Our use case concerns bicycle renting in the Vélo'v system (self-service bicycle renting in Lyon). It illustrates the added-value of some rules that can be computed thanks to our software prototypes.
28

Décomposition tensorielle de signaux luminescents émis par des biosenseurs bactériens pour l'identification de Systèmes Métaux-Bactéries / Tensor decomposition approach for identifying bacteria-metals systems

Caland, Fabrice 17 September 2013 (has links)
La disponibilité et la persistance à l'échelle locale des métaux lourds pourraient être critiques notamment pour l'usage futur des zones agricoles ou urbaines, au droit desquelles de nombreux sites industriels se sont installés dans le passé. La gestion de ces situations environnementales complexes nécessitent le développement de nouvelles méthodes d'analyse peu invasives (capteurs environnementaux), comme celles utilisant des biosenseurs bactériens, afin d'identifier et d'évaluer directement l'effet biologique et la disponibilité chimique des métaux. Ainsi dans ce travail de thèse, nous avons cherché à identifier, à l'aide d'outils mathématiques de l'algèbre multilinéaire, les réponses de senseurs bactériens fluorescents dans des conditions environnementales variées, qu'il s'agisse d'un stress engendré par la présence à forte dose d'un métal ou d'une carence nutritive engendrée par son absence. Cette identification est fondée sur l'analyse quantitative à l'échelle d'une population bactérienne de signaux multidimensionnels. Elle repose en particulier sur (i) l'acquisition de données spectrales (fluorescence) multi-variées sur des suspensions de biosenseurs multicolores interagissant avec des métaux et sur (ii) le développement d'algorithme de décomposition tensoriels. Les méthodes proposées, développées et utilisées dans ce travail s'efforcent d'identifier « sans a priori» a minima, la réponse fonctionnelle de biosenseurs sous différentes conditions environnementales, par des méthodes de décomposition de tenseurs sous contraintes des signaux spectraux observables. Elles tirent parti de la variabilité des réponses systémiques et permettent de déterminer les sources élémentaires identifiant le système et leur comportement en fonction des paramètres extérieurs. Elles sont inspirées des méthodes CP et PARALIND . L'avantage de ce type d'approche, par rapport aux approches classiques, est l'identification unique des réponses des biosenseurs sous de faibles contraintes. Le travail a consisté à développer des algorithmes efficaces de séparations de sources pour les signaux fluorescents émis par des senseurs bactériens, garantissant la séparabilité des sources fluorescentes et l'unicité de la décomposition. Le point original de la thèse est la prise en compte des contraintes liées à la physique des phénomènes analysés telles que (i) la parcimonie des coefficients de mélange ou la positivité des signaux source, afin de réduire au maximum l'usage d'a priori ou (ii) la détermination non empirique de l'ordre de la décomposition (nombre de sources). Cette posture a permis aussi d'améliorer l'identification en optimisant les mesures physiques par l'utilisation de spectres synchrones ou en apportant une diversité suffisante aux plans d'expériences. L'usage des spectres synchrones s'est avéré déterminant à la fois pour améliorer la séparation des sources de fluorescence, mais aussi pour augmenter le rapport signal sur bruit des biosenseurs les plus faibles. Cette méthode d'analyse spectrale originale permet d'élargir fortement la gamme chromatique des biosenseurs fluorescents multicolores utilisables simultanément. Enfin, une nouvelle méthode d'estimation de la concentration de polluants métalliques présents dans un échantillon à partir de la réponse spectrale d'un mélange de biosenseurs non-spécifiques a été développée / Availability and persistence of heavy metals could be critical for future use of agricultural or urban areas, on which many industrial sites have installed in the past. The management of these complex environmental situations requiring the development of new analytical methods minimally invasive, such as bacterial biosensors, to identify and directly assess the biological effects and the chemical availability of metals. The aims of this thesis was to identify the responses of fluorescent bacterial sensors various environmental conditions, using mathematical tools of algebra multi-linear, whether stress caused by the presence of high dose of a metal or a nutrient deficiency caused by his absence. This identification is based on quantitative analysis of multidimensional signals at the bacterial population-scale. It is based in particular on (i) the acquisition of multivariate spectral data on suspensions of multicolored biosensors interacting with metals and (ii) the development of algorithms for tensor decomposition. The proposed methods, developed and used in this study attempt to identify functional response of biosensors without \textsl{a priori} by decomposition of tensor containing the spectral signals. These methods take advantage of the variability of systemic responses and allow to determine the basic sources identifying the system and their behavior to external factors. They are inspired by the CP and PARALIND methods. The advantage of this approach, compared to conventional approaches, is the unique identification of the responses of biosensors at low constraints. The work was to develop efficient algorithms for the source separation of fluorescent signals emitted by bacterial sensors, ensuring the sources separability and the uniqueness of the decomposition. The original point of this thesis is the consideration of the physical constraints of analyzed phenomena such as (i) the sparsity of mixing coefficients or positivity of sources signals in order to minimize the use of a priori or (ii) the non-empirical determination of the order of decomposition (number of sources).This posture has also improved the identification optimizing physical measurements by the use of synchronous spectra or providing sufficient diversity in design of experiments. The use of synchronous spectra proved crucial both to improve the separation of fluorescent sources, but also to increase the signal to noise ratio of the lowest biosensors. This original method of spectral analysis can greatly expand the color range of multicolored fluorescent biosensors used simultaneously. Finally, a new method of estimating the concentration of metal pollutants present in a sample from the spectral response of a mixture of non-specific biosensor was developed
29

Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'informations changeant au cours du temps

Kassab, Randa 11 May 2009 (has links) (PDF)
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps.<br /><br />L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données. <br /><br />Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples.
30

Méthodes analytiques pour le Risque des Portefeuilles Financiers

SADEFO KAMDEM, Jules 15 December 2004 (has links) (PDF)
Dans cette thèse, on propose des méthodes analytiques ou numériques pour l'estimation de la VaR ou l'Expected Shortfall des portefeuilles linéaires, quadratiques, lorsque le vecteur des facteurs de risques suit un mélange convexe de distributions elliptiques. Aussi, on introduit pour la prémière fois la notion de "portefeuille quadratique" d'actifs de bases (ie. actions).

Page generated in 0.1058 seconds