• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 163
  • 35
  • 1
  • Tagged with
  • 519
  • 265
  • 108
  • 95
  • 93
  • 84
  • 80
  • 79
  • 76
  • 74
  • 61
  • 60
  • 59
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Functional linear regression models : application to high-throughput plant phenotyping functional data / Modèles statistiques de régression linéaire fonctionnelle : application sur des données fonctionnelles issues du phénotypage végétal haut débit

Manrique, Tito 19 December 2016 (has links)
L'Analyse des Données Fonctionnelles (ADF) est une branche de la statistique qui est de plus en plus utilisée dans de nombreux domaines scientifiques appliqués tels que l'expérimentation biologique, la finance, la physique, etc. Une raison à cela est l'utilisation des nouvelles technologies de collecte de données qui augmentent le nombre d'observations dans un intervalle de temps.Les jeux de données fonctionnelles sont des échantillons de réalisations de fonctions aléatoires qui sont des fonctions mesurables définies sur un espace de probabilité à valeurs dans un espace fonctionnel de dimension infinie.Parmi les nombreuses questions étudiées par l'ADF, la régression linéaire fonctionnelle est l'une des plus étudiées, aussi bien dans les applications que dans le développement méthodologique.L'objectif de cette thèse est l'étude de modèles de régression linéaire fonctionnels lorsque la covariable X et la réponse Y sont des fonctions aléatoires et les deux dépendent du temps. En particulier, nous abordons la question de l'influence de l'histoire d'une fonction aléatoire X sur la valeur actuelle d'une autre fonction aléatoire Y à un instant donné t.Pour ce faire, nous sommes surtout intéressés par trois modèles: le modèle fonctionnel de concurrence (Functional Concurrent Model: FCCM), le modèle fonctionnel de convolution (Functional Convolution Model: FCVM) et le modèle linéaire fonctionnel historique. En particulier pour le FCVM et FCCM nous avons proposé des estimateurs qui sont consistants, robustes et plus rapides à calculer par rapport à d'autres estimateurs déjà proposés dans la littérature.Notre méthode d'estimation dans le FCCM étend la méthode de régression Ridge développée dans le cas linéaire classique au cadre de données fonctionnelles. Nous avons montré la convergence en probabilité de cet estimateur, obtenu une vitesse de convergence et développé une méthode de choix optimal du paramètre de régularisation.Le FCVM permet d'étudier l'influence de l'histoire de X sur Y d'une manière simple par la convolution. Dans ce cas, nous utilisons la transformée de Fourier continue pour définir un estimateur du coefficient fonctionnel. Cet opérateur transforme le modèle de convolution en un FCCM associé dans le domaine des fréquences. La consistance et la vitesse de convergence de l'estimateur sont obtenues à partir du FCCM.Le FCVM peut être généralisé au modèle linéaire fonctionnel historique, qui est lui-même un cas particulier du modèle linéaire entièrement fonctionnel. Grâce à cela, nous avons utilisé l'estimateur de Karhunen-Loève du noyau historique. La question connexe de l'estimation de l'opérateur de covariance du bruit dans le modèle linéaire entièrement fonctionnel est également traitée. Finalement nous utilisons tous les modèles mentionnés ci-dessus pour étudier l'interaction entre le déficit de pression de vapeur (Vapour Pressure Deficit: VPD) et vitesse d'élongation foliaire (Leaf Elongation Rate: LER) courbes. Ce type de données est obtenu avec phénotypage végétal haut débit. L'étude est bien adaptée aux méthodes de l'ADF. / Functional data analysis (FDA) is a statistical branch that is increasingly being used in many applied scientific fields such as biological experimentation, finance, physics, etc. A reason for this is the use of new data collection technologies that increase the number of observations during a time interval.Functional datasets are realization samples of some random functions which are measurable functions defined on some probability space with values in an infinite dimensional functional space.There are many questions that FDA studies, among which functional linear regression is one of the most studied, both in applications and in methodological development.The objective of this thesis is the study of functional linear regression models when both the covariate X and the response Y are random functions and both of them are time-dependent. In particular we want to address the question of how the history of a random function X influences the current value of another random function Y at any given time t.In order to do this we are mainly interested in three models: the functional concurrent model (FCCM), the functional convolution model (FCVM) and the historical functional linear model. In particular for the FCVM and FCCM we have proposed estimators which are consistent, robust and which are faster to compute compared to others already proposed in the literature.Our estimation method in the FCCM extends the Ridge Regression method developed in the classical linear case to the functional data framework. We prove the probability convergence of this estimator, obtain a rate of convergence and develop an optimal selection procedure of theregularization parameter.The FCVM allows to study the influence of the history of X on Y in a simple way through the convolution. In this case we use the continuous Fourier transform operator to define an estimator of the functional coefficient. This operator transforms the convolution model into a FCCM associated in the frequency domain. The consistency and rate of convergence of the estimator are derived from the FCCM.The FCVM can be generalized to the historical functional linear model, which is itself a particular case of the fully functional linear model. Thanks to this we have used the Karhunen–Loève estimator of the historical kernel. The related question about the estimation of the covariance operator of the noise in the fully functional linear model is also treated.Finally we use all the aforementioned models to study the interaction between Vapour Pressure Deficit (VPD) and Leaf Elongation Rate (LER) curves. This kind of data is obtained with high-throughput plant phenotyping platform and is well suited to be studied with FDA methods.
192

Méthode adaptative de contrôle logique et de test de circuits AMS/FR / Adaptive logical control and test of AMS/RF circuits

Khereddine, Rafik 07 September 2011 (has links)
Les technologies microélectroniques ainsi que les outils de CAO actuels permettent la conception de plus en plus rapide de circuits et systèmes intégrés très complexes. L'un des plus importants problèmes rencontrés est de gérer la complexité en terme de nombre de transistors présents dans le système à manipuler ainsi qu'en terme de diversité des composants, dans la mesure où les systèmes actuels intègrent, sur un même support de type SiP ou bien SoC, de plus en plus de blocs fonctionnels hétérogènes. Le but de cette thèse est la recherche de nouvelles techniques de test qui mettent à contribution les ressources embarquées pour le test et le contrôle des modules AMS et RF. L'idée principale est de mettre en oeuvre pour ces composantes des méthodes de test et de contrôle suffisamment simples pour que les ressources numériques embarquées puissent permettre leur implémentation à faible coût. Les techniques proposées utilisent des modèles de représentation auto-régressifs qui prennent en comptes les non linéarités spécifiques à ce type de modules. Les paramètres du modèle comportemental du système sont utilisés pour la prédiction des performances du système qui sont nécessaire pour l'élaboration de la signature de test et le contrôle de la consommation du circuit. Deux démonstrateurs ont été mis en place pour valider la technique proposée : une chaine RF conçue au sein du groupe RMS et un accéléromètre de type MMA7361L. / Analogue-mixed-signal (AMS) and Radio frequency (RF) devices are required in many applications such as communications, multimedia, and signal processing. These applications are often subject to severe area constraints. The complexity of AMS and RF cores, together with shrinking device dimensions limit accessibility to the internal nodes of the circuit. This makes the test and the control of this circuit very difficult. Ensuring high test/control quality at low cost for these AMS and RF designs has become an important challenge for test engineers. RF and AMS cores are generally incorporated in a chip including large digital components as microprocessors and memories. The main idea of this work is to develop for these components simple test and control methods which can be implemented in the embedded resources of the system at low cost. The proposed techniques use autoregressive models for the devices under test/control. These models take into account the specific nonlinearities to such devices. Only the behavioural model parameters of the system are used to predict the system performances which are necessary to develop the test signature and/or control the consumption of the circuit. This method is implemented on a dsPiC30f for testing and controlling two demonstrators: a front-end RF card, designed in RMS group of TIMA laboratory, and a MMA7361L 3 axis accelerometer.
193

Schémas d'adaptations algorithmiques sur les nouveaux supports d'éxécution parallèles / Algorithmic adaptations schemas on the new parallel platforms

Achour, Sami 06 July 2013 (has links)
Avec la multitude des plates-formes parallèles émergentes caractérisées par une hétérogénéité sur le plan matériel (processeurs, réseaux, …), le développement d'applications et de bibliothèques parallèles performantes est devenu un défi. Une méthode qui se révèle appropriée pour relever ce défi est l'approche adaptative consistant à utiliser plusieurs paramètres (architecturaux, algorithmiques,…) dans l'objectif d'optimiser l'exécution de l'application sur la plate-forme considérée. Les applications adoptant cette approche doivent tirer avantage des méthodes de modélisation de performance pour effectuer leurs choix entre les différentes alternatives dont elles disposent (algorithmes, implémentations ou ordonnancement). L'usage de ces méthodes de modélisation dans les applications adaptatives doit obéir aux contraintes imposées par ce contexte, à savoir la rapidité et la précision des prédictions. Nous proposons dans ce travail, en premier lieu, un framework de développement d'applications parallèles adaptatives basé sur la modélisation théorique de performances. Ensuite, nous nous concentrons sur la tâche de prédiction de performance pour le cas des milieux parallèles et hiérarchiques. En effet, nous proposons un framework combinant les différentes méthodes de modélisation de performance (analytique, expérimentale et simulation) afin de garantir un compromis entre les contraintes suscités. Ce framework profite du moment d'installation de l'application parallèle pour découvrir la plate-forme d'exécution et les traces de l'application afin de modéliser le comportement des parties de calcul et de communication. Pour la modélisation de ces deux composantes, nous avons développé plusieurs méthodes s'articulant sur des expérimentations et sur la régression polynômiale pour fournir des modèles précis. Les modèles résultats de la phase d'installation seront utilisés (au moment de l'exécution) par notre outil de prédiction de performance de programmes MPI (MPI-PERF-SIM) pour prédire le comportement de ces derniers. La validation de ce dernier framework est effectuée séparément pour les différents modules, puis globalement pour le noyau du produit de matrices. / With the multitude of emerging parallel platforms characterized by their heterogeneity in terms of hardware components (processors, networks, ...), the development of performant applications and parallel libraries have become a challenge. A method proved suitable to face this challenge is the adaptive approach which uses several parameters (architectural, algorithmic, ...) in order to optimize the execution of the application on the target platform. Applications adopting this approach must take advantage of performance modeling methods to make their choice between the alternatives they have (algorithms, implementations or scheduling). The use of these modeling approaches in adaptive applications must obey the constraints imposed by the context, namely predictions speed and accuracy. We propose in this work, first, a framework for developing adaptive parallel applications based on theoretical modeling performance. Then, we focuse on the task of performance prediction for the case of parallel and hierarchical environments. Indeed, we propose a framework combining different methods of performance modeling (analytical, experimental and simulation) to ensure a balance between the constraints raised. This framework makes use of the installing phase of the application to discover the parallel platform and the execution traces of this application in order to model the behavior of two components namely computing kernels and pt/pt communications. For the modeling of these components, we have developed several methods based on experiments and polynomial regression to provide accurate models. The resulted models will be used at runtime by our tool for performance prediction of MPI programs (MPI-PERF-SIM) to predict the behavior of the latter. The validation of the latter framework is done separately for the different modules, then globally on the matrix product kernel.
194

Theodor Fontane. L’acte littéraire ou la réponse de Narcisse / Theodor Fontane. The literary act as the response of Narcissus

Clot, Jean 22 January 2011 (has links)
Le présent travail propose une interprétation psychanalytique de l’œuvre de l’écrivain réaliste allemand Theodor Fontane (1819 1898). À la lumière de la théorie freudienne et des thèses de Béla Grunberger sur le narcissisme, nous montrons ce que sont les ressorts et les enjeux inconscients de la création littéraire, chez cet auteur, laquelle, dans son principe, reproduit le schème de la position fantasmatique régressive que ménageait la grande passion ludique de l’enfant, le jeu de cache cache selon un mode spécifique. Partant du constat de la structure obsessionnelle des romans, notre étude met en évidence, dans un premier livre, l’existence, « sous » la fable sociale récurrente de la liaison amoureuse illicite, sanctionnée (adultère et relations équivalentes), d’un singulier scénario s’articulant autour de la dynamique du « pseudo Œdipe », que décrit Grunberger (procédure d’évitement, à des fins de régression), et du mécanisme de la défense masochique. L’analyse de ce « mythe personnel » (Mauron), comme situation dramatique interne, nous amène à dégager les traits particuliers des éléments constitutifs de la personnalité psychique de Fontane (imagos et instances), puis à établir la genèse de sa position « pseudo œdipienne » et à faire ressortir le rapport qui la lie au processus de création (« rétablissement narcissique »). Les résultats acquis sont passés au révélateur de la vie de l’écrivain. Dans un second livre, nous nous penchons, tour à tour, sur les divers aspects essentiels de l’œuvre, réexaminés sous le nouvel éclairage apporté : fonctionnalité de l’ambivalence, conception du réalisme « poétique » (transfigurateur), recherche de la conciliation des principes contraires, écriture comme la pratique d’un jeu de cache cache (questions du dialogisme, de la stratégie narrative, du symbolisme). La dernière partie est consacrée à l’étude de la problématique cardinale de la régression narcissique, à laquelle tout mène, ici : instrumentalisation du complexe de la faute et de la sanction, à visée autodestructrice, dans une tension vers la mort fantasmée comme le retour à l’état de félicité du séjour au sein originel. / This study offers a psychoanalytical interpretation of the works of Theodor Fontane (1819 1898), the German realist writer. In the light of the Freudian theory and of Béla Grunberger’s theses on narcissism, we show the unconscious motivations which gave rise to this author’s literary creation and what is at stake in this process for him. The act of writing is based here on the principle of reproducing the scheme of the fantastical regressive position which was generated by Fontane’s strong passion as a child for the game of hide and seek, which he played in his own specific way. Considering the obsessive structure of his novels, in our first book we demonstrate the existence — “beneath” the ever present social dictum of the forbidden love affair that is always to be punished (adultery and similar relationships) — of a particular scenario revolving around the dynamic of the “pseudo Oedipus”, as described by Grunberger (avoidance procedure aiming at regression) and the mechanism of masochistic defense. The analysis of this “personal myth” (Mauron), as an inner dramatic situation, leads us, first, to unearth the specific features of the elements which make up Fontane’s psychic personality (imagoes and agencies), and then to establish the genesis of his “pseudo oedipal” position and to highlight its link with the creative process (“narcissistic restoration”). Our results are substantiated through the writers’s biography. In the second book we deal with the essential aspects of Fontane’s work, which we re examine thanks to what we have brought to light: the functionality of ambivalence, the conception of transfigurating “poetic” realism, the attempt to reconcile opposite principles and writing as a game of hide and seek (dialogism, narrative strategy, symbolism). The last part of our study is devoted to the cardinal issue of narcissistic regression to which everything leads: mainly the instrumentation of the complex of guilt and retribution with a self destructing aim in a tropism towards death fantasized as a return to the original state of bliss in the womb.
195

Modélisation mathématique du micro-crédit / Non disponible

Mauk, Pheakdei 27 June 2013 (has links)
Le travail soumis commence par un aperçu du micro-crédit tel qu’il a été introduit au Bangladesh par M. Yunus. Puis on donne un modèle stochastique des retards de versement. Comme ces retards ne donnent pas lieu à une sanction financière, ils constituent, de fait, une baisse du taux réel de crédit. Ce taux est alors, lui-même, aléatoire. On calcule un taux espéré en fonction de la probabilité de retard de remboursement hebdomadaire. On déduit que ce taux espéré est d’environ 3.5% inférieur au taux (annoncé) du cas déterministe si l’on considère que 3% des retards atteignent 4 semaines. Le travail se poursuit par une étude statistique de données du micro-crédit en Thaïlande. On commence par présenter un modèle de régression logistique du taux de remboursement par rapport aux 23 variables mesurées sur un échantillon de 219 groupes d’emprunteurs. On présente ensuite une sélection des variables les plus pertinentes selon un critère AIC ou BIC par une méthode “backward stepwise”. Finalement des expériences sur des sous-échantillons montrent une bonne stabilité du choix des variables obtenues par la sélection. / This study is inspired from a real scenario of microcredit lending introduced in Bangladesh by Yunus. A stochastic model of random delays in repayment installments is then constructed. Since delays occur without financial penalty, the interest rate is obviously lower than the exact claimed. This rate then becomes a random variable corresponding to the random repayment time, in which simulation results of its distribution are provided. The expected rate is computed as a function of in-time installment probability. It is found around 3.5% lower than the exact one in the deterministic case when considering 3% of delay occurred within four weeks in real practice. The work is extended to a statistical analysis on data of microcredit in Thailand. It is started by presenting a logistic regression model of repayment outcome containing 23 input variables measured on a sample of 219 lending groups. Applying penalized criterion, AIC or BIC together with backward stepwise elimination procedure on the full model, a more parsimonious model kept only most relevant predictors is obtained. Finally, experiments on sub-samples show a stability of the chosen predictors obtained by the selection method.
196

L’épidémiologie de l’infection VIH chez l’adulte en Guadeloupe : étude à partir de la base de données hospitalière sur l’infection VIH (1988-2009) / The epidemiology of HIV among adults in Guadeloupe : a study from the guadeloupean hospital database of HIV (1988-2009)

Elenga, Narcisse 10 November 2014 (has links)
Avec un taux d’incidence cumulée de 56 cas pour 100 000 habitants, la Guadeloupe est la deuxième région de France la plus touchée par le VIH. La plupart des publications sur le VIH/Sida en Guadeloupe sont essentiellement descriptives, issues de rapports d’activité. La base hospitalière, alimentant la Base de données Hospitalière française sur l’infection à VIH, n’a été que très peu exploitée pour la recherche. L’objectif de ce travail est d’évaluer les aspects fondamentaux de la prise en charge de l’infection VIH. Ainsi le dépistage tardif, le retard à la prise en charge spécialisée, l’interruption du suivi, les infections opportunistes et les décès sont étudiés ainsi que leurs facteurs prédictifs.Dans ce travail articulé autour de six publications, nous avons mis en évidence les points suivants : tout d’abord, le diagnostic très tardif (CD4<200/mm3) concernait 40,12 % des adultes infectés par le VIH suivis en Guadeloupe. Comparé à la France métropolitaine, ce taux est encore très élevé et souligne l’importance de poursuivre les efforts de dépistage. Pour pouvoir bénéficier d’une prise en charge précoce, le patient doit être dirigé dans un centre de traitement de l’infection par le VIH sans tarder. Or, le retard dans cette prise en charge spécialisée touchait 36 % des patients. L’analyse des éléments associés à ce retard a permis d’en identifier les facteurs de risque.Pour optimiser les résultats thérapeutiques, les patients nécessitent un suivi régulier. Ainsi, le système de santé devrait avoir comme objectif, entre autres, la rétention des patients dans le circuit de soins. Or, plus de 22 % des patients de cette cohorte étaient perdus de vue et jamais revus. Les patients plus jeunes, ceux au stade B de la classification CDC et ceux non traités par TTARV étaient plus à risque d’interruption de suivi, dès la première année suivant le diagnostic de l’infection VIH.Bien que la proportion des patients suivis sous ARV soit proche de 100 %, il en existe toujours développant un Sida. La comparaison avec la Guyane et la France métropolitaine montre que les trois premières affections classantes en Guadeloupe étaient la candidose oesophagienne, le syndrome de cachexie liée au VIH et la pneumocystose. Il existait des différences notables avec la métropole, mais aussi avec la Guyane. Ce taux élevé de syndrome de cachexie liée au VIH pose question. Derrière ce diagnostic, pourraient se cacher d’autres maladies opportunistes non diagnostiquées, mais également des différences de codage. Le recul de la mortalité avec le temps a entraîné une modification qualitative des causes de décès. Celles rapportées dans la littérature étaient les mêmes que celles observées dans notre étude. Contrairement à la métropole où le cancer représentait la première cause de mortalité, en Guadeloupe, les infections liées au Sida constituaient la première cause de décès.Ce travail de thèse s’est donc efforcé de dégager, pour l’une des régions de France les plus affectées par le VIH, quelques grands indicateurs à partir de la Base Hospitalière FHDH. Cette base ne comportait pas toujours toutes les informations souhaitées, mais le nombre substantiel d’observations donnait une puissance importante aux variables étudiées. Ces résultats, bien que confirmant souvent les connaissances empiriques des cliniciens, aura pu aider à mieux appréhender l’épidémie du VIH en Guadeloupe. / With an accumulated incidence rate of 56 cases per 100 000 inhabitants, Guadeloupe is the second French region most affected by HIV. Most of the publications on HIV/AIDS were essentially descriptive, stemming from annual reports. The Guadeloupean Hospital Database on HIV was scarcely exploited for research. The objective of this work was to estimate the fundamental aspects of HIV/AIDS in Guadeloupe. So late presentation for care, delay between HIV diagnosis and first specialised consultation, follow-up interruption, incidence of depression, opportunistic infections and deaths were studied as well as their predictive factors. We were able to highlight the following points: first, the very late HIV diagnosis (CD4< 200 / mm3) concerned 40, 12 % of HIV- infected adults followed in Guadeloupe. 36 % of patients had delays between HIV diagnosis and first specialised consultation. However, more than 22 % of patients were permanently lost to follow-up and never seen again. The first three classifying affections were oesophageal candidiasis, HIV-wasting syndrome and pneumocystosis. The causes of deaths reported in the literature were similar to those observed in our study. AIDS-related infections were the first cause of deaths.This thesis work thus tried to generate, in one of the most HIV-affected French regions, some indicators from the French Hospital Database on HIV. This database often did not contain all the desired informations, but the important number of observations allowed to have high power for the studied variables. These results, although often confirming the clinicians' empirical knowledge, may help understand some aspects of the HIV epidemic in Guadeloupe.
197

Reconstruction de champs aérodynamiques à partir de mesures ponctuelles / Reconstruction of turbulent velocity fields from punctual measurements

Arnault, Anthony 13 December 2016 (has links)
Le suivi en temps réel des écoulements turbulents est une tâche difficile ayant des applications dans de nombreux domaines. Un exemple est la mesure des tourbillons de sillage au niveau des pistes d’aéroports afin d’optimiser la distance entre les avions en phase d’approche ou de décollage. Un autre exemple se rapporte au contrôle actif d’écoulements. De tels contrôles peuvent servir à réduire le bruit des avions... Cette thèse vise à développer des outils afin d’estimer en temps réel des champs de vitesse d’écoulements turbulents à partir d’un faible nombre de mesures ponctuelles. Après une étude bibliographique centrée sur une méthode de reconstruction populaire, l’estimation stochastique (SE), ses performances sont évaluées pour la prédiction de champs de vitesse issus d’écoulements de complexité croissante. La précision des estimations obtenues étant très faibles dans certains cas, une analyse précise de la méthode est effectuée. Celle-ci a montré l’effet filtrant de la SE sur le contenu spatial et temporel des champs de vitesse. De plus, le fort impact de la position des capteurs a été mis en avant. C’est pourquoi un algorithme d’optimisation de la position des capteurs est ensuite présenté. Bien que l’optimisation de la position des capteurs mène à une amélioration de la précision des prédictions obtenues par SE, elle reste néanmoins très faible pour certains cas tests. L’utilisation d’une technique issue du domaine de l’assimilation de données, le filtre de Kalman qui combine un modèle dynamique de l’écoulement avec les mesures, a donc été étudiée. Pour certains écoulements, le filtre de Kalman permet d’obtenir des prédictions plus précises que la SE. / Real time monitoring of turbulent flows is a challenging task that concerns a large range of applications. Evaluating wake vortices around the approach runway of an airport, in order to optimize the distance between lined-up aircraft, is an example. Another one touches to the broad subject of active flow control. In aerodynamic, control of detached flows is an essential issue. Such a control can serve to reduce noise produced by airplanes, or improve their aerodynamic performances. This work aims at developing tools to produce real time prediction of turbulent velocity fields from a small number of punctual sensors. After a literature review focused on a popular reconstruction method in fluid mechanics, the Stochastic Estimation (SE), the first step was to evaluate its overall prediction performances on several turbulent flows of gradual complexity. The accuracy of the SE being very limited in some cases, a deeper characterization of the method was performed. The filtering effect of the SE in terms of spatial and temporal content was particularly highlighted. This characterization pointed out the strong influence of the sensor locations on the estimation quality. Therefore, a sensor location optimization algorithm was proposed and extended to the choice of time delays when using Multi-Time-Delay SE. While using optimized locations for the sensors hold some accuracy improvements, they were still insufficient for some test cases. The opportunity to use a data assimilation method, the Kalman filter that combines a dynamic model of the flow with sensor information, was investigated. For some cases, the results were promising and the Kalman filter outperforms all SE methods.
198

Amélioration et développement de méthodes de sélection du nombre de composantes et de prédicteurs significatifs pour une régression PLS et certaines de ses extensions à l'aide du bootstrap / lmprovement and development of selection methods for both the number of components and significant predictors for a PLS regression and some extensions with bootstrap techniques

Magnanensi, Jérémy 18 December 2015 (has links)
La régression Partial Least Squares (PLS), de part ses caractéristiques, est devenue une méthodologie statistique de choix pour le traitement de jeux de données issus d’études génomiques. La fiabilité de la régression PLS et de certaines de ses extensions repose, entre autres, sur une détermination robuste d’un hyperparamètre, le nombre de composantes. Une telle détermination reste un objectif important à ce jour, aucun critère existant ne pouvant être considéré comme globalement satisfaisant. Nous avons ainsi élaboré un nouveau critère de choix pour la sélection du nombre de composantes PLS basé sur la technique du bootstrap et caractérisé notamment par une forte stabilité. Nous avons ensuite pu l’adapter et l’utiliser à des fins de développement et d’amélioration de procédés de sélection de prédicteurs significatifs, ouvrant ainsi la voie à une identification rendue plus fiable et robuste des probe sets impliqués dans la caractéristique étudiée d’une pathologie. / The Partial Least Squares (PLS) regression, through its properties, has become a versatile statistic methodology for the analysis of genomic datasets.The reliability of the PLS regression and some of its extensions relies on a robust determination of a tuning parameter, the number of components. Such a determination is still a major aim since no existing criterion could be considered as a global benchmark one in the state-of-art literature. We developed a new bootstrap based stopping criterion in PLS components construction that guarantee a high level of stability. We then adapted and used it to develop and improve variable selection processes, allowing a more reliable and robust determination of significant probe sets related to the studied feature of a pathology.
199

Fast characterization of the organic matter, instrumentation and modelling for the AD process performances prediction / Caractérisation rapide de la matière organique, instrumentation et modélisation pour la prédiction des performances des procédés de digestion anaérobie

Charnier, Cyrille 25 November 2016 (has links)
La digestion anaérobie est un des piliers de l'économie circulaire européenne, produisant du méthane et des engrais organiques à partir de déchets. Le développement de ce secteur passe par la co-digestion et l’optimisation de l'alimentation des procédés. Cela nécessite l'estimation de l'état biologique du digesteur, la caractérisation du substrat ainsi que l’utilisation de modèles prédictifs simulant les performances du digesteur, pour lesquels les solutions actuelles ne sont pas adaptées. Dans cette thèse, un capteur titrimétrique couplant pH et conductivité électrique pour l'estimation des concentrations en acides gras volatils, carbone inorganique et azote ammoniacale a été conçu, améliorant la précision d'estimation des acides gras volatils de 14,5 par rapport aux capteurs actuels. Couplé à l’analyse du biogaz, il permet d'estimer l'état biologique du procédé. En parallèle, une analyse spectroscopique proche-infrarouge, estimant les teneurs en glucides, protéines, lipides, demande chimique en oxygène, rendement et cinétique de production de méthane a été développée réduisant le temps de caractérisation des substrats à quelques minutes. La caractérisation rapide des substrats est utilisée pour implémenter le modèle de digestion anaérobie ADM1 de l’IWA qui prédit les performances d'un digesteur dans des conditions de digestion optimales. Le couplage de l’estimation de l'état biologique à cette approche permet de corriger la prédiction en prenant en compte l'état actuel du digesteur. Cette approche fournit un outil prédictif puissant pour le contrôle avancé des unités de digestion anaérobie ainsi que l'optimisation de la recette d'alimentation. / Anaerobic digestion is an important pillar of the European circular economy, producing methane and organic fertilizers from waste. The development of the anaerobic digestion sector goes through co-digestion and feeding strategy optimization. Its development requires the biological state estimation of the plant, substrate characterization and predictive models simulating the plant performances, for which current solutions are not suitable. In this thesis, a titration sensor coupling pH and electrical conductivity for the estimation of volatile fatty acids, inorganic carbon and ammonia has been designed, improving the accuracy on volatile fatty acids estimation by 14.5 compared to current sensors. Along with biogas analyses, it allows estimating the biological state of the unit. Besides, fast near infrared spectroscopic analysis, estimating in a matter of minute carbohydrate, protein and lipid contents, chemical oxygen demand, methane production yield and kinetics, has been developed. Thus fast substrate characterization is then used to implement a modified Anaerobic Digestion Model n°1 which predicts the performances of a plant under optimal condition. Coupling biological state estimation to this approach enables to correct the prediction with the current state of the plant. This approach provides a powerful predictive tool for advanced control of anaerobic digestion plants and feeding strategy optimization.
200

Dire la vieillesse en termes d'enfance. Un dévoiement du regard / The return to infancy : old age and second childhood

Humbert, Cédric 12 November 2015 (has links)
Comment comprendre la récurrence, dans la culture occidentale, des rapprochements entre la vieillesse et l’enfance fondés sur une idée de ressemblance ? Pour éclairer ce phénomène, nous avons analysé, dans la longue durée, ses manifestations discursives. Les métaphores, les comparaisons et les raisonnements par analogie à travers lesquels s’opèrent ces rapprochements apparaissent comme les expressions condensées de représentations sociales. Ces énoncés, qui reposent sur une hiérarchisation des âges de la vie et la valorisation de l’un d’entre eux, l’adulte que l’enfant n’est pas encore et que le vieux ne serait plus, forment un système d’interprétation où la vieillesse est dite en termes d’enfance, qu’il s’agisse de la décrire, de l’expliquer, de la dénigrer, d’en rire ou d’orienter les conduites. Invariant culturel qui renvoie au besoin de se référer à quelque chose de connu, ou supposé tel, pour comprendre quelque chose qui l’est moins, dire la vieillesse en termes d’enfance est un phénomène qui traverse les registres de discours et qui est observable jusque dans des propos d’experts de la vieillesse et du vieillissement. Il est traversé par des mécanismes de mise en valeur des ressemblances entre les vieux et les enfants et de masquage de leurs différences. Ces mécanismes favorisent les confusions entre le semblable et le même : le comparé peut être regardé comme identique au comparant et ce dernier devenir imitable. / Age and childhood, based on the idea of similarities? To shed light on this phenomenon we have studied how it manifests itself in speech in the long term. The metaphors, the comparisons and the analogical reasoning leading to these connections appear to be the condensed expressions of social representations. These statements, which rest on a hierarchy of the ages of man and the enhanced value of the adult, which the child has not yet reached and the elderly could no longer aspire to, form a system of interpretation where old age is depicted with the terms of childhood, be it to describe it, explain it, denigrate it, laugh about it or guide behaviour. It is a cultural habit which sends you back to the need to refer to something well known, or supposedly so, in order to understand something which is less familiar: talking about old age in terms of childhood is a phenomenon found throughout all levels of speech. It is noticed even in statements by experts in old age and ageing. It is full of mechanisms stressing similarities between the elderly and children and concealing their differences. These mechanisms favour some confusions between the similar and the identical: the compared item can be considered identical to the comparing item and the latter can become imitable.

Page generated in 0.0467 seconds