• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 6
  • 6
  • 5
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Segmentation du nombre de sinistres en assurance : de la loi de Poisson aux modèles gonflés à zéro et à barrière

Boucher, Jean-Philippe 16 May 2007 (has links)
La première partie de la thèse s'intéresse aux modèles de classification du nombre de réclamations sous l'hypothèse que toutes les observations analysées dans la base de données sont indépendantes. En introduisant les caractéristique du risque dans la moyenne par une fonction de score, le développe-ment de ce type de modèles permet de mieux comprendre l'impact de certaines caractéristiques sur la probabilité de réclamer à l'assureur. De plus, en utilisant des modèles qui diffèrent de la loi de Poisson, ces travaux permettent une autre interprétation du mécanisme de réclamation à l'assureur. L'effet du bonus-malus, des déductibles ou du changement de perception du conducteur après un accident sont toutes des explications possibles à la divergence entre le nombre de réclamation et la loi de Poisson. Dans la majorité des situations en assurance, les caractéristiques du risque ne sont pas toutes utilisées dans la tarification, soit parce qu'elles ne sont pas mesurables, soit parce qu'il serait socialement inacceptable de les utiliser. Ainsi, un facteur d'hétérogénéité permettant de capturer ces caractéristiques inobservables est ajouté au paramètre de moyenne de la loi de Poisson. Ce facteur additionnel, appelé hétérogénéité, est modélisé de façon paramétrique ou encore de manière non-paramétrique. Plusieurs méthodes peuvent être envisagées pour déterminer la forme non-paramétrique de cette étérogénéité. Nous avons analysé ces diverses méthodes d'évaluations et comparé les résultats avec des méthodes complètement paramétriques. Puisque de nombreux modèles pour données de comptage sont utilisés, des méthodes de comparaisons de modèles ont été développées. Certaines sont basées sur les distributions d'estimation des paramètres alors que certaines autres se basent sur la distribution du maximum de vraisemblance ou les critères d'information. Suite à ces analyses et ces comparaisons, nous pouvons voir que la distribution de l'hétérogénéité de la loi de Poisson ne peut pas être directement ajustée avec une distribution paramétrique simple. De la même manière, nous avons remarqué qu'une distribution plus complexe que la loi de Poisson, telles que la distribution à barrière, la binomiale négative X ou les modèles gonflés à zéro génèrent non-seulement un meilleur ajustement que les distributions de Poisson avec hétérogénéité, mais que leur utilisation se justifie intuitivement pour les données d'assurance. Une grande partie de cette thèse se consacre justement à l'analyse de ces nouvelles distributions en assurance. De manière similaire aux travaux effectués selon l'hypothèse que tous les contrats d'assurance sont indépendants, cette section de la thèse se consacre à l'analyse de modèles avec données de panel, supposant donc une dépendance entre les contrats d'un même assuré. Intuitivement, cette dépendance se justifie en considérant l'effet des variables de classification inconnues qui touchent tous les contrats d'un même assuré, ou encore en considérant l'impact d'un accident sur les habitudes de conduite d'un assuré. Ainsi, en se basant sur les lois de Poisson et binomiale négative, divers modèles créant une dépendance temporelle entre les contrats d'un même assuré sont étudiés. De ces distributions sont aussi calculées les primes prédictives, c'est-à-dire les primes conditionnelles à un historique de sinistres. Tout comme la partie précédente de la thèse, diverses interprétations des modèles sont proposées. De manière assez claire, un seul modèle sort du lot: le modèle où un effet aléatoire individuel affecte toutes les observations d'un même assuré. Néanmoins, avant d'utiliser ce modèle, une hypothèse essentielle d'indépendance entre les caractéristiques du risque et ce facteur aléatoire doit être vérifiée. Pour les données d'assurance, cette hypothèse n'est pas vérifiée en pratique et il est important d'en comprendre l'impact sur l'analyse actuarielle. Nous montrons numériquement que cette dépendance entre les caractéristiques du risque et l'effet aléatoire biaise l'espérance du modèle, et donc la prime a priori. Toutefois, nous montrons que ce biais n'a que très peu d'importance en assurance puisque les paramètres obtenus avec cette dépendance représentent l'effet apparent des caractéristiques sur le risque de réclamer, ce qui est justement l'intérêt de l'analyse actuarielle dans le cas où certaines caractéristiques sont absentes de l'étude. Nous tentons également d'utiliser le modèle à effets aléatoires avec une toute nouvelle sorte de distribution de comptage construite à l'aide des temps d'attente entre deux sinistres. Il est connu que la loi de Poisson suppose un temps exponentiel entre chaque sinistre. Ainsi, nous avons voulu voir ce que serait l'impact d'un choix différent pour cette distribution.Parce que les nouveaux assurés et les assurés qui quittent la compagnie d'assurance en cours de couverture ont des expériences de sinistres particulières, il arrive souvent que ceux-ci soient étudiés séparément des autres assurés lors de la tarification. Avec ces modèles de temps d'attente permettant de tarifer ces assurés différemment qu'au prorata de leur exposition au risque, nous introduisons une nouvelle façon de considérer l'analyse des différents contrats d'assurance. Parce que les modèles gonflés à zéro et les modèles à barrière étaient très intéressants intuitivement et parce que leur ajustement pour données avec indépendance temporelle était particulièrement bon, il semblait évident qu'une analyse de ce modèle pour données de panel devenait intéressante. Parmi les modèles avec dépendance temporelle, le modèle à effets aléatoires était celui qui offrait les résultats les plus prometteurs. Ainsi, dans cette partie de la thèse, nous avons pensé associer ce modèle pour données de panel aux modèles gonflés à zéro et à barrière, et ainsi créer diverses généralisations des modèles pour données de panel. Pour le modèle à barrière, la distribution suppose que deux processus indépendants déterminent le nombre total de réclamations. Un premier processus indique si l'assuré a réclamé au moins une fois, alors que le second processus détermine le nombre total de réclamations, conditionnellement au fait que l'assuré ait réclamé à son assureur. Des effets aléatoires sont donc ajoutés sur chaque processus de cette distribution, alors que diverses copulas sont sélectionnées afin de modéliser la dépendance entre les effets aléatoires. Nous montrons que la distribution prédictive du nombre de réclamations ne dépend pas seulement du nombre de réclamations passées, mais aussi du nombre de périodes dans lesquelles l'assuré a réclamé. La distribution prédictive ne pouvant pas s'exprimer de manière close pour toutes les distributions jointes des effets aléatoires, des simulations Monte Carlo par chaînes de Markov sont utilisées pour calculer les primes prédictives. A l'opposé du modèle à barrière, le modèle gonflé à zéro peut n'utiliser qu'un seul effet aléatoire. De plus, la distribution prédictive peut s'exprimer directement, ce qui facilite la comparaison entre modèles et le calcul des diverses statistiques. A l'instar du modèle à barrière, nous montrons que le nombre de réclamations passées n'est pas une statistique exhaustive pour la distribution prédictive puisqu'elle dépend aussi du nombre de périodes dans lesquelles l'assuré a réclamé au moins une fois. Profitant du fait que le modèle gonflé à zéro avec effets aléatoires gamma peut s'exprimer de manière fermée, diverses primes de crédibilité, utilisant une fonction de perte quadratique ou une fonction de perte exponentielle sont étudiées. Un point de vue totalement différent est aussi étudié, où de la distribution du nombre de réclamation est tirée la distribution du nombre de sinistres. L'analyse sous l'angle de la soif du bonus est donc possible. Afin d'obtenir des primes prédictives plus facilent calculables pour certains modèles à barrière et modèles gonflés à zéro, nous utilisons la théorie de la crédibilité multivariée, basée sur une erreur quadratique. Nous comparons ensuite le résultat de ces primes de crédibilité au vraies résultats obtenus par simulations. A l'aide d'un exemple numérique, nous montrons que la structure de dépendance supposée par diverses distributions jointes des effets aléatoires n'est pas bien modélisée par une approximation linéaire. Néanmoins, dans le cas où un seul effet aléatoire est utilisé ou dans la situation où les effets aléatoires sont supposés indépendants, nous réussissons à montrer qu'un modèle de crédibilité linéaire spécifique génère une approximation satisfaisante.
2

Analyse prédictive du devenir des médicaments dans l'environnement / Predictive analysis of the fate of pharmaceuticals in the environment

Laurencé, Céline 05 December 2011 (has links)
Les substances pharmaceutiques sont classées comme contaminants environnementaux émergents et suscitent une attention croissante du fait de leurs effets potentiellement néfastes sur les écosystèmes. Après excrétion ou élimination inappropriée, les médicaments vont se retrouver dans les eaux de surface, souterraines voire de consommation. De nombreuses études écotoxicologiques ont pour objet la mesure de leurs impacts sur les écosystèmes. Pour autant, ces études portent essentiellement sur le médicament lui-même alors que nombre d'entre eux sont susceptibles de se transformer dans l'environnement selon des processus biotiques (microorganismes) et/ou abiotiques (traitements chimiques, photodégradation). Les produits de transformations (PTs) ainsi formés vont d'une part, progressivement remplacer le médicament parent dans l'environnement, et d'autre part y exprimer une écotoxicité potentielle. Face à ce problème, nous nous proposons à partir d'un médicament largement utilisé, de procéder à la synthèse de ses PTs plausibles et à la mise au point de méthode de détection dans des matrices complexes. L'accès aux PTs suivra une approche pluridisciplinaire faisant appel à la bioconversion, l'électro-Fenton et l'oxydation électrochimique. L'analyse comparative des composés obtenus par ces différentes approches permettra de sélectionner les PTs les plus probables / Pharmaceuticals as well as personal care products are classified as emerging pollutants of increasing concern due to possible negative impacts on ecosystems. They are constantly introduced in sewage treatment plants either through excretion, or disposal by flushing of unused or expired medication, or directly within the sewage effluents of plants or hospitals. They end up in surface and ground waters and can even be found in drinking water. Many studies report on adverse effects on terrestrial and aquatic organisms. Pharmaceuticals have complex chemical structures capable of reacting in an aqueous medium under the action of chemical, biological or physical agents. Thus, the transformation products (TPs) gradually replace the parent drug in the environment. In addition these transformation products constitute markers of past or current presence of the drug in the environment. Faced with this problem, we believe it is necessary to synthesize the transformation products of the parent compounds to development their detection. The proposed method consists, firstly, to prepare the largest number of (TPs) of a particular drug using three complementary approaches : bioconversion, electro-Fenton and electrochemical oxidation. A second step is to identify the structures which are the most likely present in the environment. Expected advances are the development of a predictive methodology applicable to the study of any molecule involved in environmental risk
3

Integrating predictive analysis in self-adaptive pervasive systems / Intégration de l’analyse prédictive dans des systèmes auto-adaptatifs

Paez Anaya, Ivan Dario 22 September 2015 (has links)
Au cours des dernières années, il y a un intérêt croissant pour les systèmes logiciels capables de faire face à la dynamique des environnements en constante évolution. Actuellement, les systèmes auto-adaptatifs sont nécessaires pour l’adaptation dynamique à des situations nouvelles en maximisant performances et disponibilité. Les systèmes ubiquitaires et pervasifs fonctionnent dans des environnements complexes et hétérogènes et utilisent des dispositifs à ressources limitées où des événements peuvent compromettre la qualité du système. En conséquence, il est souhaitable de s’appuyer sur des mécanismes d’adaptation du système en fonction des événements se produisant dans le contexte d’exécution. En particulier, la communauté du génie logiciel pour les systèmes auto-adaptatif (Software Engineering for Self-Adaptive Systems - SEAMS) s’efforce d’atteindre un ensemble de propriétés d’autogestion dans les systèmes informatiques. Ces propriétés d’autogestion comprennent les propriétés dites self-configuring, self-healing, self-optimizing et self-protecting. Afin de parvenir à l’autogestion, le système logiciel met en œuvre un mécanisme de boucle de commande autonome nommé boucle MAPE-K [78]. La boucle MAPE-K est le paradigme de référence pour concevoir un logiciel auto-adaptatif dans le contexte de l’informatique autonome. Cet modèle se compose de capteurs et d’effecteurs ainsi que quatre activités clés : Monitor, Analyze, Plan et Execute, complétées d’une base de connaissance appelée Knowledge, qui permet le passage des informations entre les autres activités [78]. L’étude de la littérature récente sur le sujet [109, 71] montre que l’adaptation dynamique est généralement effectuée de manière réactive, et que dans ce cas les systèmes logiciels ne sont pas en mesure d’anticiper des situations problématiques récurrentes. Dans certaines situations, cela pourrait conduire à des surcoûts inutiles ou des indisponibilités temporaires de ressources du système. En revanche, une approche proactive n’est pas simplement agir en réponse à des événements de l’environnement, mais a un comportement déterminé par un but en prenant par anticipation des initiatives pour améliorer la performance du système ou la qualité de service. / In this thesis we proposed a proactive self-adaptation by integrating predictive analysis into two phases of the software process. At design time, we propose a predictive modeling process, which includes the activities: define goals, collect data, select model structure, prepare data, build candidate predictive models, training, testing and cross-validation of the candidate models and selection of the ''best'' models based on a measure of model goodness. At runtime, we consume the predictions from the selected predictive models using the running system actual data. Depending on the input data and the time allowed for learning algorithms, we argue that the software system can foresee future possible input variables of the system and adapt proactively in order to accomplish middle and long term goals and requirements.
4

Applications of proteochemometrics (PCM) : from species extrapolation to cell-line sensitivity modelling / Applications de proteochemometrics : à partir de l'extrapolation des espèces à la modélisation de la sensibilité de la lignée cellulaire

Cortes Ciriano, Isidro 16 June 2015 (has links)
Proteochemometrics (PCM) est une bioactivité prophétique la méthode posante de simultanément modeler la bioactivité de ligands multiple contre des objectifs multiples... / Proteochemometrics (PCM) is a predictive bioactivity modelling method to simultaneously model the bioactivity of multiple ligands against multiple targets. Therefore, PCM permits to explore the selectivity and promiscuity of ligands on biomolecular systems of different complexity, such proteins or even cell-line models. In practice, each ligand-target interaction is encoded by the concatenation of ligand and target descriptors. These descriptors are then used to train a single machine learning model. This simultaneous inclusion of both chemical and target information enables the extra- and interpolation to predict the bioactivity of compounds on targets, which can be not present in the training set. In this thesis, a methodological advance in the field is firstly introduced, namely how Bayesian inference (Gaussian Processes) can be successfully applied in the context of PCM for (i) the prediction of compounds bioactivity along with the error estimation of the prediction; (ii) the determination of the applicability domain of a PCM model; and (iii) the inclusion of experimental uncertainty of the bioactivity measurements. Additionally, the influence of noise in bioactivity models is benchmarked across a panel of 12 machine learning algorithms, showing that the noise in the input data has a marked and different influence on the predictive power of the considered algorithms. Subsequently, two R packages are presented. The first one, Chemically Aware Model Builder (camb), constitues an open source platform for the generation of predictive bioactivity models. The functionalities of camb include : (i) normalized chemical structure representation, (ii) calculation of 905 one- and two-dimensional physicochemical descriptors, and of 14 fingerprints for small molecules, (iii) 8 types of amino acid descriptors, (iv) 13 whole protein sequence descriptors, and (iv) training, validation and visualization of predictive models. The second package, conformal, permits the calculation of confidence intervals for individual predictions in the case of regression, and P values for classification settings. The usefulness of PCM to concomitantly optimize compounds selectivity and potency is subsequently illustrated in the context of two application scenarios, which are: (a) modelling isoform-selective cyclooxygenase inhibition; and (b) large-scale cancer cell-line drug sensitivity prediction, where the predictive signal of several cell-line profiling data is benchmarked (among others): basal gene expression, gene copy-number variation, exome sequencing, and protein abundance data. Overall, the application of PCM in these two case scenarios let us conclude that PCM is a suitable technique to model the activity of ligands exhibiting uncorrelated bioactivity profiles across a panel of targets, which can range from protein binding sites (a), to cancer cell-lines (b).
5

Méthode de modélisation prédictive de boîtiers des circuits intégrés en vue d’anticiper avant design l’immunité au bruit du circuit / predictive modeling method of electronic packages for noise immunity prediction

Bouchaala, Afef 02 December 2016 (has links)
Avec la miniaturisation de plus en plus poussée des composants sur silicium, certains phénomènes, connus sous le nom des problèmes de la Compatibilité Électromagnétique peuvent surgir, ils sont les principales causes de la reconception des systèmes intégrés. Ce travail de thèse consiste à développer une méthodologie d'analyse prédictive de la compatibilité électromagnétique pour les systèmes électroniques, par anticipation design. Afin d'aboutir à ce modèle prédictif, différents champs d'investigation ont été mise en place afin d'appréhender l'ensemble du problème. Premièrement, nous avons développé une méthode de prédiction des parasites du boîtier électronique appelée « MCTL Matrix Method ». Cette méthode est issue du principe du prototypage virtuel du boîtier et elle est basée sur des lignes de transmission multiconducteurs. Deuxièmement, nous avons proposé une méthodologie d'analyse de l'immunité du système complet dès les premières phases de la conception. / Modern electronic systems require a high-level of integrations. As a result, some phenomena which are known as ElectroMagnetic Compatibility (EMC) issues are arising, and they are the major causes of system redesign. This main objective of this work is to develop a predictive methodology for systems immunity. To do so, different fields have been investigated: first, we have developed a predictive method for package parasites called “MCTL Matrix Method” which is based on a virtual package prototyping and Multiconductor transmission lines. Then we have proposed a new methodology for system immunity at the earliest design stages.
6

A qualitative analysis to investigate the enablers of big data analytics that impacts sustainable supply chain / Investigation qualitative des facteurs qui permettent l’analyse de Big Data et la chaîne d’approvisionnement

Rodriguez Pellière, Lineth Arelys 27 August 2019 (has links)
Les académiques et les professionnels ont déjà montré que le Big Data et l'analyse prédictive, également connus dans la littérature sous le nom de BDPA, peuvent jouer un rôle fondamental dans la transformation et l'amélioration des fonctions de l'analyse de la chaîne d'approvisionnement durable (SSCA). Cependant, les connaissances sur la meilleure manière d'utiliser la BDPA pour augmenter simultanément les performances sociales, environnementale et financière. Par conséquent, avec les connaissances tirées de la littérature sur la SSCA, il semble que les entreprises peinent encore à mettre en oeuvre les pratiques de la SSCA. Les chercheursconviennent qu'il est encore nécessaire de comprendre les techniques, outils et facteurs des concepts de base de la SSCA pour adoption. C’est encore plus important d’intégrer BDPA en tant qu’atout stratégique dans les activités commerciales. Par conséquent, cette étude examine, par exemple, quels sont les facteurs de SSCA et quels sont les outils et techniques de BDPA qui permettent de mettre en évidence le 3BL (pour ses abréviations en anglais : "triple bottom line") des rendements de durabilité (environnementale, sociale et financière) via SCA.La thèse a adopté un constructionniste modéré, car elle comprend l’impact des facteurs Big Data sur les applications et les indicateurs de performance de la chaîne logistique analytique et durable. La thèse a également adopté un questionnaire et une étude de cas en tant que stratégie de recherche permettant de saisir les différentes perceptions des personnes et des entreprises dans l'application des mégadonnées sur la chaîne d'approvisionnement analytique et durable. La thèse a révélé une meilleure vision des facteurs pouvant influencer l'adoption du Big Data dans la chaîne d'approvisionnement analytique et durable. Cette recherche a permis de déterminer les facteurs en fonction des variables ayant une incidence sur l'adoption de BDPA pour SSCA, des outils et techniques permettant la prise de décision via SSCA et du coefficient de chaque facteur pour faciliter ou retarder l'adoption de la durabilité. Il n'a pas été étudié avant. Les résultats de la thèse suggèrent que les outils actuels utilisés par les entreprises ne peuvent pas analyser de grandes quantités de données par eux-mêmes. Les entreprises ont besoin d'outils plus appropriés pour effectuer ce travail. / Scholars and practitioners already shown that Big Data and Predictive Analytics also known in the literature as BDPA can play a pivotal role in transforming and improving the functions of sustainable supply chain analytics (SSCA). However, there is limited knowledge about how BDPA can be best leveraged to grow social, environmental and financial performance simultaneously. Therefore, with the knowledge coming from literature around SSCA, it seems that companies still struggled to implement SSCA practices. Researchers agree that is still a need to understand the techniques, tools, and enablers of the basics SSCA for its adoption; this is even more important to integrate BDPA as a strategic asset across business activities. Hence, this study investigates, for instance, what are the enablers of SSCA, and what are the tools and techniques of BDPA that enable the triple bottom line (3BL) of sustainability performances through SCA. The thesis adopted moderate constructionism since understanding of how the enablers of big data impacts sustainable supply chain analytics applications and performances. The thesis also adopted a questionnaire and a case study as a research strategy in order to capture the different perceptions of the people and the company on big data application on sustainable supply chain analytics. The thesis revealed a better insight of the factors that can affect in the adoption of big data on sustainable supply chain analytics. This research was capable to find the factors depending on the variable loadings that impact in the adoption of BDPA for SSCA, tools and techniques that enable decision making through SSCA, and the coefficient of each factor for facilitating or delaying sustainability adoption that wasn’t investigated before. The findings of the thesis suggest that the current tools that companies are using by itself can’t analyses data. The companies need more appropriate tools for the data analysis.

Page generated in 0.0807 seconds