• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 14
  • 11
  • 7
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 124
  • 124
  • 23
  • 23
  • 17
  • 14
  • 14
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Modélisation du transfert thermique couplé conductif et radiatif au sein de milieux fibreux portés à haute température / Modeling of the coupled radiative and conductive heat transfer within fibrous media at high temperature

Dauvois, Yann 14 December 2016 (has links)
Dans ce travail, les propriétés thermiques effectives du milieu fibreux sont déterminées en tenant compte du couplage conduction et rayonnement. Un échantillon numérique fibreux statistiquement homogène composé de deux phases a été généré en empilant des cylindres finis absorbant dans le vide. Ces cylindres sont dispersés selon des fonctions de distribution de la position de leur centre et de leur orientation. L'interpénétration des cylindres est permis. L'extinction, l'absorption et la diffusion sont caractérisées par des fonctions statistiques radiatives qui permettent de savoir si le milieu est Beerien (ou non). Elles sont déterminées précisément à l'aide d'une méthode de Monte Carlo. On montre que la phase gazeuse a un comportement Beerien et que le phase fibreuse a un comportement fortement non Beerien. Le champ de puissance radiative déposée dans le milieu fibreux est calculé en résolvant un modèle qui couple une Équation du Transfert Radiatif Généralisée (ETRG) et une Équation du Transfert radiatif Classique (ETR). Le modèle de conduction thermique est basé sur une méthode de marche aléatoire ne nécessitant aucun maillage. La simulation du mouvement Brownien de marcheurs dans les fibres permet de résoudre l'équation de l'énergie. L'idée de la méthode est de caractériser la température d'un volume élémentaire par une densité de marcheurs, qui peuvent parcourir le milieu. Le problème est gouverné par les conditions aux limites ; Une concentration constante de marcheurs (ou un flux constant) est associée à une température imposée (ou un flux). / In the present work, the effective heat transfer properties of fibrous medium are determined by taking into account a coupling of heat conduction and radiation. A virtual, statistically homogeneous, two-phase fibrous sample has been built by stacking finite absorbing cylinders in vaccum. These cylinders are dispersed according to prescribed distribution functions defining the cylinder positions and orientations. Cylinder overlappings are allowed. Extinction, absorption and scattering are characterised by radiative statistical functions which allow the Beerian behaviour of a medium to be assessed (or not). They are accurately determined with a Monte Carlo method. Whereas the gaseous phase exhibits a Beerian behaviour, the fibre phase is strongly non Beerian. The radiative power field deposited within the fibrous material is calculated by resolving a model which couples a Generalized Radiative Transfer Equation (GRTE) and a classic Radiative Transfer Equation (RTE). The model of conduction transfer is based on a random walk method without meshing. The simulation of Brownian motion of walkers in fibres allows the energy equation to be solved. The idea of the method is to characterize the temperature in an elementary volume by the density of walkers, which roam the medium. The problem is governed by boundary conditions ; A constant concentration of walkers (or a constant flux) is associated with a fixed temperature (or flux).
102

Developments in statistics applied to hydrometeorology : imputation of streamflow data and semiparametric precipitation modeling / Développements en statistiques appliquées à l'hydrométéorologie : imputation de données de débit et modélisation semi-paramétrique de la précipitation

Tencaliec, Patricia 01 February 2017 (has links)
Les précipitations et les débits des cours d'eau constituent les deux variables hydrométéorologiques les plus importantes pour l'analyse des bassins versants. Ils fournissent des informations fondamentales pour la gestion intégrée des ressources en eau, telles que l’approvisionnement en eau potable, l'hydroélectricité, les prévisions d'inondations ou de sécheresses ou les systèmes d'irrigation.Dans cette thèse de doctorat sont abordés deux problèmes distincts. Le premier prend sa source dans l’étude des débits des cours d’eau. Dans le but de bien caractériser le comportement global d'un bassin versant, de longues séries temporelles de débit couvrant plusieurs dizaines d'années sont nécessaires. Cependant les données manquantes constatées dans les séries représentent une perte d'information et de fiabilité, et peuvent entraîner une interprétation erronée des caractéristiques statistiques des données. La méthode que nous proposons pour aborder le problème de l'imputation des débits se base sur des modèles de régression dynamique (DRM), plus spécifiquement, une régression linéaire multiple couplée à une modélisation des résidus de type ARIMA. Contrairement aux études antérieures portant sur l'inclusion de variables explicatives multiples ou la modélisation des résidus à partir d'une régression linéaire simple, l'utilisation des DRMs permet de prendre en compte les deux aspects. Nous appliquons cette méthode pour reconstruire les données journalières de débit à huit stations situées dans le bassin versant de la Durance (France), sur une période de 107 ans. En appliquant la méthode proposée, nous parvenons à reconstituer les débits sans utiliser d'autres variables explicatives. Nous comparons les résultats de notre modèle avec ceux obtenus à partir d'un modèle complexe basé sur les analogues et la modélisation hydrologique et d'une approche basée sur le plus proche voisin. Dans la majorité des cas, les DRMs montrent une meilleure performance lors de la reconstitution de périodes de données manquantes de tailles différentes, dans certains cas pouvant allant jusqu'à 20 ans.Le deuxième problème que nous considérons dans cette thèse concerne la modélisation statistique des quantités de précipitations. La recherche dans ce domaine est actuellement très active car la distribution des précipitations exhibe une queue supérieure lourde et, au début de cette thèse, il n'existait aucune méthode satisfaisante permettant de modéliser toute la gamme des précipitations. Récemment, une nouvelle classe de distribution paramétrique, appelée distribution généralisée de Pareto étendue (EGPD), a été développée dans ce but. Cette distribution exhibe une meilleure performance, mais elle manque de flexibilité pour modéliser la partie centrale de la distribution. Dans le but d’améliorer la flexibilité, nous développons, deux nouveaux modèles reposant sur des méthodes semiparamétriques.Le premier estimateur développé transforme d'abord les données avec la distribution cumulative EGPD puis estime la densité des données transformées en appliquant un estimateur nonparamétrique par noyau. Nous comparons les résultats de la méthode proposée avec ceux obtenus en appliquant la distribution EGPD paramétrique sur plusieurs simulations, ainsi que sur deux séries de précipitations au sud-est de la France. Les résultats montrent que la méthode proposée se comporte mieux que l'EGPD, l’erreur absolue moyenne intégrée (MIAE) de la densité étant dans tous les cas presque deux fois inférieure.Le deuxième modèle considère une distribution EGPD semiparamétrique basée sur les polynômes de Bernstein. Plus précisément, nous utilisons un mélange creuse de densités béta. De même, nous comparons nos résultats avec ceux obtenus par la distribution EGPD paramétrique sur des jeux de données simulés et réels. Comme précédemment, le MIAE de la densité est considérablement réduit, cet effet étant encore plus évident à mesure que la taille de l'échantillon augmente. / Precipitation and streamflow are the two most important meteorological and hydrological variables when analyzing river watersheds. They provide fundamental insights for water resources management, design, or planning, such as urban water supplies, hydropower, forecast of flood or droughts events, or irrigation systems for agriculture.In this PhD thesis we approach two different problems. The first one originates from the study of observed streamflow data. In order to properly characterize the overall behavior of a watershed, long datasets spanning tens of years are needed. However, the quality of the measurement dataset decreases the further we go back in time, and blocks of data of different lengths are missing from the dataset. These missing intervals represent a loss of information and can cause erroneous summary data interpretation or unreliable scientific analysis.The method that we propose for approaching the problem of streamflow imputation is based on dynamic regression models (DRMs), more specifically, a multiple linear regression with ARIMA residual modeling. Unlike previous studies that address either the inclusion of multiple explanatory variables or the modeling of the residuals from a simple linear regression, the use of DRMs allows to take into account both aspects. We apply this method for reconstructing the data of eight stations situated in the Durance watershed in the south-east of France, each containing daily streamflow measurements over a period of 107 years. By applying the proposed method, we manage to reconstruct the data without making use of additional variables, like other models require. We compare the results of our model with the ones obtained from a complex approach based on analogs coupled to a hydrological model and a nearest-neighbor approach, respectively. In the majority of cases, DRMs show an increased performance when reconstructing missing values blocks of various lengths, in some of the cases ranging up to 20 years.The second problem that we approach in this PhD thesis addresses the statistical modeling of precipitation amounts. The research area regarding this topic is currently very active as the distribution of precipitation is a heavy-tailed one, and at the moment, there is no general method for modeling the entire range of data with high performance. Recently, in order to propose a method that models the full-range precipitation amounts, a new class of distribution called extended generalized Pareto distribution (EGPD) was introduced, specifically with focus on the EGPD models based on parametric families. These models provide an improved performance when compared to previously proposed distributions, however, they lack flexibility in modeling the bulk of the distribution. We want to improve, through, this aspect by proposing in the second part of the thesis, two new models relying on semiparametric methods.The first method that we develop is the transformed kernel estimator based on the EGPD transformation. That is, we propose an estimator obtained by, first, transforming the data with the EGPD cdf, and then, estimating the density of the transformed data by applying a nonparametric kernel density estimator. We compare the results of the proposed method with the ones obtained by applying EGPD on several simulated scenarios, as well as on two precipitation datasets from south-east of France. The results show that the proposed method behaves better than parametric EGPD, the MIAE of the density being in all the cases almost twice as small.A second approach consists of a new model from the general EGPD class, i.e., we consider a semiparametric EGPD based on Bernstein polynomials, more specifically, we use a sparse mixture of beta densities. Once again, we compare our results with the ones obtained by EGPD on both simulated and real datasets. As before, the MIAE of the density is considerably reduced, this effect being even more obvious as the sample size increases.
103

Theoretical and numerical study of collision and coalescence - Statistical modeling approaches in gas-droplet turbulent flows / Étude théorique et numérique de collision et coalescence - Approches statistiques de la modélisation des écoulements turbulents gaz-gouttes

Wunsch, Dirk 16 December 2009 (has links)
Ce travail consiste en une étude des phénomènes de coalescence dans un nuage de gouttes, par la simulation numérique directe d'un écoulement turbulent gazeux, couplée avec une approche de suivi Lagrangien pour la phase dispersée. La première étape consiste à développer et valider une méthode de détection des collisions pour une phase polydispersée. Elle est ensuite implémentée dans un code couplé de simulation directe et de suivi Lagrangien existant. Des simulations sont menées pour une turbulence homogène isotrope de la phase continue et pour des phases dispersées en équilibre avec le fluide. L'influence de l'inertie des gouttes et de la turbulence sur le taux de coalescence des gouttes est discutée dans un régime de coalescence permanente. Un aperçu est donné de la prise en compte d'autres régimes de collision et de coalescence entre gouttes. Ces simulations sont la base de développement et de validation des approches utilisées dans les calculs à l'échelle industrielle. En particulier, les résultats des simulations sont comparés avec les prédictions d'une approche Lagrangienne de type Monte-Carlo et de l'approche Eulerienne 'Direct Quadrature Method of Moments' (DQMOM). Différents types de fermeture des termes de coalescence sont validés. Les uns sont basés sur l'hypothèse de chaos-moléculaire, les autres sont capables de prendre en compte des corrélations de vitesses des gouttes avant la collision. Il est montré que cette derniere approche prédit beaucoup mieux le taux de coalescence par comparaison avec les résultats des simulations déterministes. / Coalescence in a droplet cloud is studied in this work by means of direct numerical simulation of the turbulent gas flow, which is coupled with a Lagrangian tracking of the disperse phase. In a first step, a collision detection algorithm is developed and validated, which can account for a polydisperse phase. This algorithm is then implemented into an existing code for direct numerical simulations coupled with a Lagrangian tracking scheme. Second, simulations are performed for the configuration of homogeneous isotropic turbulence of the fluid phase and a disperse phase in local equilibrium with the fluid. The influence of both droplet inertia and turbulence intensity on the coalescence rate of droplets is discussed in a pure permanent coalescence regime. First results are given, if other droplet collision outcomes than permanent coalescence (i.e. stretching and reflexive separation) are considered. These results show a strong dependence on the droplet inertia via the relative velocity of the colliding droplets at the moment of collision. The performed simulations serve also as reference data base for the development and validation of statistical modeling approaches, which can be used for simulations of industrial problems. In particular, the simulation results are compared to predictions from a Lagrangian Monte-Carlo type approach and the Eulerian 'Direct Quadrature Method of Moments' (DQMOM) approach. Different closures are validated for the coalescence terms in these approaches, which are based either on the assumption of molecular-chaos, or based on a formulation, which allows to account for the correlation of droplet velocities before collision by the fluid turbulence. It is shown that the latter predicts much better the coalescence rates in comparison with results obtained by the performed deterministic simulations.
104

Statistical modeling of protein sequences beyond structural prediction : high dimensional inference with correlated data / Modélisation statistique des séquences de protéines au-delà de la prédiction structurelle : inférence en haute dimension avec des données corrélées

Coucke, Alice 10 October 2016 (has links)
Grâce aux progrès des techniques de séquençage, les bases de données génomiques ont connu une croissance exponentielle depuis la fin des années 1990. Un grand nombre d'outils statistiques ont été développés à l'interface entre bioinformatique, apprentissage automatique et physique statistique, dans le but d'extraire de l'information de ce déluge de données. Plusieurs approches de physique statistique ont été récemment introduites dans le contexte précis de la modélisation de séquences de protéines, dont l'analyse en couplages directs. Cette méthode d'inférence statistique globale fondée sur le principe d'entropie maximale, s'est récemment montrée d'une efficacité redoutable pour prédire la structure tridimensionnelle de protéines, à partir de considérations purement statistiques.Dans cette thèse, nous présentons les méthodes d'inférence en question, et encouragés par leur succès, explorons d'autres domaines complexes dans lesquels elles pourraient être appliquées, comme la détection d'homologies. Contrairement à la prédiction des contacts entre résidus qui se limite à une information topologique sur le réseau d'interactions, ces nouveaux champs d'application exigent des considérations énergétiques globales et donc un modèle plus quantitatif et détaillé. À travers une étude approfondie sur des donnéesartificielles et biologiques, nous proposons une meilleure interpretation des paramètres centraux de ces méthodes d'inférence, jusqu'ici mal compris, notamment dans le cas d'un échantillonnage limité. Enfin, nous présentons une nouvelle procédure plus précise d'inférence de modèles génératifs, qui mène à des avancées importantes pour des données réelles en quantité limitée. / Over the last decades, genomic databases have grown exponentially in size thanks to the constant progress of modern DNA sequencing. A large variety of statistical tools have been developed, at the interface between bioinformatics, machine learning, and statistical physics, to extract information from these ever increasing datasets. In the specific context of protein sequence data, several approaches have been recently introduced by statistical physicists, such as direct-coupling analysis, a global statistical inference method based on the maximum-entropy principle, that has proven to be extremely effective in predicting the three-dimensional structure of proteins from purely statistical considerations.In this dissertation, we review the relevant inference methods and, encouraged by their success, discuss their extension to other challenging fields, such as sequence folding prediction and homology detection. Contrary to residue-residue contact prediction, which relies on an intrinsically topological information about the network of interactions, these fields require global energetic considerations and therefore a more quantitative and detailed model. Through an extensive study on both artificial and biological data, we provide a better interpretation of the central inferred parameters, up to now poorly understood, especially in the limited sampling regime. Finally, we present a new and more precise procedure for the inference of generative models, which leads to further improvements on real, finitely sampled data.
105

Problèmes de comportement à long terme chez les patients pédiatriques atteints de leucémie lymphoblastique aiguë

Marcoux, Sophie 12 1900 (has links)
Les améliorations dans les protocoles de traitement pour la majorité des cancers pédiatriques ont augmenté de façon marquée les taux de survie. Cependant, des risques élevés de multiples problèmes de santé chez les survivants sont bien documentés. En ce qui concerne spécifiquement les problèmes neuropsychologiques, les principaux facteurs de risque individuels connus à ce jour (l’âge au diagnostic, le genre du patient, l’exposition aux radiations) demeurent insuffisants pour cibler efficacement et prévenir les séquelles à long terme. Les objectifs généraux de cette thèse étaient : 1) la caractérisation des trajectoires individuelles de problèmes de comportement chez une population de patients pédiatriques atteints de leucémie lymphoblastique aiguë; 2) l’identification des principaux déterminants génétiques, médicaux et psychosociaux associés aux problèmes de comportements. Les hypothèses étaient : 1) Il existe une association entre les trajectoires individuelles de problèmes de comportement et a - des facteurs psychosociaux liés au fonctionnement familial, b - des polymorphismes dans les gènes modérateurs des effets thérapeutiques du méthotrexate et des glucocorticoïdes, c - des variables liées aux traitements oncologiques. 2) L'utilisation de modèles statistiques multi-niveaux peut permettre d’effectuer cette caractérisation des trajectoires individuelles et l’identification des facteurs de risque associés. 138 patients pédiatriques (0-18 ans) ayant reçu un diagnostic de leucémie lymphoblastique aiguë entre 1993 et 1999 au CHU Ste-Justine ont participé à une étude longitudinale d’une durée de 4 ans. Un instrument validé et standardisés, le Child Behavior Checklist, a été utilisé pour obtenir un indice de problèmes de comportement, tel que rapporté par la mère, au moment du diagnostic, puis 1, 2, 3 et 4 ans post-diagnostic. Des données génétiques, psychosociales et médicales ont aussi été collectées au cours de cette même étude longitudinale, puis ont été exploitées dans les modélisations statistiques effectuées. Les résultats obtenus suggèrent que les problèmes de comportement de type internalisés et externalisés possèdent des trajectoires et des facteurs de risque distincts. Les problèmes internalisés sont des manifestations de troubles affectifs chez le patient, tels que des symptômes dépressifs ou anxieux, par exemple. Ceux-ci sont très prévalents tôt après le diagnostic et se normalisent par la suite, indiquant des difficultés significatives, mais temporaires. Des facteurs médicaux exacerbant l'expérience de stress, soit le risque de rechute associé au diagnostic et les complications médicales affectant la durée de l'hospitalisation, ralentissent cette normalisation. Les problèmes externalisés se manifestent dans le contact avec autrui; des démonstrations d’agression ou de violence font partie des symptômes. Les problèmes externalisés sont plus stables dans le temps relativement aux problèmes internalisés. Des variables pharmacologiques et génétiques contribuent aux différences individuelles : l'administration d’un glucocorticoïde plus puissant du point de vue des effets pharmacologiques et toxicologiques, ainsi que l’homozygotie pour l’haplotype -786C844T du gène NOS3 sont liés à la modulation des scores de problèmes externalisés au fil du temps. Finalement, le niveau de stress familial perçu au diagnostic est positivement corrélé avec le niveau initial de problèmes externalisés chez le patient, tandis que peu après la fin de la période d’induction, le niveau de stress familial est en lien avec le niveau initial de problèmes internalisés. Ces résultats supportent l'idée qu'une approche holistique est essentielle pour espérer mettre en place des interventions préventives efficaces dans cette population. À long terme, ces connaissances pourraient contribuer significativement à l'amélioration de la qualité de vie des patients. Ces travaux enrichissent les connaissances actuelles en soulignant les bénéfices des suivis longitudinaux et multidisciplinaires pour comprendre la dynamique de changement opérant chez les patients. Le décloisonnement des savoirs semble devenir incontournable pour aspirer dépasser le cadre descriptif et atteindre un certain niveau de compréhension des phénomènes observés. Malgré des défis méthodologiques et logistiques évidents, ce type d’approche est non seulement souhaitable pour étudier des processus dynamiques, mais les travaux présentés dans cette thèse indiquent que cela est possible avec les moyens analytiques actuels. / Recent improvements in pediatric cancers treatment have led to marked increases in patient survival rate. However, it has been well documented that pediatric cancer survivors are at elevated risk for various other health problems. With respect specifically to neuropsychological side effects, known predictors (mainly: age at diagnosis, patient gender, exposure to radiation therapy) remain insufficient so far to target, and prevent efficiently, long term sequelae in this population. General objectives related to this thesis were: 1) characterization of individual trajectories of behavioral problems in pediatric patients with acute lymphoblastic leukemia; 2) the identification of genetic, medical and psychosocial determinants of behavioral problems in this population. This research program was based on the following hypotheses: 1) there is an association between the trajectories of individual behavioral problems and a – familial well-being-related psychosocial factors, b – gene polymorphisms involved in the therapeutic responses to methotrexate and glucocorticoids, c – anti-cancer treatments-related variables. 2) Multilevel statistical modeling can be used to characterize patient groups according to their individual behavioral problem trajectories, and can also identify predictive factors. 138 pediatric patients (0-18 years old) who received an acute lymphoblastic leukemia diagnosis between 1993 and 1999 at CHU Ste-Justine participated in this 4 years-long longitudinal study. A standardized and validated instrument, the Child Behavior Checklist, was used to measure behavior problems, as reported by the mother, at diagnosis, and then 1, 2, 3 and 4 years post-diagnosis. Genetic, psychosocial and medical data were also collected during this longitudinal study; these data were exploited in the context of the statistical modeling performed. Results obtained suggest that internalized and externalized behavioral problems have distinct trajectories and have different predictive factors. Internalized problems are affective issues presented by the patient, such as depressive or anxious symptoms. They are highly prevalent post-diagnosis and normalize over the following years, suggestive of temporary yet significant problems. Stress-enhancing medical variables such as a higher relapse risk at diagnosis and medical complications requiring a longer hospitalization slow down the normalization process. Externalized problems need interpersonal contact to occur; violence or aggressiveness manifestations are some examples. Compared to internalized problems, externalized problems are much more stable across time. However, pharmacological and genetic variables do contribute to individual differences in trajectories. In particular, administration of a more potent glucocorticoid (from pharmacological and toxicological perspectives) and being homozygous for NOS3 gene -786C844T haplotype are linked to modulation of externalized problems in time. Finally, the level of perceived family stress at time of diagnosis is positively correlated with initial externalized problems, while shortly after the induction period, the level of familial stress is linked with the initial internalized problems. Together, these results support the idea that a holistic care strategy is essential to develop efficient, preventive interventions in this population, due to the multifactorial nature of these behavioral problems. The knowledge generated in the present studies could contribute to better quality of life for these patients. This thesis also brings a more holistic contribution to our current knowledge of behavioral problems in this population, by highlighting the need for individual, multidisciplinary follow-ups, with particular emphasis on repeated measurements and appropriate statistical analyses. More than ever, knowledge de-compartmentalization appears essential in reaching a certain comprehension level of observed phenomena, rather than adhering to descriptive settings. It indicates that, despite obvious methodological and logistic challenges, this type of research is not only desirable in studying dynamic processes, but is certainly achievable with current analytical tools.
106

Markovo grandinės Monte-Karlo metodo tyrimas ir taikymas / Study and application of Markov chain Monte Carlo method

Vaičiulytė, Ingrida 09 December 2014 (has links)
Disertacijoje nagrinėjami Markovo grandinės Monte-Karlo (MCMC) adaptavimo metodai, skirti efektyviems skaitiniams duomenų analizės sprendimų priėmimo su iš anksto nustatytu patikimumu algoritmams sudaryti. Suformuluoti ir išspręsti hierarchiniu būdu sudarytų daugiamačių skirstinių (asimetrinio t skirstinio, Puasono-Gauso modelio, stabiliojo simetrinio vektoriaus dėsnio) parametrų vertinimo uždaviniai. Adaptuotai MCMC procedūrai sukurti yra pritaikytas nuoseklaus Monte-Karlo imčių generavimo metodas, įvedant statistinį stabdymo kriterijų ir imties tūrio reguliavimą. Statistiniai uždaviniai išspręsti šiuo metodu leidžia atskleisti aktualias MCMC metodų skaitmeninimo problemų ypatybes. MCMC algoritmų efektyvumas tiriamas pasinaudojant disertacijoje sudarytu statistinio modeliavimo metodu. Atlikti eksperimentai su sportininkų duomenimis ir sveikatos industrijai priklausančių įmonių finansiniais duomenimis patvirtino, kad metodo skaitinės savybės atitinka teorinį modelį. Taip pat sukurti metodai ir algoritmai pritaikyti sociologinių duomenų analizės modeliui sudaryti. Atlikti tyrimai parodė, kad adaptuotas MCMC algoritmas leidžia gauti nagrinėjamų skirstinių parametrų įvertinius per mažesnį grandžių skaičių ir maždaug du kartus sumažinti skaičiavimų apimtį. Disertacijoje sukonstruoti algoritmai gali būti pritaikyti stochastinio pobūdžio sistemų tyrimui ir kitiems statistikos uždaviniams spręsti MCMC metodu. / Markov chain Monte Carlo adaptive methods by creating computationally effective algorithms for decision-making of data analysis with the given accuracy are analyzed in this dissertation. The tasks for estimation of parameters of the multivariate distributions which are constructed in hierarchical way (skew t distribution, Poisson-Gaussian model, stable symmetric vector law) are described and solved in this research. To create the adaptive MCMC procedure, the sequential generating method is applied for Monte Carlo samples, introducing rules for statistical termination and for sample size regulation of Markov chains. Statistical tasks, solved by this method, reveal characteristics of relevant computational problems including MCMC method. Effectiveness of the MCMC algorithms is analyzed by statistical modeling method, constructed in the dissertation. Tests made with sportsmen data and financial data of enterprises, belonging to health-care industry, confirmed that numerical properties of the method correspond to the theoretical model. The methods and algorithms created also are applied to construct the model for sociological data analysis. Tests of algorithms have shown that adaptive MCMC algorithm allows to obtain estimators of examined distribution parameters in lower number of chains, and reducing the volume of calculations approximately two times. The algorithms created in this dissertation can be used to test the systems of stochastic type and to solve other statistical... [to full text]
107

Study and application of Markov chain Monte Carlo method / Markovo grandinės Monte-Karlo metodo tyrimas ir taikymas

Vaičiulytė, Ingrida 09 December 2014 (has links)
Markov chain Monte Carlo adaptive methods by creating computationally effective algorithms for decision-making of data analysis with the given accuracy are analyzed in this dissertation. The tasks for estimation of parameters of the multivariate distributions which are constructed in hierarchical way (skew t distribution, Poisson-Gaussian model, stable symmetric vector law) are described and solved in this research. To create the adaptive MCMC procedure, the sequential generating method is applied for Monte Carlo samples, introducing rules for statistical termination and for sample size regulation of Markov chains. Statistical tasks, solved by this method, reveal characteristics of relevant computational problems including MCMC method. Effectiveness of the MCMC algorithms is analyzed by statistical modeling method, constructed in the dissertation. Tests made with sportsmen data and financial data of enterprises, belonging to health-care industry, confirmed that numerical properties of the method correspond to the theoretical model. The methods and algorithms created also are applied to construct the model for sociological data analysis. Tests of algorithms have shown that adaptive MCMC algorithm allows to obtain estimators of examined distribution parameters in lower number of chains, and reducing the volume of calculations approximately two times. The algorithms created in this dissertation can be used to test the systems of stochastic type and to solve other statistical... [to full text] / Disertacijoje nagrinėjami Markovo grandinės Monte-Karlo (MCMC) adaptavimo metodai, skirti efektyviems skaitiniams duomenų analizės sprendimų priėmimo su iš anksto nustatytu patikimumu algoritmams sudaryti. Suformuluoti ir išspręsti hierarchiniu būdu sudarytų daugiamačių skirstinių (asimetrinio t skirstinio, Puasono-Gauso modelio, stabiliojo simetrinio vektoriaus dėsnio) parametrų vertinimo uždaviniai. Adaptuotai MCMC procedūrai sukurti yra pritaikytas nuoseklaus Monte-Karlo imčių generavimo metodas, įvedant statistinį stabdymo kriterijų ir imties tūrio reguliavimą. Statistiniai uždaviniai išspręsti šiuo metodu leidžia atskleisti aktualias MCMC metodų skaitmeninimo problemų ypatybes. MCMC algoritmų efektyvumas tiriamas pasinaudojant disertacijoje sudarytu statistinio modeliavimo metodu. Atlikti eksperimentai su sportininkų duomenimis ir sveikatos industrijai priklausančių įmonių finansiniais duomenimis patvirtino, kad metodo skaitinės savybės atitinka teorinį modelį. Taip pat sukurti metodai ir algoritmai pritaikyti sociologinių duomenų analizės modeliui sudaryti. Atlikti tyrimai parodė, kad adaptuotas MCMC algoritmas leidžia gauti nagrinėjamų skirstinių parametrų įvertinius per mažesnį grandžių skaičių ir maždaug du kartus sumažinti skaičiavimų apimtį. Disertacijoje sukonstruoti algoritmai gali būti pritaikyti stochastinio pobūdžio sistemų tyrimui ir kitiems statistikos uždaviniams spręsti MCMC metodu.
108

Beneficiation Of Himmetoglu And Beypazari Oil Shales By Flotation And Their Thermal Characterization As An Energy Source

Altun, Naci Emre 01 January 2006 (has links) (PDF)
Processing of Bolu-Himmetoglu (Type I Kerogen) and Ankara-Beypazari (Type II Kerogen) oil shales by flotation techniques were investigated for achieving clean solid fuel substitutes. Materials characterization was done through mineralogical, XRD and FTIR analyses. Flotation responses of the samples were tested with non-ionizing and ionizing collectors of cationic and anionic types. The effects of the collector dosage and pulp pH on cleaning were determined. Other important flotation parameters, conditioning time, flotation time, pulp density, particle size and frother dosage were encountered using a statistical approach, through a full two level factorial experimental design. An advanced flotation procedure, assisted by ultrasonic application, was developed for further improvement in flotation performance. The effects of cleaning on thermal characterstics and combustion kinetics were evaluated with Differential Scanning Calorimetry and ASTM methods while the changes in the emission profiles were assessed using Effluent Gas Analysis. Himmetoglu sample was characterized as a carbonate and organic rich humic oil shale with XRD and FTIR analyses while Beypazari oil shale involved significant carbonate and clay minerals and exhibited a fulvic character with a poor organics content. Reverse flotation with amine acetates provided the most effective means of cleaning with Himmetoglu oil shale. Ash was decreased from 34.76 % to 23.52 % with a combustible recovery of 83.57 % using 800 g/ton Flotigam CA at natural pH and the calorific value increased from 4312 kcal/kg to 5010 kcal/kg. Direct flotation with amines was most effective for Beypazari oil shale cleaning. Using Armoflote 17, ash was reduced from 69.88 % to 53.10 % with 58.64 % combustible recovery using 800 g/ton Armoflote 17 at natural pulp pH and the calorific value of the sample increased from 876 kcal/kg to 2046 kcal/kg. Following optimization, ash of Himmetoglu oil shale decreased to 16.81 % with 84.10 % combustible recovery and calorific value increased to 5564 kcal/kg. For Beypazari oil shale ash decreased to % 48.42 with 59.17 % combustible recovery and the calorific value increased to 2364 kcal/kg. Ultrasonic pre-treatment before flotation further decreased the ash of Himmetoglu sample to 11.82 % with 82.66 % combustible recovery at 15 minutes pre-conditioning time and 50 % power level. For Beypazari oil shale, ash decreased to 34.76 % with 64.78 % combustible recovery after 15 minutes pre-treatment time at 70 % power level. Comparative XRD spectra and SEM analyses revealed that the extent of mineral matter removal relied on the flotation performance. The thermal indicators considerably improved after cleaning and the extent of improvement increased with a decrease in the ash of the concentrates. Kinetic analysis showed the favorable effect of inorganics removal on the effectiveness and easiness of combustion and activation energies decreased after cleaning for both oil shales. The contributions of cleaning on the effectiveness of combustion were also revealed by the increases in the emission rates and total CO2 and CO emission amounts. CO2 emissions due to mineral matter decomposition and harmful SO2 emissions apparently decreased as a consequence of the cleaning of the undesired inorganic contituents and potentially cleaning components. Results of the cleaning and thermal analysis sudies revealed that it was possible to achieve a clean energy source alternative from oil shales through flotation and a significant potential can be anticipated for future use of oil shales as a cost effective and environmental friendly solid fuel substitute in view of Turkey&amp / #8217 / s great oil shale reserves.
109

Modèles d'impact statistiques en agriculture : de la prévision saisonnière à la prévision à long terme, en passant par les estimations annuelles / Impact models in agriculture : from seasonal forecast to long-term estimations, including annual estimates

Mathieu, Jordane 29 March 2018 (has links)
En agriculture, la météo est le principal facteur de variabilité d’une année sur l’autre. Cette thèse vise à construire des modèles statistiques à grande échelle qui estiment l’impact des conditions météorologiques sur les rendements agricoles. Le peu de données agricoles disponibles impose de construire des modèles simples avec peu de prédicteurs, et d’adapter les méthodes de sélection de modèles pour éviter le sur-apprentissage. Une grande attention a été portée sur la validation des modèles statistiques. Des réseaux de neurones et modèles à effets mixtes (montrant l’importance des spécificités locales) ont été comparés. Les estimations du rendement de maïs aux États-Unis en fin d’année ont montré que les informations de températures et de précipitations expliquent en moyenne 28% de la variabilité du rendement. Dans plusieurs états davantage météo-sensibles, ce score passe à près de 70%. Ces résultats sont cohérents avec de récentes études sur le sujet. Les prévisions du rendement au milieu de la saison de croissance du maïs sont possibles à partir de juillet : dès juillet, les informations météorologiques utilisées expliquent en moyenne 25% de la variabilité du rendement final aux États-Unis et près de 60% dans les états plus météo-sensibles comme la Virginie. Les régions du nord et du sud-est des États-Unis sont les moins bien prédites. Le rendements extrêmement faibles ont nécessité une méthode particulière de classification : avec seulement 4 prédicteurs météorologiques, 71% des rendements très faibles sont bien détectés en moyenne. L’impact du changement climatique sur les rendements jusqu’en 2060 a aussi été étudié : le modèle construit nous informe sur la rapidité d’évolution des rendements dans les différents cantons des États-Unis et localisent ceux qui seront le plus impactés. Pour les états les plus touchés (au sud et sur la côte Est), et à pratique agricole constante, le modèle prévoit des rendements près de deux fois plus faibles que ceux habituels, en 2060 sous le scénario RCP 4.5 du GIEC. Les états du nord seraient peu touchés. Les modèles statistiques construits peuvent aider à la gestion sur le cours terme (prévisions saisonnières) ou servent à quantifier la qualité des récoltes avant que ne soient faits les sondages post-récolte comme une aide à la surveillance (estimation en fin d’année). Les estimations pour les 50 prochaines années participent à anticiper les conséquences du changement climatique sur les rendements agricoles, pour définir des stratégies d’adaptation ou d’atténuation. La méthodologie utilisée dans cette thèse se généralise aisément à d’autres cultures et à d’autres régions du monde. / In agriculture, weather is the main factor of variability between two consecutive years. This thesis aims to build large-scale statistical models that estimate the impact of weather conditions on agricultural yields. The scarcity of available agricultural data makes it necessary to construct simple models with few predictors, and to adapt model selection methods to avoid overfitting. Careful validation of statistical models is a major concern of this thesis. Neural networks and mixed effects models are compared, showing the importance of local specificities. Estimates of US corn yield at the end of the year show that temperature and precipitation information account for an average of 28% of yield variability. In several more weather-sensitive states, this score increases to nearly 70%. These results are consistent with recent studies on the subject. Mid-season maize crop yield forecasts are possible from July: as of July, the meteorological information available accounts for an average of 25% of the variability in final yield in the United States and close to 60% in more weather-sensitive states like Virginia. The northern and southeastern regions of the United States are the least well predicted. Predicting years for which extremely low yields are encountered is an important task. We use a specific method of classification, and show that with only 4 weather predictors, 71% of the very low yields are well detected on average. The impact of climate change on yields up to 2060 is also studied: the model we build provides information on the speed of evolution of yields in different counties of the United States. This highlights areas that will be most affected. For the most affected states (south and east coast), and with constant agricultural practice, the model predicts yields nearly divided by two in 2060, under the IPCC RCP 4.5 scenario. The northern states would be less affected. The statistical models we build can help for management on the short-term (seasonal forecasts) or to quantify the quality of the harvests before post-harvest surveys, as an aid to the monitoring (estimate at the end of the year). Estimations for the next 50 years help to anticipate the consequences of climate change on agricultural yields, and to define adaptation or mitigation strategies. The methodology used in this thesis is easily generalized to other cultures and other regions of the world.
110

Aplicação estruturada de dados de redes sociais na modelagem de instrumentos de apoio às decisões de concessão de crédito / Social networks structured data application: modelins support tools for credit acquisitions decisions

Fattibene, Marcos 27 January 2015 (has links)
Made available in DSpace on 2016-06-02T19:53:33Z (GMT). No. of bitstreams: 1 FATTIBENE_Marcos_2015.pdf: 1035875 bytes, checksum: 9f4308478818fe20ad4a239e96c1bb67 (MD5) Previous issue date: 2015-01-27 / The credit analysis for individuals has traditionally relied on three pillars: documentary proof of income and residence; refers to negative credit bureaus as SERASA and SCPC and the use of forecasting models based on the hypothesis that similar profiles in the future will reproduce the same credit behavior of the past, such as the "credit scores" (HAND; HENLEY, 2007) . This approach has been adequate, while being susceptible to moments of economic crisis or to fast profile changing of the target market, as occurred in the U.S. subprime in 2008. This study aims to point out ways to use Social Networks informational content, where individuals express and record their opinions, preferences, and especially get evident their network of relationships, in the credit analysis context. It was made evident the feasibility to investigate the assumption that an individual's proximity to other appropriate profile payers, or vice versa, influences the repayment rate. To illustrate such a conclusion, a real social network, enriched with credit data obtained by statistical simulation, was used. Three models of data weighting and three other based on multiple linear regression models were developed. In general the results were not statistically significant, by need to use a non-brazilian social network, as well synthetic data bureau score, since real information was not available in this country. It was shown a way to investigate the hypothesis that the informational content of a social network may generate greater efficiency into credit analysis when added to decision-making, operational and control systems of this segment. / A análise de crédito para pessoas físicas tem tradicionalmente se apoiado em três pilares: comprovação documental de renda e de residência; consulta a birôs negativos de crédito, como SERASA Experian e SCPC e a utilização de modelos de projeção baseados na hipótese que perfis semelhantes reproduzirão no futuro o comportamento de crédito do passado, como por exemplo, os credit scores (HAND ; HENLEY, 2007). Tal abordagem tem se mostrado adequada, sendo, entretanto suscetível a momentos de crise econômica ou mudança rápida do perfil do mercado alvo, a exemplo do ocorrido no mercado imobiliário dos EUA no ano de 2008. O presente trabalho propõe-se indicar alternativas para a utilização do teor informacional presente nas Redes Sociais, onde os indivíduos registram suas opiniões, preferências e especialmente evidenciam sua rede de relacionamentos, no contexto da análise de risco de crédito. Evidenciaram-se formas de averiguação da premissa que proximidade de um indivíduo a outros com perfil de bons pagadores, ou vice-versa, influencia a taxa de adimplência. Para se ilustrar tais sugestões, foi utilizada uma rede social real, enriquecida com dados de crédito obtidos por simulação estatística. Foram elaborados três modelos de ponderação de dados e três modelos baseados em regressão linear múltipla. Em geral os resultados não foram estatisticamente significantes, dada a necessidade de uso de rede social estrangeira como também da geração de dados sintéticos de score de birô de crédito, dada a indisponibilidade de informações reais no País. Porém, ficou evidenciada a viabilidade da averiguação da hipótese de que o conteúdo informacional contido em redes sociais pode ampliar a eficiência do sistema de análise de crédito, se incorporado aos sistemas decisórios, operativos e de controle.

Page generated in 0.1036 seconds