Spelling suggestions: "subject:"latente++"" "subject:"latent++""
101 |
Towards an extension of causal discovery with generative flow networks to latent variables modelsManta, Dragos Cristian 12 1900 (has links)
Le raisonnement causal est au centre des facultés intellectuelles humaines qui nous permettent de transférer nos connaissances acquises dans des situations très différentes de l'expérience vécue à partir de peu de nouvelles observations.
En fait, notre science en entier se base sur l'hypothèse qu'on puisse expliquer tous les phénomènes de l'univers à partir d'un nombre relativement petit de principes simples et constants à travers le temps qui donnent naissance au monde complexe qui nous entoure grâce au très grand nombre de conditions expérimentales possibles, qui correspondent à des interventions dans un modèle causal graphique.
La découverte algorithmique de ces mécanismes semble donc être un pilier important, non seulement afin de produire des agents artificiels dotés de capacités cognitives humaines, mais également en vue d'automatiser la découverte scientifique.
Nous nous penchons sur une variante du problème de la découverte causale dans laquelle les données observées ne correspondent pas directement aux variables d'intérêt, que l'on considère latentes.
Nous utilisons les réseaux de flot génératifs pour apprendre une distribution bayésienne a posteriori définie sur la structure des réseaux bayésiens latents et sur les valeurs des variables latentes. / Causal reasoning is at the center of the human intellectual abilities that allow us to transfer our acquired knowledge in situations that are very different from our past experience from few new observations.
In fact, our whole science is based on the assumption that we can explain all the phenomena of the universe from a relatively small set of simple principles that are constant through time and that give rise to the complex world surrounding us due to the very large number of possible experimental conditions that correspond to interventions in a causal graphical model.
The algorithmic discovery of these mechanisms thus seems to be an important pillar, not only to create artificial agents endowed with human cognitive abilities, but also to automate scientific discovery.
We are looking into a variant of the causal discovery problem in which the observed data does not directly correspond to the variables of interest, which we consider to be latent.
We use Generative Flow Networks to learn a Bayesian posterior distribution defined over latent Bayesian networks and over the values of the latent variables.
|
102 |
Statistiques discrètes et Statistiques bayésiennes en grande dimensionBontemps, Dominique 02 December 2010 (has links) (PDF)
Dans cette thèse de doctorat, nous présentons les travaux que nous avons effectués dans trois directions reliées : la compression de données en alphabet infini, les statistiques bayésiennes en dimension infinie, et les mélanges de distributions discrètes multivariées. Dans le cadre de la compression de données sans perte, nous nous sommes intéressé à des classes de sources stationnaires sans mémoire sur un alphabet infini, définies par une condition d'enveloppe à décroissance exponentielle sur les distributions marginales. Un équivalent de la redondance minimax de ces classes a été obtenue. Un algorithme approximativement minimax ainsi que des a-priori approximativement les moins favorables, basés sur l'a-priori de Jeffreys en alphabet fini, ont en outre été proposés. Le deuxième type de travaux porte sur la normalité asymptotique des distributions a-posteriori (théorèmes de Bernstein-von Mises) dans différents cadres non-paramétriques et semi-paramétriques. Tout d'abord, dans un cadre de régression gaussienne lorsque le nombre de régresseurs augmente avec la taille de l'échantillon. Les théorèmes non-paramétriques portent sur les coefficients de régression, tandis que les théorèmes semi-paramétriques portent sur des fonctionnelles de la fonction de régression. Dans nos applications au modèle de suites gaussiennes et à la régression de fonctions appartenant à des classe de Sobolev ou de régularité hölderiennes, nous obtenons simultanément le théorème de Bernstein-von Mises et la vitesse d'estimation fréquentiste minimax. L'adaptativité est atteinte pour l'estimation de fonctionnelles dans ces applications. Par ailleurs nous présentons également un théorème de Bernstein-von Mises non-paramétrique pour des modèles exponentiels de dimension croissante. Enfin, le dernier volet de ce travail porte sur l'estimation du nombre de composantes et des variables pertinentes dans des modèles de mélange de lois multinomiales multivariées, dans une optique de classification non supervisée. Ce type de modèles est utilisé par exemple pour traiter des données génotypiques. Un critère du maximum de vraisemblance pénalisé est proposé, et une inégalité oracle non-asymptotique est obtenue. Le critère retenu en pratique comporte une calibration grâce à l'heuristique de pente. Ses performances sont meilleurs que celles des critères classiques BIC et AIC sur des données simulées. L'ensemble des procédures est implémenté dans un logiciel librement accessible.
|
103 |
Recherche de structure dans un graphe aléatoire : modèles à espace latent / Clustering in a random graph : models with latent spaceChannarond, Antoine 10 December 2013 (has links)
Cette thèse aborde le problème de la recherche d'une structure (ou clustering) dans lesnoeuds d'un graphe. Dans le cadre des modèles aléatoires à variables latentes, on attribue à chaque noeud i une variable aléatoire non observée (latente) Zi, et la probabilité de connexion des noeuds i et j dépend conditionnellement de Zi et Zj . Contrairement au modèle d'Erdos-Rényi, les connexions ne sont pas indépendantes identiquement distribuées; les variables latentes régissent la loi des connexions des noeuds. Ces modèles sont donc hétérogènes, et leur structure est décrite par les variables latentes et leur loi; ce pourquoi on s'attache à en faire l'inférence à partir du graphe, seule variable observée.La volonté commune des deux travaux originaux de cette thèse est de proposer des méthodes d'inférence de ces modèles, consistentes et de complexité algorithmique au plus linéaire en le nombre de noeuds ou d'arêtes, de sorte à pouvoir traiter de grands graphes en temps raisonnable. Ils sont aussi tous deux fondés sur une étude fine de la distribution des degrés, normalisés de façon convenable selon le modèle.Le premier travail concerne le Stochastic Blockmodel. Nous y montrons la consistence d'un algorithme de classiffcation non supervisée à l'aide d'inégalités de concentration. Nous en déduisons une méthode d'estimation des paramètres, de sélection de modèles pour le nombre de classes latentes, et un test de la présence d'une ou plusieurs classes latentes (absence ou présence de clustering), et nous montrons leur consistence.Dans le deuxième travail, les variables latentes sont des positions dans l'espace ℝd, admettant une densité f, et la probabilité de connexion dépend de la distance entre les positions des noeuds. Les clusters sont définis comme les composantes connexes de l'ensemble de niveau t > 0 fixé de f, et l'objectif est d'en estimer le nombre à partir du graphe. Nous estimons la densité en les positions latentes des noeuds grâce à leur degré, ce qui permet d'établir une correspondance entre les clusters et les composantes connexes de certains sous-graphes du graphe observé, obtenus en retirant les nœuds de faible degré. En particulier, nous en déduisons un estimateur du nombre de clusters et montrons saconsistence en un certain sens / .This thesis addresses the clustering of the nodes of a graph, in the framework of randommodels with latent variables. To each node i is allocated an unobserved (latent) variable Zi and the probability of nodes i and j being connected depends conditionally on Zi and Zj . Unlike Erdos-Renyi's model, connections are not independent identically distributed; the latent variables rule the connection distribution of the nodes. These models are thus heterogeneous and their structure is fully described by the latent variables and their distribution. Hence we aim at infering them from the graph, which the only observed data.In both original works of this thesis, we propose consistent inference methods with a computational cost no more than linear with respect to the number of nodes or edges, so that large graphs can be processed in a reasonable time. They both are based on a study of the distribution of the degrees, which are normalized in a convenient way for the model.The first work deals with the Stochastic Blockmodel. We show the consistency of an unsupervised classiffcation algorithm using concentration inequalities. We deduce from it a parametric estimation method, a model selection method for the number of latent classes, and a clustering test (testing whether there is one cluster or more), which are all proved to be consistent. In the second work, the latent variables are positions in the ℝd space, having a density f. The connection probability depends on the distance between the node positions. The clusters are defined as connected components of some level set of f. The goal is to estimate the number of such clusters from the observed graph only. We estimate the density at the latent positions of the nodes with their degree, which allows to establish a link between clusters and connected components of some subgraphs of the observed graph, obtained by removing low degree nodes. In particular, we thus derive an estimator of the cluster number and we also show the consistency in some sense.
|
104 |
Modélisation statistique de l'intensité des expositions prolongées en étiologie du cancer : application au tabac, à l'amiante, au cancer du poumon, et au mésothéliome pleural / Statistical modelling of the intensity of protracted exposures in etiology of cancer : application to smoking, asbestos, lung cancer and pleural mesotheliomaLeveque, Emilie 07 December 2018 (has links)
L'association entre le tabac et le cancer du poumon ou entre l'exposition professionnelle à l'amiante et le mésothéliome pleural ont largement été étudiées. Cependant, comme pour de nombreuses autres relations expositions prolongées-cancer, le rôle de l'intensité d'exposition tout au long de la vie a été peu étudié. La prise en compte de la variation de l'intensité au cours de la vie et de son effet dépendant du temps dans les analyses statistiques des données cas-témoins pose en effet quelques défis méthodologiques. Les objectifs de la thèse étaient 1) d'étudier l'effet dépendant du temps de l'intensité d'exposition au cours de la vie sur le risque de cancer et 2) d'identifier les profils de trajectoires d'intensité d'exposition sur la vie entière et comparer les risques de cancer associés. Pour répondre à ces deux objectifs, nous avons utilisé un indice cumulé d'exposition pondéré flexible déjà existant et nous avons développé un nouveau modèle conjoint à classes latentes, pour analyser les données de deux études cas-témoins françaises sur le mésothéliome pleural et le cancer du poumon. Les résultats montrent la contribution importante de l'intensité de la consommation de tabac récente pour le cancer du poumon et des expositions professionnelles anciennes à l'amiante pour les deux cancers. Ils confirment l'importance de considérer l'aspect temporel des expositions pour évaluer l'association avec le risque de cancer et illustrent l'intérêt des approches statistiques considérées. / The association between smoking and lung cancer or between occupational exposure to asbestos and pleural mesothelioma have been extensively investigated. Nevertheless, as for many protracted exposures-cancer relationships, the role of exposure intensity over lifetime has been rarely addressed. Accounting for individual variation of intensity over lifetime and investigating time-dependent effect in the statistical analysis of case-control data indeed raise several methodological issues. The thesis objectives were 1) to study the time-dependent effect of exposure intensity over lifetime on the risk of cancer and 2) to identify lifetime profiles of exposure intensities and to compare their associated risks of cancer. To address these objectives, we used an existing flexible weighted cumulative index of exposure and we developed a new joint latent class mixed model, to analyze the data from two French case-control studies on lung cancer and pleural mesothelioma. The results show the important contribution of recent smoking intensity for lung cancer and distant intensity of exposure to asbestos for both cancers. They confirm the importance of the timing of exposure in the association with the risk of cancer and illustrate the relevance of the proposed statistical approaches.
|
105 |
Thermodynamique des vortex dans les supraconducteurs désordonnésVan Der Beek, Cornelis Jacominus 28 October 2009 (has links) (PDF)
L'avènement des supraconducteurs à haute température critique (SHTc) a non seulement bouleversé les notions fondamentales de la physique des solides, il a aussi provoqué une révolution dans la compréhension du comportement des lignes de flux magnétiques quantifiés qui traversent le matériau supraconducteur lorsqu'il est exposé à un champ magnétique. Grâce à la coincidence des valeurs extrèmes des paramètres caractérisant la supraconductivité dans les SHTc, les propriétés physiques des vortex, leur dynamique, et leur diagramme de phases dans le plan (B,T) ont pu être étudiés dans un détail jusque-là inaccessible. Il a ainsi été établi que la véritable transition de la phase supraconductrice vers la phase normale n'a pas lieu au deuxième champ critique Bc2, mais à la transition de fusion de l'ensemble des lignes de flux. Dans des matériaux supraconducteurs désordonnés, il apparaît une nouvelle phénoménologie, liée à l'ancrage des lignes de flux sur les défauts du matériau. De nouvelles phases thermodynamiques de vortex ancrés ont été postulés, et, dans certains cas, trouvées. Le but de ce document est de porter un regard critique sur le mécanisme menant à la transition de fusion de l'ensemble des vortex dans les SHTc, ainsi que sur le rôle du désordre cristallin dans la physique des lignes de flux. L'approche première est de, avant tout, caractériser au mieux les matériaux avec lesquels on travaillera par la suite. Cette caractérisation inclut non seulement la mesure des principaux paramètres de la supraconductivité: température critique, longueur de pénétration, champs critiques; mais aussi le contrôle de la pureté des matériaux et du désordre cristallin éventuel. Dans cette optique, le travail s'inscrit dans la mission du Laboratoire des Solides Irradiés, qui est d'accéder à la physique des matériaux en contrôlant le désordre par irradiation. On essaiera ensuite d'attaquer la transition de fusion par l'emploi d'une méthode originale, utilisable dans les SHTc lamellaires comme le Bi2Sr2CaCu2O8 : la Résonance de Plasma Josephson. Cette technique permettra d'évaluer les excursions thermiques moyennes des lignes de flux au voisinage de la transition, dans des cristaux bruts de croissance et irradiés. Le rôle du désordre cristallin est étudié également par une approche novatrice: c'est l'étude de la modification des propriétés thermodynamiques par le désordre, plutôt que les propriétés de transport. Enfin, on conclut sur comment ces approches peuvent nous aider à comprendre le diagramme de phases des lignes de flux dans des supraconducteurs désordonnés de manière contrôlée.
|
106 |
Optimització perceptiva dels sistemes de síntesi de la parla basats en selecció d’unitats mitjançant algorismes genètics interactius actiusFormiga Fanals, Lluís 27 April 2011 (has links)
Els sistemes de conversió de text en parla (CTP-SU) s'encarreguen de produir veu sintètica a partir d'un text d'entrada. Els CTP basats en selecció d'unitats (CTP-SU) recuperen la millor seqüència d'unitats de veu enregistrades prèviament en una base de dades (corpus). La recuperació es realitza mitjançant algorismes de programació dinàmica i una funció de cost ponderada. La ponderació de la funció de cost es realitza típicament de forma manual per part d'un expert. No obstant, l'ajust manual resulta costós des d'un punt de vista de coneixement prèvi, i imprecís en la seva execució.
Per tal d'ajustar els pesos de la funció de cost, aquesta tesi parteix de la prova de viabilitat d'ajust perceptiu presentada per Alías (2006) que empra algorismes genètics interactius actius (active interactive Genetic Algorithm - aiGA). Aquesta tesi doctoral investiga les diferents problemàtiques que es presenten en aplicar els aiGAs en l'ajust de pesos d'un CTP-SU en un context real de selecció d'unitats.
Primerament la tesi realitza un estudi de l'estat de l'art en l'ajust de pesos. Tot seguit, repassa la idoneïtat de la computació evolutiva interactiva per realitzar l'ajust revisant amb profunditat el treball previ. Llavors es presenten i es validen les propostes de millora.
Les quatre línies mestres que guien les contribucions d'aquesta tesi són: la precisió en l'ajust dels pesos, la robustesa dels pesos obtinguts, l'aplicabilitat de la metodologia per qualsevol funció de cost i el consens dels pesos obtinguts incorporant el criteri de diferents usuaris. En termes de precisió la tesi proposa realitzar l'ajust perceptiu per diferents tipus (clústers) d'unitats respectant les seves peculiaritats fonètiques i contextuals. En termes de robustesa la tesi incorpora diferents mètriques evolutives (indicadors) que avaluen aspectes com l'ambigüitat en la cerca, la convergència d'un usuari o el nivell de consens entre diferents usuaris. Posteriorment, per estudiar l'aplicabilitat de la metodologia proposada s'ajusten perceptivament diferents pesos que combinen informació lingüística i simbòlica. La última contribució d'aquesta tesi estudia l'idoneïtat dels models latents per modelar les preferències dels diferents usuaris i obtenir una solució de consens. Paral•lelament, per fer el pas d'una prova de viabilitat a un entorn real de selecció d'unitats es treballa amb un corpus d'extensió mitjana (1.9h) etiquetat automàticament. La tesi permet concloure que l'aiGA a nivell de clúster és una metodologia altament competitiva respecte les altres tècniques d'ajust presents en l'estat de l'art. / Los sistemas de conversión texto-habla (CTH-SU) se encargan de producir voz sintética a partir de un texto de entrada. Los CTH basados en selección de unidades (CTH-SU) recuperan la mejor secuencia de unidades de voz grabadas previamente en una base de datos (corpus). La recuperación se realitza mediante algoritmos de programación dinámica y una función de coste ponderada. La ponderación de la función de coste se realiza típicamente de forma manual por parte de un experto. Sin embargo, el ajuste manual resulta costoso desde un punto de vista de conocimiento previo e impreciso en su ejecución. Para ajustar los pesos de la función de coste, esta tesis parte de la prueba de viabilidad de ajuste perceptivo presentada por Alías (2006) que emplea algoritmos genéticos interactivos activos (active interactive Genetic Algorithm - aiGA). Esta tesis doctoral investiga las diferentes problemáticas que se presentan al aplicar los aiGAs en el ajuste de pesos de un CTH-SU en un contexto real de selección de unidades.
Primeramente la tesis realiza un estudio del estado del arte en el ajuste de pesos, posteriormente repasa la idoneidad de la computación evolutiva interactiva para realizar el ajuste revisando en profundidad el trabajo previo. Entonces se presentan y se validan las propuestas de mejora.
Las cuatro líneas maestras que guían las contribuciones de esta tesis son: la precisión en el ajuste de los pesos, la robustez de los pesos obtenidos, la aplicabilidad de la metodología para cualquier función de coste y el consenso de los pesos obtenidos incorporando el criterio de diferentes usuarios. En términos de precisión la tesis propone realizar el ajuste perceptivo por diferentes tipos (clusters) de unidades respetando sus peculiaridades fonéticas y contextuales. En términos de robustez la tesis incorpora diferentes métricas evolutivas (indicadores) que evalúan aspectos como la ambigüedad en la búsqueda, la convergencia de un usuario o el nivel de consenso entre diferentes usuarios. Posteriormente, para estudiar la aplicabilidad de la metodología propuesta se ajustan perceptivamente diferentes pesos que combinan información lingüística y simbólica. La última contribución de esta tesis estudia la idoneidad de los modelos latentes para modelar las preferencias de los diferentes usuarios y obtener una solución de consenso. Paralelamente, para dar el paso de una prueba de viabilidad a un entorno real de selección de unidades se trabaja con un corpus de extensión media (1.9h) etiquetado automáticamente. La tesis permite concluir que el aiGA a nivel de cluster es una metodología altamente competitiva respecto a las otras técnicas de ajuste presentes en el estado del arte. / Text-to-Speech Systems (TTS) produce synthetic speech from an input text. Unit Selection TTS (US-TTS) systems are based on the retrieval of the best sequence of recorded speech units previously recorded into a database (corpus). The retrieval is done by means of dynamic programming algorithm and a weighted cost function. An expert typically performs the weighting of the cost function by hand. However, hand tuning is costly from a standpoint of previous training and inaccurate in terms of methodology. In order to properly tune the weights of the cost function, this thesis continues the perceptual tuning proposal submitted by Alías(2006) which uses active interactive Genetic Algorithms (aiGAs). This thesis conducts an investigation to the various problems that arise in applying aiGAs to the weight tuning of the cost function. Firstly, the thesis makes a deep revision to the state-of-the-art in weight tuning. Afterwards, the thesis outlines the suitability of Interactive Evolutionary Computation (IEC) to perform the weight tuning making a thorough review of previous work. Then, the proposals of improvement are presented. The four major guidelines pursued by this thesis are: accuracy in adjusting the weights, robustness of the weights obtained, the applicability of the methodology to any subcost distance and the consensus of weights obtained by different users. In terms of precision cluster-level perceptual tuning is proposed in order to obtain weights for different types (clusters) of units considering their phonetic and contextual properties. In terms of robustness of the evolutionary process, the thesis presents different metrics (indicators) to assess aspects such as the ambiguity within the evolutionary search, the convergence of one user or the level of consensus among different users. Subsequently, to study the applicability of the proposed methodology different weights are perceptually tuned combining linguistic and symbolic information. The last contribution of this thesis examines the suitability of latent models for modeling the preferences of different users and obtains a consensus solution. In addition, the experimentation is carried out through a medium size corpus (1.9h) automatically labelled in order fill the gap between the proof-of-principle and a real unit selection scenario.
The thesis concludes that aiGAs are highly competitive in comparison to other weight tuning techniques from the state-of-the-art.
|
107 |
Approche bayésienne de l'évaluation de l'incertitude de mesure : application aux comparaisons interlaboratoiresDemeyer, Séverine 04 March 2011 (has links)
La modélisation par équations structurelles est très répandue dans des domaines très variés et nous l'appliquons pour la première fois en métrologie dans le traitement de données de comparaisons interlaboratoires. Les modèles à équations structurelles à variables latentes sont des modèles multivariés utilisés pour modéliser des relations de causalité entre des variables observées (les données). Le modèle s'applique dans le cas où les données peuvent être regroupées dans des blocs disjoints où chaque bloc définit un concept modélisé par une variable latente. La structure de corrélation des variables observées est ainsi résumée dans la structure de corrélation des variables latentes. Nous proposons une approche bayésienne des modèles à équations structurelles centrée sur l'analyse de la matrice de corrélation des variables latentes. Nous appliquons une expansion paramétrique à la matrice de corrélation des variables latentes afin de surmonter l'indétermination de l'échelle des variables latentes et d'améliorer la convergence de l'algorithme de Gibbs utilisé. La puissance de l'approche structurelle nous permet de proposer une modélisation riche et flexible des biais de mesure qui vient enrichir le calcul de la valeur de consensus et de son incertitude associée dans un cadre entièrement bayésien. Sous certaines hypothèses l'approche permet de manière innovante de calculer les contributions des variables de biais au biais des laboratoires. Plus généralement nous proposons un cadre bayésien pour l'amélioration de la qualité des mesures. Nous illustrons et montrons l'intérêt d'une modélisation structurelle des biais de mesure sur des comparaisons interlaboratoires en environnement. / Structural equation modelling is a widespread approach in a variety of domains and is first applied here to interlaboratory comparisons in metrology. Structural Equation Models with latent variables (SEM) are multivariate models used to model causality relationships in observed variables (the data). It is assumed that data can be grouped into separate blocks each describing a latent concept modelled by a latent variable. The correlation structure of the observed variables is transferred into the correlation structure of the latent variables. A Bayesian approach of SEM is proposed based on the analysis of the correlation matrix of latent variables using parameter expansion to overcome identifiability issues and improving the convergence of the Gibbs sampler. SEM is used as a powerful and flexible tool to model measurement bias with the aim of improving the reliability of the consensus value and its associated uncertainty in a fully Bayesian framework. The approach also allows to compute the contributions of the observed variables to the bias of the laboratories, under additional hypotheses. More generally a global Bayesian framework is proposed to improve the quality of measurements. The approach is illustrated on the structural equation modelling of measurement bias in interlaboratory comparisons in environment.
|
108 |
La comorbidité de l'épuisement professionnel et de la consommation de substances psychoactives.Dansereau, Véronique 03 1900 (has links)
L’objectif principal du présent mémoire réside dans l’exploration des liens concomitants existant entre les trois dimensions de l’épuisement professionnel telles que définies par Maslach (1981) et la consommation de substances psychoactives, plus précisément au niveau de la consommation épisodique excessive et hebdomadaire à risque d’alcool et de la consommation de médicaments psychotropes. À partir d’un échantillon composé de 1809 travailleurs provenant de 83 milieux de travail québécois, des profils-types correspondant à des formes particulières de comorbidité de santé mentale au travail sont identifiés grâce à la méthode d’analyse en classes latentes.
Ainsi quatre profils-types sont dégagés: un premier regroupant les individus dits «sains», dont les scores aux différentes dimensions de l’épuisement professionnel sont faibles et dont la consommation de substances psychoactives est modérée; deux autres correspondant à des formes intermédiaires de risques; et un quatrième rassemblant des travailleurs dits «fragiles» dont les scores pour chacune des dimensions de l’épuisement professionnel se situent dans le quintile le plus élevé et dont les probabilités de consommation de substances psychoactives sont grandes.
De plus, cette recherche s’est penchée sur l’identification de facteurs de risque et de protection associés à chacun des profils-types. À cet effet, les résultats des analyses corroborent la plupart des associations retrouvées au sein de la littérature quant aux facteurs du travail (composantes des modèles du stress professionnel de Karasek et Theorell (1990) ainsi que de Siegrist (1990)), hors travail (statut matrimonial, obligations parentales, revenu du ménage) et certaines caractéristiques individuelles (âge et genre). De faibles récompenses et un fort degré de surinvestissement de la part de l’individu se révèlent être des facteurs de risque particulièrement significatifs pour les formes intermédiaires et à risque de comorbidité de la santé mentale au travail. Dans une moindre mesure, une faible utilisation des compétences, des demandes psychologiques élevées, un soutien social inadéquat et le jeune âge expliquent une part de la variation observée entre les différents profils-types. Enfin, les résultats soutiennent une conceptualisation tridimensionnelle de l’épuisement professionnel. / The main objective of this master is to explore the concurrent associations between two phenomena related to stress, burnout and the use of psychoactive substance. Particularly, this research focuses on the three dimensions of burnout as defined by Maslach (1981), on two hazardous alcohol patterns consumption, binge drinking and weekly alcohol abuse, and on psychotropic drugs utilization. From a sample of 1809 workers issued from 83 workplaces in Quebec, typical profiles corresponding to different forms of comorbidity are identified with the use of latent class analysis.
Four typical profiles were identified. The first one referred to “healthy” individuals who presented the lowest scores for the three dimensions of burnout without misuse of any psychoactive substances. Two more groups corresponded to intermediate health risk forms of comorbidity patterns. The fourth one was composed of “fragile” workers, with the highest burnout scores and the highest probabilities for misusing alcohol and psychotropic drugs.
In addition, this research identified some risk and protective factors associated with each profiles. Multivariate analyses results corroborated most associations found in the occupational stress literature on organizational work conditions (model components of occupational stress developed by Karasek and Theorell (1990) and Siegrist (1996)), non-work determinants (marital status, parental status and household income), and on individual characteristics (age and gender). Low rewards and high overcommitment appeared as particularly significant risk factors for the intermediate and severe forms of comorbidity. Low skills utilization, low social support at work, high psychological demands and a young age explained to a lesser extent part of the variation observed between the comorbidity profiles. Results supported a three-dimensional conceptualization of burnout.
|
109 |
La comorbidité de l'épuisement professionnel et de la consommation de substances psychoactivesDansereau, Véronique 03 1900 (has links)
No description available.
|
110 |
Estimação clássica e bayesiana para relação espécieárea com distribuições truncadas no zeroArrabal, Claude Thiago 23 March 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1
4453.pdf: 2980949 bytes, checksum: a5e49490266d2a0b649d487d8bf298d5 (MD5)
Previous issue date: 2012-03-23 / Financiadora de Estudos e Projetos / In ecology, understanding the species-area relationship (SARs) are extremely important to determine species diversity. SARs are fundamental to assess the impact due to the destruction of natural habitats, creation of biodiversity maps, to determine the minimum area to preserve. In this study, the number of species is observed in different area sizes. These studies are referred in the literature through nonlinear models without assuming any distribution for the data. In this situation, it only makes sense to consider areas in which the counts of species are greater than zero. As the dependent variable is a count data, we assume that this variable comes from a known distribution for discrete data positive. In this paper, we used the zero truncated Poisson distribution (ZTP) and zero truncated Negative Binomial (ZTNB) to represent the probability distribution of the random variable species diversity number. To describe the relationship between species diversity and habitat, we consider nonlinear models with asymptotic behavior: Exponencial Negativo, Weibull, Logístico, Chapman-Richards, Gompertz e Beta. In this paper, we take a Bayesian approach to fit models. With the purpose of obtain the conditional distributions, we propose the use of latent variables to implement the Gibbs sampler. Introducing a comparative study through simulated data and will consider an application to a real data set. / Em ecologia, a compreensão da relação espécie-área (SARs) é de extrema importância para a determinação da diversidade de espécies e avaliar o impacto devido à destruição de habitats naturais. Neste estudo, observa-se o número de espécies em diferentes tamanhos de área. Estes estudos são abordados na literatura através de modelos não lineares sem assumir alguma distribuição para os dados. Nesta situação, só faz sentido considerar áreas nas quais as contagens das espécies são maiores do que zero. Como a variável dependente é um dado de contagem, assumiremos que esta variável provém de alguma distribuição conhecida para dados discretos positivos. Neste trabalho, utilizamos as distribuições de Poisson zero-truncada (PZT) e Binomial Negativa zero-truncada (BNZT) para representar a distribuição do número de espécies. Para descrever a relação espécie-área, consideramos os modelos não lineares com comportamento assintótico: Exponencial Negativo, Weibull, Logístico, Chapman-Richards, Gompertz e Beta. Neste trabalho os modelos foram ajustados através do método de verossimilhança, sendo proposto uma abordagem Bayesiana com a utilização de variáveis latentes auxiliares para a implementação do Amostrador de Gibbs.
|
Page generated in 0.0807 seconds