Spelling suggestions: "subject:"logistique"" "subject:"logistiques""
431 |
Analyse de trajectoires, perte d'autonomie et facteurs prédictifs : Modélisation de trajectoires / Trajectory analysis, loss of independence and predictive factors : Trajectory modelingBimou, Charlotte 09 October 2019 (has links)
La poursuite du rythme d’augmentation de l’espérance de vie des générations issue du baby-boom dans les pays développés serait souvent accompagnée de limitations fonctionnelles, d’incapacité, de plus en plus observées dans la population gériatrique. L'objectif général de cette thèse était de contribuer à la connaissance de l’évolution de l’autonomie fonctionnelle des personnes âgées dans une population hétérogène. Il s’agissait dans un premier temps d'identifier des groupes homogènes dans une population hétérogène de personnes âgées suivant la même trajectoire d'autonomie fonctionnelle sur une période de deux ans, ainsi que des facteurs prédictifs potentiels. Dans un second temps, d’analyser les conséquences cliniques des trajectoires et la survie des patients sur la même période d’observation. Le SMAF (Système de Mesure de l’Autonomie Fonctionnelle) et les échelles ADL (Activities of Daily Living) ont été employés comme indicateurs d’évaluation de l’autonomie. Dans ce contexte, des données de 221 patients issues de la cohorte UPSAV (Unité de Prévention, de Suivi et d’Analyse du Vieillissement) ont été exploitées. Nous avons employé trois méthodes d’analyse de trajectoires dont le GBTM (Group-Based Trajectory Modeling), k-means et classification ascendante hiérarchique. Les résultats ont révélé trois trajectoires distinctes d’autonomie fonctionnelle : stable, stable pendant un temps puis détériorée, continuellement altérée. Les facteurs prédictifs des trajectoires obtenus à l’aide de la régression logistique sont des critères socio-démographiques, médicaux et biologiques. Les personnes âgées affectées à la trajectoire de perte d’autonomie (trajectoire continuellement altérée) ont montré de fortes proportions de chutes dommageables. A partir d’un modèle de Cox, les troubles neurocognitifs, l’insuffisance cardiaque, la perte de poids involontaire et l’alcool ont été révélés comme facteurs prédictifs de la survenue du décès. On conclut de ces travaux que l’analyse longitudinale sur deux ans de suivi a permis de trouver des sous-groupes homogènes de personnes âgées en termes d’évolution de l’indépendance fonctionnelle. Quel que soit le niveau d’autonomie, la prévention de l’UPSAV devient utile même si le niveau d’utilité n’est pas le même. La prévention et le dépistage de la perte d’autonomie de la personne âgée suivie sur son lieu de vie doivent être anticipés afin de retarder la dégradation et maintenir l’autonomie à domicile. Des analyses ultérieures devraient s’intéresser à l’exploration de plus larges cohortes de personnes âgées pour confirmer et généraliser notre travail. / The increase in life expectancy of baby boom generations in developed countries would often be accompanied by functional limitations, disability, increasingly observed in the geriatric population. The general objective of this thesis was to contribute to the knowledge of the evolution of the functional independence of older people in a heterogeneous population. First, it was to identify homogeneous groups in a heterogeneous population of elderly people following the same functional independence trajectory over a two-year period, and potential predictive factors. Second, it was to analyze the clinical consequences of trajectories and patient survival over the same observation period. The SMAF (Système de Mesure de l'Autonomie Fonctionnelle) and ADL (Activities of Daily Living) scales were used as indicators for measuring independence. Analysis were performed from a sample of 221 patients of UPSAV (Unit for Prevention, Monitoring and Analysis of Aging) cohort. We used three methods including trajectory analysis including GBTM (Group-Based Trajectory Modeling), k-means and ascending hierarchical classification. The results suggest three distinct trajectories of functional independence: stable, stable then decline, continuously decline. The predictors of trajectories obtained using logistic regression are socio-demographic, medical and biological criteria. Patients assigned to the loss of independence trajectory (continuously altered trajectory) reported high proportions of injurious falls. Based on a Cox model, neurocognitive disorders, heart failure, involuntary weight loss and alcohol were revealed as predictors of death. We conclude from this work that the two-year longitudinal analysis identified homogeneous subgroups of elderly people in terms of changes in functional independence. The prevention of UPSAV becomes a useful even if the utility level is not the same. Prevention and screening of the loss of independence of the elderly person followed at home must be anticipated in order to delay the deterioration and to maintaining the autonomy. Future analyses should focus on exploring large cohorts of older people to confirm and generalize our research.
|
432 |
Inférence statistique dans le modèle de régression logistique avec fraction immune / Statistical inference in logistic regression model with immune fractionDiop, Aba 15 November 2012 (has links)
Les modèles linéaires généralisés sont une généralisation des modèles de régression linéaire, et sont très utilisés dans le domaine du vivant. Le modèle de régression logistique, l'un des modèles de cette classe, très souvent utilisé dans les études biomédicales demeure le modèle de régression le plus approprié quand il s'agit de modéliser une variable discrète de nature binaire. Dans cette thèse, nous nous intéressons au problème de l'inférence statistique dans le modèle de régression logistique, en présence d'individus immunes dans la population d'étude.Dans un premier temps, nous considérons le problème de l'estimation dans le modèle de régression logistique en présence d'individus immunes, qui entre dans le cadre des modèles de régression à excès de zéros (ou zéro-inflatés). Un individu est dit immune s'il n'est pas exposé à l'événement d'intérêt. Le statut d'immunité est inconnu sauf si l'événement d'intérêt a été observé. Nous développons une méthode d'estimation par maximum de vraisemblance en proposant une modélisation conjointe de l'immunité et des risques d'infection. Nous établissons d'abord l'identifiabilité du modèle proposé. Puis, nous montrons l'existence de l'estimateur du maximum de vraisemblance des paramètres de ce modèle. Nous montrons ensuite,la consistance de cet estimateur, et nous établissons sa normalité asymptotique. Enfin, nous étudions, au moyen de simulations, leur comportement sur des échantillons de taille finie.Dans un deuxième temps, nous nous intéressons à la construction de bandes de confiance simultanées pour la probabilité d'infection, dans le modèle de régression logistique avec fraction immune. Nous proposons trois méthodes de constructions de bandes de confiance pour la fonction de régression. La première méthode (méthodede Scheffé) utilise la propriété de normalité asymptotique de l'estimateur du maximum de vraisemblance, et une approximation par une loi du khi deux pour approcher le quantile nécessaire à la construction des bandes. La deuxième méthode utilise également la propriété de normalité asymptotique de l'estimateur du maximum de vraisemblance et est basée sur une égalité classique de (Landau & Sheep 1970). La troisième méthode (méthode bootstrap) repose sur des simulations, pour estimer le quantile approprié de la loi du supremum d'un processus gaussien. Enfin, nous évaluons, au moyen de simulations, leurs propriétés sur des échantillons de taille finie.Enfin, nous appliquons les résultats de modélisation à des données réelles surla dengue. Il s'agit d'une maladie vectorielle tropicale à transmission strictement inter-humaine. Les résultats montrent que les probabilités d'infection estimées à partir de notre approche de modélisation sont plus élevées que celles obtenues à partir d'un modèle de régression logistique standard qui ne tient pas compte d'une possible immunité. En particulier, les estimations fournies par notre approche suggèrent que le sous-poids constitue un facteur de risque majeur de l'infection par la dengue, indépendamment de l'âge. / Generalized linear models are a generalization of linear regression models, and are widely used in the field of life. The logistic regression model, one of this class of models, widely used in biomedical studies remains the most appropriate regression model when it comes to model discrete variable, binary in nature. In this thesis, we investigate the problem of statistical inference in the logistic regression model, in the presence of immune individuals in the study population.At first, we consider the problem of estimation in the logistic regression model in the presence of immune individuals that enters in the case of zero-inflated regression models. A subject is said to be immune if he cannot experience the outcome of interest. The immune status is unknown unless the event of interest has been observed. We develop a maximum like lihood estimation procedure for this problem, based on the joint modeling of the binary response of interest and the cure status. We investigate the identifiability of the resulting model. Then, we establish the existence, consistency and asymptotic normality of the proposed estimator, and we conduct a simulation study to investigate its finite-sample behavior. In a second time, we focus on the construction of simultaneous confidence bands for the probability of infection in the logistic regression model with immune fraction.We propose three methods of construction of confidence bands for the regression function. The first method (Scheffe's method) uses the asymptotic normality of the maximum like lihood estimator, and an approximation by the chi-squared distribution to approximate the necessary quantile for the construction of bands. The second method uses also the asymptotic normality of the maximum like lihood estimator and is based on a classical equality by (Landau & Sheep 1970). The third method (bootstrap method) is based on simulations, to estimate the appropriate quantile of the law of a supremum of a Gaussian process. Finally, we conduct a simulation study to investigate its finite-sample properties.Finally, we consider a study of dengue fever, which is a tropical mosquito-borneviral human disease, strictly inter-human. The results show that, the estimated probabilities of infection obtained from our approach are larger than the ones derived from a standard analysis that does not take account of the possible immunity. Inparticular, the estimates provided by our approach suggest that underweight constitutes a major risk factor for dengue infection, irrespectively of age.
|
433 |
Planification réactive et robuste au sein d'une chaîne logistique / Reactive and robust planning within a supply chainGharbi, Hassen 10 November 2012 (has links)
Ce travail s’intéresse à la planification tactique de chaînes logistiques dans un environnement incertain et perturbé. Dans le cadre de relations « point-à point », nous proposons une approche permettant d’élaborer une planification tactique optimale et réactive d’un maillon d’une chaîne logistique en présence de paramètres incertains et de perturbations. Notre approche se fonde sur une structure à deux niveaux décisionnels. Le premier niveau effectue une planification agrégée en minimisant le coût global de production. Il établit ensuite « un plan de guidage » qui est transmis au niveau détaillé. Ce dernier effectue sa planification en suivant « au mieux » le plan de guidage et en prenant en compte les contraintes et données détaillées ignorées au niveau supérieur. Le niveau détaillé adopte un processus dynamique de planification à horizon glissant. Il réactualise ses données à chaque étape de planification afin d’assurer la réactivité du processus décisionnel. Nous caractérisons explicitement l’inertie du système décisionnel en distinguant deux phases : la phase d’anticipation et la phase de réalisation. Chaque phase est caractérisée par un délai temporel. Ainsi, nous proposons une modélisation originale du processus décisionnel de chaque décision via trois variables. Le niveau détaillé est formulé selon un programme linéaire.Au niveau agrégé, nous proposons un modèle global ayant l’originalité de prendre en compte les spécificités du processus décisionnel détaillé.Le couplage entre les deux niveaux est assuré par le plan de guidage. Selon les informations incluses dans le plan de guidage, le niveau agrégé accorde un certain degré d’autonomie au niveau détaillé, ceci conditionne la réactivité et la robustesse de la planification. Dans notre travail, nous considérons trois types de guidage : deux guidages budgétaires « globaux » et un guidage « prescriptif » par la sous-traitance agrégée.Notre approche est évaluée par simulation dans le cadre d’une demande incertaine. Pour cela, nous développons deux outils de simulation et un ensemble d’indicateurs de performances. Les expérimentations réalisées confirment la performance de notre approche par rapport à des approches classiques et mettent en évidence l’influence du type de guidage et du profil de la demande détaillée sur la réactivité et la robustesse des solutions trouvées. / This work focuses on the supply chain tactical planning problem in an uncertain and disrupted environment. As part of point-to-point relationships, we propose an optimal and reactive tactical planning approach of a supply chain link in the presence of uncertain parameters and disturbances.Our approach is based on a two-level decision structure. The first level performs an aggregate planning which minimizes the overall production cost. It establishes "a guiding plan" which is transmitted to the detailed level. This latter performs its planning by following a guiding plan and by taking into account detailed constraints and data.The detailed level adopts a dynamic planning process with a rolling horizon. It updates its data at every planning step to ensure a reactive decision making. We characterize explicitly the inertia of a decision making system by distinguishing two decision phases: the anticipation phase and the realization phase. Each phase is described by a time delay. Thus, we propose an original model of decision making process in which every decision is modeled by three variables. The detailed level is formulated according to a linear program.At the aggregate level, a view of the detailed decisional process is integrated by work-in-progress constraints. We propose an aggregate model whose originality is to consider the specifics of the detailed decision process.The coupling between the two levels is provided by the guiding plan. According to aggregated data included in this plan, the aggregate level gives a specific autonomy to the detailed level which conditions the reactivity and the robustness of the detailed planning. In our work, we consider three types of guidance: two “global” budget guidings and a more “precise” subcontracting aggregate guiding.Our approach is evaluated by simulation under uncertain demand. For this we develop two simulation tools and a set of performance indicators. The experiments carried out confirm the performance of our approach over conventional approaches and highlight the influence of the guiding and the detailed demand profile on the reactivity and robustness of the solutions
|
434 |
Profils alimentaires, niveau de transformation des aliments et risque de cancer de la prostate : une étude cas-témoins à Montréal, CanadaTrudeau, Karine 12 1900 (has links)
Le cancer de la prostate est le cancer le plus fréquemment diagnostiqué chez les hommes
canadiens. Aucun facteur de risque modifiable n’a été identifié, mais l’alimentation pourrait
être impliquée. Les profils alimentaires, décrivant l’ensemble de l’apport alimentaire,
constituent une approche de recherche prometteuse. L’objectif général de cette thèse était
d’évaluer le rôle des profils alimentaires et du niveau de transformation des aliments sur le
risque de cancer de la prostate.
Les données colligées dans une vaste étude cas-témoins populationnelle menée chez les
résidents montréalais ont été utilisées. Les 1919 cas incidents histologiquement confirmés
étaient âgés de 75 ans ou moins et avaient été diagnostiqués entre 2005 et 2009. Les 1991
témoins ont été sélectionnés aléatoirement à partir de la liste électorale, puis appariés aux cas
selon l’âge (± 5 ans). Les informations concernant l’alimentation ont été recueillies avec un
questionnaire de fréquence alimentaire documentant la consommation deux ans avant le
diagnostic ou l’entrevue.
Le premier objectif visait à identifier des profils alimentaires parmi les témoins francophones
ainsi que les caractéristiques associées à ces profils. Une analyse en composantes principales a
permis d’identifier les profils alimentaires Santé, Occidental modifié - Salé et Occidental
modifié - Sucré. Le profil Santé a été associé à des niveaux plus élevés de revenu et
d’éducation, à un niveau modéré d’activité physique et à un faible niveau de tabagisme. Le
profil Occidental modifié - Salé a été associé avec des ethnicités française, européenne (autre
que française) ou latine, avec le fait d’être marié ou en union libre, et était inversement associé
avec l’âge. Le profil Occidental modifié - Sucré était plus commun chez les hommes d’origine
française et chez les consommateurs de suppléments de vitamines et minéraux.
Le deuxième objectif visait à évaluer les associations entre les profils alimentaires et le cancer
de la prostate. Les rapports de cotes (RC) et intervalles de confiance (IC) à 95% ont été
obtenus par régression logistique non conditionnelle ajustée pour les facteurs de confusion. Le
profil Santé était inversement associé au risque de cancer de la prostate (RC= 0,76 [IC 95% =
0,61-0,93], en comparant le quartile supérieur au quartile inférieur). Le profil Occidental -
Sucré et Boissons était associé à une augmentation du risque de cancer de la prostate (RC=
1,35 [IC 95% =1,10-1,66], quartile supérieur vs inférieur). Ces résultats sont novateurs.
Aucune association n’a été observée avec le profil Occidental - Salé et Alcool.
Le troisième objectif visait à évaluer l’association entre le niveau de transformation des
aliments et le cancer de la prostate. Les aliments transformés étaient associés à une
augmentation du risque (RC= 1,32 [IC 95% =1,07-1,62], quartile supérieur vs inférieur) et
l’association était légèrement plus prononcée pour les cancers agressifs.
En conclusion, ces résultats suggèrent que les profils alimentaires et le niveau de
transformation des aliments jouent un rôle dans le développement du cancer de la prostate. Il
s’agit d’informations importantes pour soutenir la promotion de saines habitudes de vie et la
prévention du cancer de la prostate. / Prostate cancer is the most commonly diagnosed cancer among men in Canada. No modifiable risk factor has been identified, but diet is suspected to play a role. Dietary patterns, which describe the overall dietary intake rather than the consumption of specific foods or nutrients, represent a promising research approach. The general objective of this thesis was to assess the role of dietary patterns and the level of food processing on the risk of prostate cancer.
Data collected in a large population-based case-control study conducted among Montreal residents were used. The 1919 histologically confirmed incident cases were 75 years of age or younger and had been diagnosed between 2005 and 2009. Concurrently, the 1991 controls were randomly selected from the electoral list and frequency-matched to cases by age (± 5 years). Food consumption was assessed using a food frequency questionnaire focusing on the period two years before diagnosis or interview.
The first objective was to identify dietary patterns among the French-speaking controlsas well as the characteristics associated with these patterns. Principal component analysis led to the identification of three dietary patterns: Healthy, Western modified - Salty and Western modified - Sweet. The Healthy pattern was associated with higher income, education, moderate levels of recreational physical activity and lower levels of smoking. The Western modified – Salty pattern was positively associated with French, other European (other than French), and Latino ancestries, and with married and common-law relationships, whereas it was inversely associated with age. Finally, the Modified Western – Sweet pattern was more common among men of French ancestry and users of vitamin/mineral supplements. The second objective was to assess associations between the different dietary patterns and prostate cancer. Odds ratios (OR) and 95% confidence interval (95% CI) were obtained by unconditional logistic regression adjusting for confounders. The Healthy dietary pattern was inversely associated with prostate cancer (OR = 0,76 [95% CI = 0,61-0,93], highest vs lowest quartile), whereas the Western - Sweet and beverages pattern increased the risk of this cancer (OR = 1,35 [95% CI = 1,10-1,66], highest vs lowest quartile). Both results are novel. The Western - Salty and alcohol pattern was not associated with prostate cancer risk.
The third objective was to assess the association between the level of food processing and prostate cancer. The level of food processing in the diet was assigned using the NOVA food classification. Processed foods were associated with an increased risk (OR = 1,32 [95% CI] = 1,07-1,62], highest vs lowest quartile) of prostate cancer, and the association was slightly more pronounced for high-grade prostate cancers.
In conclusion, these results suggest that dietary patterns and the level of food processing play a role on the risk of developing prostate cancer. This information is important for promoting a healthy lifestyle and for prostate cancer prevention.
|
435 |
Une province au bout du monde : administration et logistique de la Bretagne au IIe siècleVallerand, Philippe 08 1900 (has links)
Ce mémoire concentrera ses efforts sur les questions de logistique dans la province romaine de Bretagne durant le IIe siècle. Le règne des Antonins et le sommet du pouvoir impérial serviront de base pour une analyse des bénéfices et coûts de la province. Cette recherche explorera les coûts de la « romanisation » ainsi que les différentes méthodes utilisées par l’armée romaine pour assurer son ravitaillement. Le rôle des villes dans ce réseau et de la « romanisation » sera abordé pour analyser les demandes de ressources nécessaires au maintien des villes de l'antiquité et son poids sur la campagne. Finalement, l'économie romaine ainsi que ses fluctuations durant le règne des Antonins sera traitée pour mieux comprendre les mutations de l’administration romaine en Bretagne. De ce fait, cette recherche tentera de cerner l’administration de la province au quotidien. Une attention supplémentaire sera posée sur les enjeux concernant le maintien de l’infrastructure, avec pour but d'évaluer le poids fiscal que pouvait représenter l’entretien de villes et forts lors de l'occupation romaine.
Ce mémoire rassemblera nos connaissances sur ces sujets pour permettre de mieux réfléchir sur le poids réel des responsabilités de l'administration de la frontière de la province de Bretagne. Cette analyse illustrera une opinion d'historien à un champ de recherche généralement abordé d’un point de vue archéologique. Je suis persuadé que l'analyse des découvertes faites sur la Bretagne romaine peut bénéficier du point de vue et des constatations faites par multiples champs des sciences humaines. / This thesis focuses on questions of logistics in the Roman province of Britain during the
second century. The reign of the Antonine dynasty, when Roman power reached its apex, serves
as the backdrop of this costs-benefits analysis of the province. This research explores the costs of
Romanization as well as the different methods used by the Roman army to ensure its supplies. The
role of cities in this network and of “Romanization” is brought forward to analyse the demands of
the resources necessary for maintaining a Roman city during antiquity and its economical weight
on the countryside. Finally, the Roman economy as well as its fluctuations under the Antonines is
discussed to understand the fluctuations in the Roman administration of Britain. As such, this
research investigates what the daily administration was like. Special attention is given to the
afferent costs of maintaining the infrastructure with the goal of appreciating the cost of maintaining
cities and fortresses.
This thesis gathers our knowledge on those subjects to better understand and reflect on the
real weight and responsibilities related to the administration of the frontier province of Britain. It
is a historian’s point of view in a field generally addressed through an archeological lens. I am
convinced that the analysis of discoveries made in Roman Britain can benefit from the insights
and reflections done by multiple social sciences, including history.
|
436 |
Physical internet-enabled hyperconnected distribution assessmentSohrabi, Helia 24 April 2018 (has links)
L'Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d'inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l'Internet Digital, qui relie des milliers de réseaux d'ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d'améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l'ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l'optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d'échantillons d'affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l'ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l'Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l'objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d'optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures. / The Physical Internet (PI) is an initiative that identifies several symptoms of logistics systems unsustainability and inefficiency and tackles them by proposing a novel paradigm called Hyperconnected Logistics. Similar to the Digital Internet, which connects thousands of personal and local computer networks, PI will connect the fragmented logistics systems of today. The main purpose is to enhance the performance of logistics systems from economic, environmental and social perspectives. Focusing specifically on the distribution system, this thesis questions the order of magnitude of the performance gain by exploiting the PI-enabled hyperconnected distribution. It is also concerned by the characterization of the hyperconnected distribution planning. To address the first question, an exploratory research approach based on optimization modeling is applied; first, the current and prospective distribution systems are modeled. Then, a set of realistic business samples are created, and their economic and environmental performance by targeting multiple social performances are assessed. A conceptual planning framework is proposed to support the decision making in the hyperconnected distribution system. Based on the results obtained by our investigation, it can be argued that a substantial gain can be achieved by shifting toward Hyperconnected Distribution. It is also revealed that the magnitude of the gain varies by business characteristics and the targeted social performance. Since the Physical Internet is a novel topic, chapter 1 briefly introduces PI and Hyperconnected Logistics. Chapter 2 discusses the research foundations, goal and methodology. It also describes the challenges of conducting this research and highlights the type of contributions aimed for. Chapter 3 presents the optimization models including a core distribution network design modeling approach. Influenced by the characteristics of the current and prospective distribution systems, three distribution system-driven models are developed. Chapter 4 engages with the characterization of the business samples, the modeling and calibration of the parameter that are employed in the models. The exploratory investigation results are presented in Chapter 5. Chapter 6 describes the hyperconnected distribution planning framework. Chapter 7 summarizes the content of the thesis and highlights the main contributions. Moreover, it identifies the research limitations and potential future research avenues.
|
437 |
New statistical methods to assess the effect of time-dependent exposures in case-control studiesCao, Zhirong 12 1900 (has links)
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps.
Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac.
Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations.
Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps.
Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins / Background: Case-control studies are very often used by epidemiologists to assess the impact of specific exposure(s) on a particular disease. These exposures may be represented by several time-dependent covariates and new methods are needed to accurately estimate their effects. Indeed, conventional logistic regression, which is the standard method to analyze case-control data, does not directly account for changes in covariate values over time. By contrast, survival analytic methods such as the Cox proportional hazards model can directly incorporate time-dependent covariates representing the individual entire exposure histories. However, it requires some careful manipulation of risk sets because of the over-sampling of cases, compared to controls, in case-control studies. As shown in a preliminary simulation study, the optimal definition of risk sets for the analysis of case-control data remains unclear and has to be investigated in the case of time-dependent variables.
Objective: The overall objective is to propose and to investigate new versions of the Cox model for assessing the impact of time-dependent exposures in case-control studies, and to apply them to a real case-control dataset on lung cancer and smoking.
Methods: I identified some potential new risk sets definitions (the weighted Cox model and the simple weighted Cox model), in which different weights were given to cases and controls, in order to reflect the proportions of cases and non cases in the source population. The properties of the estimates of the exposure effects that result from these new risk sets definitions were investigated through a simulation study. Various aspects of exposure were generated (intensity, duration, cumulative exposure value). The simulated case-control data were then analysed using different versions of Cox’s models corresponding to existing and new definitions of risk sets, as well as with standard logistic regression, for comparison purpose. The different regression models were then applied to real case-control data on lung cancer. The estimates of the effects of different smoking variables, obtained with the different methods, were compared to each other, as well as to simulation results.
Results: The simulation results show that the estimates from the new proposed weighted Cox models, especially those from the weighted Cox model, are much less biased than the estimates from the existing Cox models that simply include or exclude future cases. In addition, the weighted Cox model was slightly, but systematically, less biased than logistic regression. The real life application shows some greater discrepancies between the estimates of the proposed Cox models and logistic regression, for some smoking time-dependent covariates.
Conclusions: The results suggest that the new proposed weighted Cox models could be an interesting alternative to logistic regression for estimating the effects of time-dependent exposures in case-control studies.
|
438 |
Étude des déterminants démographiques de l’hypotrophie fœtale au QuébecFortin, Émilie 04 1900 (has links)
Cette recherche vise à décrire l’association entre certaines variables démographiques telles que l’âge de la mère, le sexe, le rang de naissance et le statut socio-économique – représenté par l’indice de Pampalon – et l’hypotrophie fœtale au Québec. L’échantillon est constitué de 127 216 naissances simples et non prématurées ayant eu lieu au Québec entre le 1er juillet 2000 et le 30 juin 2002. Des régressions logistiques portant sur le risque d’avoir souffert d’un retard de croissance intra-utérine ont été effectuées pour l’ensemble du Québec ainsi que pour la région socio-sanitaire (RSS) de Montréal.
Les résultats révèlent que les enfants de premier rang et les enfants dont la mère était âgée de moins de 25 ans ou de 35 ans et plus lors de l’accouchement ont un risque plus élevé de souffrir d’hypotrophie fœtale et ce dans l’ensemble du Québec et dans la RSS de Montréal. De plus, les résultats démontrent que le risque augmente plus la mère est défavorisée. Puisque l’indice de Pampalon est un proxy écologique calculé pour chaque aire de diffusion, les intervenants en santé publique peuvent désormais cibler géographiquement les femmes les plus à risque et adapter leurs programmes de prévention en conséquence. Ainsi, le nombre de cas d’hypotrophie fœtale, voire même la mortalité infantile, pourraient être réduits. / This study describes the association between demographic variables such as the mother’s age, the child’s gender and birth order, and the socio-economic status – that can now be assessed by the Pampalon Index – with intrauterine growth restriction (IUGR) in the province of Quebec. The analyses are based on a sample of 127,216 singletons and term births that occurred in the province of Quebec between July 1st, 2000 and June 30th, 2002. Logistics regressions on the risk of having suffered from IUGR were produced for the entire province of Quebec and for the health region of Montreal.
In the province of Quebec and in the health region of Montreal, the results reveal that the risk of IUGR is higher for first-born infants, and for infants whose mother was under 25 years of age or aged 35 years and older. Moreover, the risk of IUGR increases with poverty. Since the Pampalon Index is calculated for each dissemination area, public health interventions can now target the most vulnerable women and reduce the number of IUGR cases or even infant mortality.
|
439 |
Modélisation des bi-grappes et sélection des variables pour des données de grande dimension : application aux données d’expression génétiqueChekouo Tekougang, Thierry 08 1900 (has links)
Les simulations ont été implémentées avec le programme Java. / Le regroupement des données est une méthode classique pour analyser les matrices d'expression génétiques. Lorsque le regroupement est appliqué sur les lignes (gènes), chaque colonne (conditions expérimentales) appartient à toutes les grappes obtenues. Cependant, il est souvent observé que des sous-groupes de gènes sont seulement co-régulés (i.e. avec les expressions similaires) sous un sous-groupe de conditions. Ainsi, les techniques de bi-regroupement ont été proposées pour révéler ces sous-matrices des gènes et conditions. Un bi-regroupement est donc un regroupement simultané des lignes et des colonnes d'une matrice de données. La plupart des algorithmes de bi-regroupement proposés dans la littérature n'ont pas de fondement statistique. Cependant, il est intéressant de porter une attention sur les modèles sous-jacents à ces algorithmes et de développer des modèles statistiques permettant d'obtenir des bi-grappes significatives. Dans cette thèse, nous faisons une revue de littérature sur les algorithmes qui semblent être les plus populaires. Nous groupons ces algorithmes en fonction du type d'homogénéité dans la bi-grappe et du type d'imbrication que l'on peut rencontrer. Nous mettons en lumière les modèles statistiques qui peuvent justifier ces algorithmes. Il s'avère que certaines techniques peuvent être justifiées dans un contexte bayésien.
Nous développons une extension du modèle à carreaux (plaid) de bi-regroupement dans un cadre bayésien et nous proposons une mesure de la complexité du bi-regroupement. Le critère d'information de déviance (DIC) est utilisé pour choisir le nombre de bi-grappes. Les études sur les données d'expression génétiques et les données simulées ont produit des résultats satisfaisants.
À notre connaissance, les algorithmes de bi-regroupement supposent que les gènes et les conditions expérimentales sont des entités indépendantes. Ces algorithmes n'incorporent pas de l'information biologique a priori que l'on peut avoir sur les gènes et les conditions. Nous introduisons un nouveau modèle bayésien à carreaux pour les données d'expression génétique qui intègre les connaissances biologiques et prend en compte l'interaction par paires entre les gènes et entre les conditions à travers un champ de Gibbs. La dépendance entre ces entités est faite à partir des graphes relationnels, l'un pour les gènes et l'autre pour les conditions. Le graphe des gènes et celui des conditions sont construits par les k-voisins les plus proches et permet de définir la distribution a priori des étiquettes comme des modèles auto-logistiques. Les similarités des gènes se calculent en utilisant l'ontologie des gènes (GO). L'estimation est faite par une procédure hybride qui mixe les MCMC avec une variante de l'algorithme de Wang-Landau. Les expériences sur les données simulées et réelles montrent la performance de notre approche.
Il est à noter qu'il peut exister plusieurs variables de bruit dans les données à micro-puces, c'est-à-dire des variables qui ne sont pas capables de discriminer les groupes. Ces variables peuvent masquer la vraie structure du regroupement. Nous proposons un modèle inspiré de celui à carreaux qui, simultanément retrouve la vraie structure de regroupement et identifie les variables discriminantes. Ce problème est traité en utilisant un vecteur latent binaire, donc l'estimation est obtenue via l'algorithme EM de Monte Carlo. L'importance échantillonnale est utilisée pour réduire le coût computationnel de l'échantillonnage Monte Carlo à chaque étape de l'algorithme EM. Nous proposons un nouveau modèle pour résoudre le problème. Il suppose une superposition additive des grappes, c'est-à-dire qu'une observation peut être expliquée par plus d'une seule grappe. Les exemples numériques démontrent l'utilité de nos méthodes en terme de sélection de variables et de regroupement. / Clustering is a classical method to analyse gene expression data. When applied to the rows (e.g. genes), each column belongs to all clusters. However, it is often observed that the genes of a subset of genes are co-regulated and co-expressed in a subset of conditions, but behave almost independently under other conditions. For these reasons, biclustering techniques have been proposed to look for sub-matrices of a data matrix. Biclustering is a simultaneous clustering of rows and columns of a data matrix. Most of the biclustering algorithms proposed in the literature have no statistical foundation. It is interesting to pay attention to the underlying models of these algorithms and develop statistical models to obtain significant biclusters. In this thesis, we review some biclustering algorithms that seem to be most popular. We group these algorithms in accordance to the type of homogeneity in the bicluster and the type of overlapping that may be encountered. We shed light on statistical models that can justify these algorithms. It turns out that some techniques can be justified in a Bayesian framework.
We develop an extension of the biclustering plaid model in a Bayesian framework and we propose a measure of complexity for biclustering. The deviance information criterion (DIC) is used to select the number of biclusters. Studies on gene expression data and simulated data give satisfactory results.
To our knowledge, the biclustering algorithms assume that genes and experimental conditions are independent entities. These algorithms do not incorporate prior biological information that could be available on genes and conditions. We introduce a new Bayesian plaid model for gene expression data which integrates biological knowledge and takes into account the pairwise interactions between genes and between conditions via a Gibbs field. Dependence between these entities is made from relational graphs, one for genes and another for conditions. The graph of the genes and conditions is constructed by the k-nearest neighbors and allows to define a priori distribution of labels as auto-logistic models. The similarities of genes are calculated using gene ontology (GO). To estimate the parameters, we adopt a hybrid procedure that mixes MCMC with a variant of the Wang-Landau algorithm. Experiments on simulated and real data show the performance of our approach.
It should be noted that there may be several variables of noise in microarray data. These variables may mask the true structure of the clustering. Inspired by the plaid model, we propose a model that simultaneously finds the true clustering structure and identifies discriminating variables. We propose a new model to solve the problem. It assumes that an observation can be explained by more than one cluster. This problem is addressed by using a binary latent vector, so the estimation is obtained via the Monte Carlo EM algorithm. Importance Sampling is used to reduce the computational cost of the Monte Carlo sampling at each step of the EM algorithm. Numerical examples demonstrate the usefulness of these methods in terms of variable selection and clustering.
|
440 |
Du role des signaux faibles sur la reconfiguration des processus de la chaîne d e valeur de l'organisation : l'exemple d'une centrale d'achats de la grande distribution françaiseMEVEL, Olivier 14 December 2004 (has links) (PDF)
La thèse s'inscrit dans une thématique générale reliée aux difficultés éprouvées par les organisations pour décrypter, comprendre et analyser les variations de leur environnement depuis l'explosion des échanges et la mondialisation des marchés. Nous débutons nos travaux par une double constatation, généralement admise par la littérature en sciences de gestion, à savoir que l'information est devenue en quelques années la matière première et le carburant essentiel de la chaîne de valeur de l'entreprise tandis que la maîtrise des informations émanant de l'environnement émerge, de plus en plus, comme un enjeu stratégique majeur pour l'organisation. Nos travaux se proposent de démontrer que, dans un contexte sans cesse plus turbulent, le processus décisionnel en entreprise doit savoir tenir compte des « signaux faibles » que délivre l'environnement. En effet, parmi l'ensemble des signaux reçus par l'organisation, la thèse distingue entre les « signaux forts » et les « signaux faibles » et montre leurs impacts différenciés sur la stratégie de l'entreprise ainsi que leurs conséquences, en termes organisationnels, sur la reconfiguration des processus au sein de la chaîne de valeur. L'objectif spécifique de la thèse est donc de chercher à reconnaître quelles sont les informations pertinentes que l'entreprise doit absolument traiter. Pour ce faire, nous examinons la façon dont certains signaux informationnels dit « signaux faibles » pénètrent et diffusent des connaissances nouvelles au sein de l'organisation. Dans un second temps, nous envisageons la manière dont ces connaissances peuvent impacter et moduler le format des processus de la chaîne de valeur. Dans un objectif plus global, notre thèse vise à poser les fonts baptismaux d'un management du processus décisionnel fondé sur l'observation, l'analyse et la compréhension des signaux faibles émis par le marché. En ce sens, nous postulons implicitement que le volume et la valeur des informations pertinentes dont peut disposer l'entreprise dépendent essentiellement de la capacité du management à piloter et à ajuster un double processus d'exploration et d'exploitation des informations délivrées par le signal faible. Les tentatives d'apprentissages, tant individuel que collectif, menées autour de la maîtrise du processus de gestion des signaux faibles se révèlent alors comme un enjeu majeur pour l'organisation confrontée à un environnement instable et difficilement probabilisable. Autrement dit, les signaux faibles sont de puissants vecteurs informationnels centripètes et des contributeurs indispensables à la formalisation et à l'exploitation des connaissances au sein de la chaîne de valeur. Les signaux faibles peuvent donc être considérés comme des informations d'essence anticipatoire qui sont, le moment venu, à l'origine de la reconfiguration des processus. La thèse insiste sur l'importance que doit prendre la gestion anticipative au sein des organisations. En effet, nous avons montré que la question de la gestion anticipative est directement reliée aux surprises que recèlent l'environnement de la firme. Le signal faible devient donc la clé informationnelle qui, à partir d'un évènement ou d'un état spécifique de l'environnement, permet de comprendre et d'anticiper le sens des perturbations à venir. La gestion anticipative de l'organisation se fonde alors prioritairement sur des informations pertinentes que l'organisation n'obtient qu'après avoir collecté, traité et analysé les signaux faibles décelés dans son environnement. Au-delà d'une simple vision statique de la recherche d'informations stratégiques, nous avons souhaité insister sur une vision dynamique de la valorisation des signaux faibles au sein de l'organisation. Dans un environnement mouvant, l'information « contextualisée » oxygène et fait respirer l'entreprise. L'exploitation des signaux faibles va, en outre, permettre de régler la fréquence respiratoire de l'organisation afin d'adapter les ressources et compétences de cette dernière aux différentes menaces ou opportunités spécifiques qui peuvent surgir dans son environnement. Au même titre ou sinon plus que le capital et le travail, l'information est devenue un facteur de production à part entière. En effet, issu d'un état instable de l'environnement, le signal faible est une information parcellaire qui présente la caractéristique de pouvoir potentiellement délivrer une charge informationnelle susceptible de venir renforcer la cognition et la cohérence de l'organisation. Dans l'avenir, nous espérons voir des travaux ultérieurs poursuivre dans cette voie de recherche afin de, peut être, mieux mesurer la réceptivité des entreprises au concept de gestion anticipative à partir des signaux faibles de l'environnement.
|
Page generated in 0.1648 seconds