• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 220
  • 144
  • 144
  • 144
  • 144
  • 144
  • 143
  • 14
  • 1
  • 1
  • Tagged with
  • 544
  • 544
  • 292
  • 138
  • 77
  • 61
  • 59
  • 58
  • 57
  • 56
  • 54
  • 49
  • 46
  • 44
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Scoring the SF-36 health survey in scleroderma using independent component analysis and principle component analysis

Shawli, Alaa January 2011 (has links)
The short form SF-36 survey is a widely used survey of patient health related quality of life. It yields eight subscale scores of functional health and well-being that are summarized by two physical and mental component summary scores. However, recent studies have reported inconsistent results between the eight subscales and the two component summary measures when the scores are from a sick population. They claim that this problem is due to the method used to compute the SF-36 component summary scores, which is based on principal component analysis with orthogonal rotation.In this thesis, we explore various methods in order to identify a method that is more accurate in obtaining the SF-36 physical and mental component component summary scores (PCS and MCS), with a focus on diseased patient subpopulations. We first explore traditional data analysis methods such as principal component analysis (PCA) and factor analysis using maximum likelihoodestimation and apply orthogonal and oblique rotations with both methods to data from the Canadian Scleroderma Research Group registry. We compare these common approaches to a recently developed data analysis method from signal processing and neural network research, independent component analysis (ICA). We found that oblique rotation is the only method that reduces the meanmental component scores to best match the mental subscale scores. In order to try to better elucidate the differences between the orthogonal and oblique rotation, we studied the performance of PCA with the two approaches for recovering the true physical and mental component summary scores in a simulated diseased population where we knew the truth. We explored the methods in situations where the true scores were independent and when they were also correlated. We found that ICA and PCA with orthogonal rotation performed very similarly when the data were generated to be independent, but differently (with ICA performing worse) when the data were generated to be correlated. PCA with oblique rotation tended to perform worse than both methods when the data were independent, but better when the data were correlated. We also discuss the connection between ICA and PCA with orthogonal rotation, which lends strength to the use of the varimax rotation for the SF-36.Finally, we applied ICA to the scleroderma data and found relatively low correlation between ICA and unrotated PCA in estimating the PCS and MCS scores and very high correlation between ICA and PCA with varimax rotation. PCA with oblique rotation also had a relatively high correlation with ICA. Hence, we concluded that ICA could be seen as a compromise solution between the two methods. / La version abrégée du questionnaire SF-36 est largement utilisée pour valider la qualité de vie reliée à la santé. Ce questionnaire fournit huit scores s'attardant à la capacité fonctionnelle et au bien-être, lesquels sont regroupés en cotes sommaires attribuées aux composantes physiques et mentales. Cependant, des études récentes ont rapporté des résultats contradictoires entre les huit sous-échelles et les deux cotes sommaires lorsque les scores sont obtenus auprès de sujets malades. Cette discordance serait due à la méthode utilisée pour calculer les cotes sommaires du SF-36 qui est fondée sur l'analyse en composantes principales avec rotation orthogonale.Dans cette thèse, nous explorons diverses méthodes dans le but d'identifier une méthode plus précise pour calculer les cotes sommaires du SF-36 attribuées aux composantes physiques et mentales (CCP et CCM), en mettant l'accent sur des sous-populations de sujets malades. Nous évaluerons d'abord des méthodes traditionnelles d'analyse de données, telles que l'analyse en composantes principales (ACP) et l'analyse factorielle, en utilisant l'étude de l'estimation du maximum de vraisemblance et en appliquant les rotations orthogonale et oblique aux deux méthodes sur les données du registre du Groupe de recherche canadien sur la sclérodermie. Nous comparons ces approches courantes à une méthode d'analyse de données développée récemment à partir de travaux de recherche sur le réseau neuronal et le traitement du signal, l'analyse en composantes indépendantes (ACI).Nous avons découvert que la rotation oblique est la seule méthode qui réduit les cotes attribuées aux composantes mentales moyennes afin de mieux les corréler aux scores de la sous-échelle des symptômes mentaux. Dans le but de mieux comprendre les différences entre la rotation orthogonale et la rotation oblique, nous avons étudié le rendement de l'ACP avec deux approches pour déterminer les véritables cotes sommaires attribuées aux composantes physiques et mentales dans une population simulée de sujets malades pour laquelle les données étaient connues. Nous avons exploré les méthodes dans des situations où les scores véritables étaient indépendants et lorsqu'ils étaient corrélés. Nous avons conclu que le rendement de l'ACI et de l'ACP associées à la rotation orthogonale était très similaire lorsque les données étaient indépendantes, mais que le rendement différait lorsque les données étaient corrélées (ACI étant moins performante). L'ACP associée à la rotation oblique a tendance à être moins performante que les deux méthodes lorsque les données étaient indépendantes, mais elle est plus performante lorsque les données étaient corrélées. Nous discutons également du lien entre l'ACI et l'ACP avec la rotation orthogonale, ce qui appuie l'emploi de la rotation varimax dans le questionnaire SF 36.Enfin, nous avons appliqué l'ACI aux données sur la sclérodermie et nous avons mis en évidence une corrélation relativement faible entre l'ACI et l'ACP sans rotation dans l'estimation des scores CCP et CCM, et une corrélation très élevée entre l'ACI et l'ACP avec rotation varimax. L'ACP avec rotation oblique présentait également une corrélation relativement élevée avec l'ACI. Par conséquent, nous en avons conclu que l'ACI pourrait servir de solution de compromis entre ces deux méthodes.
132

Casual inference via propensity score regression and length-biased sampling

Ertefaie, Ashkan January 2011 (has links)
Confounder adjustment is the key in the estimation of exposure effect in observational studies. Two well known causal adjustment techniques are the propensity score and the inverse probability of treatment weighting. We have compared the asymptotic properties of these two estimators and showed that the former method results in a more efficient estimator. Since ignoring important confounders result in a biased estimator, it seems beneficial to adjust for all the covariates. This, however, may result in an inflation of the variance of the estimated parameters and induce bias as well. We present a penalization technique based on the joint likelihood of the treatment and response variables to select the key covariates that need to be included in the treatment assignment model. Besides the bias induced by the non-randomization, we discuss another source of bias induced by having a non-representative sample of the target population. In particular, we study the effect of length-biased sampling in the estimation of the treatment effect. We introduced a weighted and a double robust estimating equations to adjust for the biased sampling and the non-randomization in the generalized accelerated failure time model setting. Large sample properties of the estimators are established.We conduct an extensive simulation studies to study the small sample properties of the estimators. In each Chapter, we apply our proposed technique on real data sets and compare the result with those obtained by other methods. / L'ajustement du facteur de confusion est la clé dans l'estimation de l'effet de traitement dans les études observationelles. Deux techniques bien connus d'ajustement causal sont le score de propension et la probabilité de traitement inverse pondéré. Nous avons comparé les propriétés asymptotiques de ces deux estimateurs et avons démontré que la première méthode est un estimateur plus efficace. Étant donné que d'ignorer des facteurs de confusion importants ne fait que biaiser l'estimateur, il semble bénéfique de tenir compte de tous les co-variables. Cependant, ceci peut entrainer une inflation de la variance des paramètres estimés et provoquer des biais également. Par conséquent, nous présentons une pénalisation technique basée conjointement sur la probabilité du traitement et sur les variables de la réponse pour sélectionner la clé co-variables qui doit être inclus dans le modèle du traitement attribué. Outre le biais introduit par la non-randomisation, nous discutons d'une autre source de biais introduit par un échantillon non représentatif de la population cible. Plus précisément, nous étudions l'effet de la longueur du biais de l'échantillon dans l'estimation de la résultante du traitement. Nous avons introduit une pondération et une solide équation d'estimation double pour ajuster l'échantillonnage biaisé et la non-randomisation dans la généralisation du modèle à temps accéléré échec réglage. Puis, les propriétés des estimateurs du vaste échantillon sont établies. Nous menons une étude étendue pour examiner la simulation des propriétés des estimateurs du petit échantillon. Dans chaque chapitre, nous appliquons notre propre technique sur de véritables ensembles de données et comparons les résultats avec ceux obtenus par d'autres méthodes.
133

Of bones and noise

Ryser, Marc January 2012 (has links)
This dissertation reports on two independent studies in the fields of deterministic and stochastic partial differential equations.In the first part, we introduce a novel spatio-temporal model of the bone remodelling process. Bone remodelling is crucial for the removal of fatigue damage and the renewal of old bone tissue in the vertebrate skeleton. Responsible for remodelling are the bone multicellular units (BMUs), complex entities consisting of several interacting cell types. We develop a nonlinear mixed PDE model capturing the dynamics of a single BMU in trabecular bone. Several pathological remodelling events are studied numerically, and new insights into the RANKL/RANK/OPG pathway are presented. Finally, the model is adapted to study the role of OPG in bone metastases. In silico experiments demonstrate that depending on the expression rate, tumour-derived OPG can increase or decrease osteolysis and tumour growth. In particular, this mechanism is able to explain a set of seemingly contradictory experimental studies. In the second part, we study the well-posedness of the two-dimensional Allen-Cahn equation with additive space-time white noise. We first introduce a high frequency cut-off in the noise field and then study the corresponding regularized problems in the limit where the cut-off goes to infinity. Based on numerical experiments and heuristic arguments, we conjecture that the approximations converge to the zero-distribution. A rigorous proof of the conjecture is provided. The result demonstrates that a series of published numerical studies are problematic: shrinking the mesh size in these simulations does not lead to the recovery of a physically meaningful limit. / Au sein de cette thèse nous présentons deux études indépendantes dans le contexte général des équations aux dérivées partielles (EDP), déterministes ainsi que stochastiques. Lors de la première partie nous développons un nouveau modèle spatio-temporel du processus de remodelage osseux. Le remodelage osseux est essentiel pour la réparation de fissures microscopiques ainsi que le renouvellement périodique du tissu osseux à travers le squelette vertébré. Le remodelage est effectué par les unités fonctionelles de remodelage (UFR): des entités complexes constituées de plusieurs types de cellules interagissantes. Nous développons un modèle mixte d'EDP nonlinéaires pour décrire l'évolution d'une UFR à travers le tissu trabéculaire. A l'aide de simulations numériques, nous étudions plusieurs régimes pathologiques de remodelage, et nous présentons de nouvelles perspectives concernant la voie biochimique RANKL/RANK/OPG. Enfin, le modèle est adapté pour étudier le rôle d'OPG dans les métastases osseuses. Les expériences numériques démontrent que, selon le taux d'expression, OPG exprimée par le tumeur peut soit augmenter soit diminuer l'ostéolyse et ainsi la croissance tumorale. En particulier, ce mécanisme est capable d'expliquer un ensemble d'études expérimentales apparemment contradictoires. Lors de la deuxième partie, nous investigons l'équation d'Allen-Cahn soujette à un bruit blanc additif, et cela en deux dimensions spatiales. Après avoir regularisé le bruit par une coupure à hautes fréquences, nous étudions la suite de problèmes regularisés ainsi obtenue. A l'aide d'expériences numériques et d'arguments heuristiques, nous faisons la conjécture que ces approximations convergent vers la distribution nulle dans la limite du bruit blanc. Une preuve rigoureuse de cette conjécture est fournie. Le résultat démontre que toute une série de travaux numériques publiés dans la litérature sont problématiques: en effet, lorsque la taille de la grille tend vers zéro, on obtient une limite sans signification physique.
134

Algorithmic problems in limits of free and hyperbolic groups

Macdonald, Jeremy January 2012 (has links)
We prove two theorems regarding the algorithmic theory of groups. First, that the compressed word problem in every finitely generated fully residually free group can be decided in polynomial time. As a corollary, the word problem in the automorphism group of such a group has a polynomial time solution. Second, for any torsion-free hyperbolic group H and any group G that is finitely generated and fully residually H, we construct a finite collection of homomorphisms, at least one of which is injective, from G to groups obtained from H by extensions of centralizers. As corollaries, we obtain an effective embedding of any finitely generated residually H group into a finite direct product of groups obtained from H by extensions of centralizers, and we prove that the word problem in any finitely generated residually H group can be decided in polynomial time. / On prouve deux théorèmes dans le domaine de la théorie algorithmique des groupes. D'abord on démontre que le problème de l'identité des mots compressés est soluble en temps polynomial dans tout groupe de type fini et discriminé par un groupe libre. Il s'en suit que le problème de l'identité de mots dans le groupe d'automorphismes d'un tel groupe est soluble en temps polynomial. Ensuite, pour tout groupe hyperbolique sans torsion H et tout groupe G de type fini qui est discriminé par H, on construit une collection finie d'homomorphismes, au moins un desquels est injective, entre G et des groupes obtenus de H par des extensions des centralisateurs. De ce fait, on obtient une inclusion algorithmique de tout groupe de type fini et séparé par H dans un produit direct fini de groupes obtenus de H par extensions des centralisateurs et on démontre que le problème de l'identité dans tout groupe de type fini et séparé par H est soluble en temps polynomial.
135

On the necessity of the maximum principle for systems in the proof of Hamilton's matrix Harnack inequality

Getgood, Thomas January 2009 (has links)
The heat equation, while well understood in R^n , presents many novel difficulties in curved spaces. Among the techniques developed to deal with these new intricacies are differential Harnack inequalities. Beginning with the work of Li and Yau in [9] this paper will discuss the motivations and methods leading up to differential Harnack estimates culminating in Hamilton's full matrix Harnack inequality [7]. A new tool called the constant rank theorem will thereupon be developed and deployed to reprove Hamilton's result by a different route. This new proof deviates from the original substantially, but achieves the same result under the same assumptions without recourse to Hamilton's matrix maximum principle. The possible implications of this new proof are discussed in closing. / L'équation de la chaleur, bien comprise dans les espaces plats, présete un certain degré de difficulté sur les variétés Riemannienne. Parmi les outils importants pour comprendre ses solutions, on trouve l'inégalité matricielle d'Hamilton [7]. Ensuite, nous présenterons un nouvel outil qui est le théorèm de rang invariable et nous l'utiliserons afin de créer une nouvelle prueve de l'inégalité matricielle d'Hamilton. Cette nouvelle prueve nous fournie le meme hypotèses mais sans avoir recours au principe du maximum pour les systèmes d'équations d'Hamilton [6]. Finalement, nous discuterons les implications potentielles de cette nouvelle technique de preuve.
136

Dynamics, function and evolution of regulatory networks

Wilds, Roy January 2009 (has links)
Biochemical regulatory networks are involved in many essential processes of life, such as maintaining homeostatic conditions, cell-cycle division, and responding to environmental stimuli. Such networks contain a staggering degree of complexity, inhibiting our ability to understand how they function. Two major challenges in quantitative biology are addressed in this thesis. First, the problem of identifying regulatory models from observational data. Second, characterizing how regulatory networks evolve. Making use of a simple regulatory model that is based on piecewise linear differential equations, investigations into these questions are undertaken. A novel method for inferring regulatory networks from knowledge of the dynamics is presented. This result is used to derive an atlas of networks with highly robust limit cycle dynamics in dimensions 3,4 and 5. Additionally, a new theoretical approach is used to identify two families of regulatory networks: cyclic, negative feedback and sequential disinhibition, with robust periodic dynamics that exist in all higher dimensions too. Smooth generalizations of the piecewise linear case, called continuous homologues, are also considered. For the family of cyclic, negative feedback networks it is shown that for the continuous homologue, a limit cycle exists and provided it is hyperbolic, it is asymptotically stable. Regulatory networks share many features across different species, raising the question of how they evolved. A simple evolutionary model in which piecewise linear networks are subject to mutation processes with selective pressure for chaotic dynamics is considered. Investigation into the evolutionary process reveals that the robustness (insensitivity of dynamics to mutations of the components of the network) has an important impact on the ability to innovate increasingly chaotic dynamics. An explicit analytical description of how evolutionary processes / Biochemical réglementaire des réseaux sont impliqués dans de nombreux processusessentiels de la vie, tels que les conditions en restant homéostatique, le cycle dedivision cellulaire, et de répondre 'a l'environnement stimuli. Ces réseaux contiennentun grand degré de complexité, qui nous empéche de comprendre comment ils fonctionnent.Deux défis majeurs dans la biologie quantitative sont abordées dans cetteth'ese. Tout d'abord, le probl'eme de l'identification des mod'eles de réglementation 'apartir de données d'observation. Deuxi'emement, révélant les processus par lesquelsles réseaux de régulation évoluent. L'utilisation d'une simple réglementation mod'elequi est basé sur les équations différentielles linéaires par morceaux; les enquêtes surces questions sont mises en oeuvre.Une nouvelle méthode pour déduire des réseaux de réglementation de la connaissancede la dynamique est présenté. Ce résultat est utilisé pour tirer un atlasdes réseaux tr'es robuste cycle de limite dynamiques dans les dimensions 3,4 et 5.En outre, une nouvelle approche théorique est également utilisé pour identifier deuxfamilles de réseaux de régulation: la rétroaction négative de réseaux et séquentieldisinhibition, avec de solides périodiques dynamiques qui existe aussi dans toutes lesdimensions supérieures aussi. Les généralisations de linéaire par lisse morceaux del'esp'ece, appelée continue homologues, sont également considérée. Pour la famillede cyclique, la rétroaction négative de réseaux, il est montré que, dans le homologuecontinue, un cycle de limite existe et il est prévu hyperbolique, il est alors asymptotiquementstable.Réglementaire des réseaux part de nombreuses fonctionnalités 'a travers les différentesesp'eces, ce qui soul'eve la question de savoir comment ils évoluent. Un mod'ele simpleévolutif dans lequel les réseaux sont linéaires par morceaux soumis 'a$
137

A comparison of methods for longitudinal data with nonignorable dropout with an application in systemic sclerosis

Schnitzer, Mireille January 2009 (has links)
Longitudinal studies in the medical field often experience data loss resulting from subject dropout. The general practice is still dominated by the use of unproven ad-hoc techniques. Modeling methods for longitudinal data with absent values exist and are valid under different missingness assumptions. A simulation study was performed that compared the linear mixed model, a pattern-mixture model using multiple imputations, Schafer's multiple imputation PAN model, and two fully Bayesian selection models. The models were contrasted in terms of their ability to estimate the slope of the response over time, and variability of the slope estimates and confidence bounds they produced. The success of each of these models varied under different missing data mechanisms, with the mixed model and the selection model (with a low amount of dependence between the probability of missingness and response values) outstanding in the MCAR and MAR cases, and the selection model (with a higher amount of probability of missingness/response dependence) alone doing very well for NMAR data. The pattern-mixture model also had good coverage for MCAR and MAR cases, but the PAN model did the poorest under all three missing data conditions. The modeling methods were then applied to longitudinal disability scores from the Canadian Scleroderma Research Group registry. Almost all were able to identify an increase in disability over time for patients, but with varying magnitudes. This example allowed for insight into the benefits of the models that were simpler to implement (the mixed model and PAN) and the pitfalls of using the pattern-mixture model in certain irregular settings. / Lors d'études statistiques dans le domaine médical où l'on mesure les variables au fil du temps, il arrive souvent que certains participants abandonnent l'étude. En général, on néglige l'importance de traiter ces manques de données avec des méthodes statistiques valides. Néanmoins, plusieurs méthodes existent pour traiter ces lacunes, sous différentes hypothèses de manque de données. Une étude de simulation a été effectuée afin de comparer différents modèles : mixte linéaire, mélange de configurations à redressements répétés, PAN à redressements répétés (introduit par Schafer), et deux modèles de sélection de Bayes. Les modèles ont été comparés en fonction de leur capacité à estimer la pente de la réaction au fil du temps, ainsi que la variabilité de l'approximation de la pente et des intervalles de confiance. En fait, la performance des modèles diffère en fonction de la façon dont les données manquantes ont été produites : MCAR, MAR, et NMAR. Le modèle mixte et un des modèles de sélection (celui avec le moins de dépendance entre la probabilité d'obtenir une donné manquante et la valeur de la réaction) ont bien performé dans les cas MCAR et MAR, tandis que le second modèle de sélection a mieux performé dans le cas NMAR. De plus, le modèle à mélange de configurations a produit des intervalles de confiance qui ont bien couvert la véritable pente, tandis que le modèle PAN, dans tous les cas, n'a pas produit de bons résultats. Ces méthodes ont ensuite été appliquées aux données longitudinales d'handicap physique du Groupe de recherche canadien sur la sclérodermie. Les modèles ont presque tous été capables d'identifier une augmentation de l'handicap au fil du temps. D'ailleurs, l'exemple sur la sclérodermie nous a permis d'identifier les avantages des modèles plus faciles à utiliser, ainsi que les désavantages du modèle à mélang
138

Special points on orthogonal symmetric spaces

Fiori, Andrew January 2009 (has links)
The theory of complex multiplication has been a powerful tool for studying various aspects of classical modular forms along with their generalizations. With the recent work of Borcherds there has been an increase in the interest in studying modular forms on orthogonal groups of signature (2,n) as well as the spaces on which they live. In this thesis, we study the special points (or CM-points) that exist on these spaces. We develop cohomological classifications relating the special points, their associated CM-fields and the spaces in which these points can be found. / La théorie de la multiplication complexe nous donnent des outils puissants pour étudier des aspects divers des formes modulaires classiques, ainsi que leurs généralisations. Les travaux récents de Borcherds donne une nouvelle motivation pour étudier les formes modulaires sur des groupes orthogonaux de signature (2,n), ainsi que les espaces sur lesquels elles agissent. Dans cette thèse, nous étudierons les points spéciaux (ou points-CM) qui existent dans ces espaces. Nous développerons des classifications cohomologiques concernant les points spéciaux, les corps-CM associés et les espaces dans lesquels ces points peuvent être trouvées.
139

Isoviscosity Curves In The Analysis Of The Pressure--Temperature Dependence Of Liquid Viscosity.

King, Gayle Nathaniel 01 January 1977 (has links)
The temperature and pressure dependence of liquid viscosity has been extensively discussed in the chemistry, physics, and engineering literature for over half a century. Thus far, theoretical ab initio calculations of temperature and pressure effects on viscosity have been unsuccessful. Therefore there have been numerous attempts to relate fundamental properties of liquid state models with experimental viscosity, temperature, pressure, and density (η,T, P, ρ) data. This work has resulted in many semi-empirical equations expressing η as functions of temperature, pressure, volume, density, chain length, molecular weight, degrees of freedom, etc.
140

The Binary Halides Of Molybdenum(IV) And Tungsten(IV) And The Oxochlorides Of Tungsten(VI)

Epperson, Edward Roy 01 January 1965 (has links)
It was the purpose of this study to investigate the reaction of molybdenum and tungsten dioxides with carbon tetrachloride and bromoform (via the method of Knox and Tyree) to produce anhydrous molybdenum and tungsten tetrachlorides and bromides and to determine whether the method is a reliable one for the synthesis of these compounds. Out of this grew an investigation into the preparation of the oxochlorides of tungsten(VI) using the same preparative technique. The results of this study are here set forth. An attempt is made to systematize the published material on the synthesis and properties of the binary halides of molybdenum(IV) and tungsten(IV) and the oxochlorides of tungsten(VI). Extensive calculations have been carried out by A. Glassner in 1957 and L. Brewer and co-workers in 1950 on the estimation of thermochemical and thermodynamic data for the tetrahalides of molybdenum and tungsten. These data are in general based on analogy with compounds of neighboring elements in the Periodic Table. Even though these values are subject to uncertainty, they are included here for comparative purposes.

Page generated in 0.0856 seconds