• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 404
  • 189
  • 85
  • 72
  • 53
  • 27
  • 21
  • 12
  • 10
  • 8
  • 7
  • 6
  • 6
  • 6
  • 4
  • Tagged with
  • 1074
  • 169
  • 108
  • 97
  • 96
  • 91
  • 80
  • 80
  • 75
  • 72
  • 70
  • 69
  • 63
  • 63
  • 63
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

The nonparametric least-squares method for estimating monotone functions with interval-censored observations

Cheng, Gang 01 May 2012 (has links)
Monotone function, such as growth function and cumulative distribution function, is often a study of interest in statistical literature. In this dissertation, we propose a nonparametric least-squares method for estimating monotone functions induced from stochastic processes in which the starting time of the process is subject to interval censoring. We apply this method to estimate the mean function of tumor growth with the data from either animal experiments or tumor screening programs to investigate tumor progression. In this type of application, the tumor onset time is observed within an interval. The proposed method can also be used to estimate the cumulative distribution function of the elapsed time between two related events in human immunodeficiency virus (HIV)/acquired immunodeficiency syndrome (AIDS) studies, such as HIV transmission time between two partners and AIDS incubation time from HIV infection to AIDS onset. In these applications, both the initial event and the subsequent event are only known to occur within some intervals. Such data are called doubly interval-censored data. The common property of these stochastic processes is that the starting time of the process is subject to interval censoring. A unified two-step nonparametric estimation procedure is proposed for these problems. In the first step of this method, the nonparametric maximum likelihood estimate (NPMLE) of the cumulative distribution function for the starting time of the stochastic process is estimated with the framework of interval-censored data. In the second step, a specially designed least-squares objective function is constructed with the above NPMLE plugged in and the nonparametric least-squares estimate (NPLSE) of the mean function of tumor growth or the cumulative distribution function of the elapsed time is obtained by minimizing the aforementioned objective function. The theory of modern empirical process is applied to prove the consistency of the proposed NPLSE. Simulation studies are extensively carried out to provide numerical evidence for the validity of the NPLSE. The proposed estimation method is applied to two real scientific applications. For the first application, California Partners' Study, we estimate the distribution function of HIV transmission time between two partners. In the second application, the NPLSEs of the mean functions of tumor growth are estimated for tumors with different stages at diagnosis based on the data from a cancer surveillance program, the SEER program. An ad-hoc nonparametric statistic is designed to test the difference between two monotone functions under this context. In this dissertation, we also propose a numerical algorithm, the projected Newton-Raphson algorithm, to compute the non– and semi-parametric estimate for the M-estimation problems subject to linear equality or inequality constraints. By combining the Newton-Raphson algorithm and the dual method for strictly convex quadratic programming, the projected Newton-Raphson algorithm shows the desired convergence rate. Compared to the well-known iterative convex minorant algorithm, the projected Newton-Raphson algorithm achieves much quicker convergence when computing the non- and semi-parametric maximum likelihood estimate of panel count data.
82

Improvement of the predictive character of test results issued from analytical methods life cycle / Amélioration du caractère prédictif des résultats associés au cycle de vie des méthodes analytiques

Rozet, Eric 29 April 2008 (has links)
Les résultats issus des méthodes analytiques ont un rôle essentiel dans de nombreux domaines suite aux décisions qui sont prises sur leur base telles que la détermination de la qualité des principes actifs, des spécialités pharmaceutiques, des nutriments ou autres échantillons tels que ceux dorigine biologique impliqués dans les études pharmacocinétiques ou de biodisponibilité et bioéquivalence. La fiabilité des résultats analytiques est primordiale dans ce contexte et surtout ils doivent être en accord avec les besoins des utilisateurs finaux. Pour sassurer de la fiabilité des résultats qui seront fournis lors des analyses de routine, la validation des méthodes analytiques est un élément crucial du cycle de vie dune méthode analytique. Par ailleurs, bien souvent une méthode analytique nest pas uniquement employée dans le laboratoire qui la développée et validée, elle est régulièrement transférée vers un autre laboratoire, comme par exemple lors du passage dun laboratoire de recherche et développement vers un laboratoire de contrôle qualité ou, vers ou depuis un sous-traitant. Le transfert de cette méthode doit permettre de garantir la fiabilité des résultats qui seront fournis par ces laboratoires receveurs. Ce sont en effet eux qui utiliseront la méthode analytique en question ultérieurement. Cest dans ce contexte que se situe notre thèse. Son objectif principal est daméliorer la fiabilité des décisions prises au moyen des résultats obtenus par des méthodes analytiques quantitatives lors de ces deux étapes de leur cycle de vie. Pour atteindre cet objectif, nous avons dune part reprécisé lobjectif de toute méthode analytique quantitative et de sa validation. Ensuite, une revue des textes réglementaires de lindustrie pharmaceutique relatifs à la validation des méthodes a été faite, dégageant les erreurs et confusions incluses dans ces documents et en particulier leurs implications pratiques lors de lévaluation de la validité dune méthode. Compte tenu de ces constatations, une nouvelle approche pour évaluer la validité des méthodes analytiques quantitatives a été proposée et détaillées dun point de vue statistique. Elle se base sur lutilisation dune méthodologie statistique utilisant un intervalle de tolérance de type « β-expectation » qui a été transposée en un outil de décision final appelé profil dexactitude. Ce profil permet de garantir quune proportion définie des futurs résultats qui seront fournis par la méthode lors de son utilisation en routine sera bien inclue dans des limites dacceptation fixées a priori en fonction des besoins des utilisateurs. De cette manière lobjectif de la validation est parfaitement cohérant avec celui de toute méthode quantitative : obtenir des résultats exactes. Cette approche de validation a été appliquée avec succès a différents types de méthodes analytiques comme la chromatographie liquide, lélectrophorèse capillaire, la spectrophotométrie UV ou proche infra-rouge, aussi bien pour le dosage danalyte dans des matrices issues de la production de médicaments (formulations pharmaceutiques) que dans des matrices plus complexes comme les fluides biologiques (plasma, urine). Ceci démontre le caractère universel du profil dexactitude pour statuer sur la validité dune méthode. Ensuite, et afin daugmenter lobjectivité de cet outil de décision, nous avons introduit des indexes de désirabilité articulés autour de critères de validation à savoir les indexes de justesse, de fidélité, dintervalle de dosage et dexactitude. Ce dernier constitue un indexe de désirabilité global qui correspond à la moyenne géométrique des trois autres indexes. Ces différents indexes permettent de comparer et classer les profils dexactitude obtenus en phase de validation et ainsi de choisir celui qui correspond le mieux à lobjectif de la méthode, et ce de manière plus objective. Enfin, nous avons pour la première fois démontré le caractère prédictif du profil dexactitude en vérifiant que la proportion de résultats inclue dans les limites dacceptation prédite lors de létape de validation létait effectivement bien lors de lapplication en routine des diverse méthodes de dosage. Contrairement à létape de validation, le transfert de méthode analytique dun laboratoire émetteur qui a validé la méthode vers un laboratoire receveur qui utilisera la méthode en routine, est une étape qui ne bénéficie daucun texte normatif. La seule exigence réglementaire est de documenter le transfert. Dès lors toutes les approches sont possibles. Toutefois celles que lon rencontre le plus souvent ne répondent pas à lobjectif du transfert, à savoir garantir que les résultats obtenus par le laboratoire receveur seront exactes et donc fiables. Dès lors, nous avons développé une approche originale qui permet de statuer de manière appropriée quant à lacceptabilité du transfert. Cette approche basée sur le concept de lerreur totale, utilise également comme méthodologie statistique lintervalle de tolérance et tient compte simultanément de lincertitude sur lestimation de la vraie valeur fournie par le laboratoire émetteur. En effet, un intervalle de tolérance de type « β-expectation » est calculé avec les résultats du receveur puis, comparé à des limites dacceptation autour de la vraie valeur et ajustées en fonction de lincertitude associée à cette valeur de référence. Dautre part, des simulations statistiques ont permis de montrer le gain dans la gestion des risques associés à un transfert à savoir rejeter un transfert acceptable et accepter un transfert qui ne lest pas. Enfin, ladéquation et lapplicabilité de cette nouvelle approche ont été démontrées par le transfert dune méthode dédiée au contrôle de qualité dune formulation pharmaceutique et de deux méthodes bio-analytiques. Les améliorations de la qualité prédictive des méthodologies proposées pour évaluer la validité et le transfert de méthodes analytiques quantitatives permettent ainsi daugmenter la fiabilité des résultats générés par ces méthodes et par conséquent daccroître la confiance dans les décisions critiques qui en découleront.
83

Interval Neutrosophic Sets and Logic: Theory and Applications in Computing

Wang, Haibin 12 January 2006 (has links)
A neutrosophic set is a part of neutrosophy that studies the origin, nature, and scope of neutralities, as well as their interactions with different ideational spectra. The neutrosophic set is a powerful general formal framework that has been recently proposed. However, the neutrosophic set needs to be specified from a technical point of view. Here, we define the set-theoretic operators on an instance of a neutrosophic set, and call it an Interval Neutrosophic Set (INS). We prove various properties of INS, which are connected to operations and relations over INS. We also introduce a new logic system based on interval neutrosophic sets. We study the interval neutrosophic propositional calculus and interval neutrosophic predicate calculus. We also create a neutrosophic logic inference system based on interval neutrosophic logic. Under the framework of the interval neutrosophic set, we propose a data model based on the special case of the interval neutrosophic sets called Neutrosophic Data Model. This data model is the extension of fuzzy data model and paraconsistent data model. We generalize the set-theoretic operators and relation-theoretic operators of fuzzy relations and paraconsistent relations to neutrosophic relations. We propose the generalized SQL query constructs and tuple-relational calculus for Neutrosophic Data Model. We also design an architecture of Semantic Web Services agent based on the interval neutrosophic logic and do the simulation study.
84

Interval finite element analysis for load pattern and load combination

Saxena, Vishal 01 December 2003 (has links)
No description available.
85

Generalized rank tests for univariate and bivariate interval-censored failure time data

Sun, De-Yu 20 June 2003 (has links)
In Part 1 of this paper, we adapt Turnbull¡¦s algorithm to estimate the distribution function of univariate interval-censored and truncated failure time data. We also propose four non-parametric tests to test whether two groups of the data come from the same distribution. The powers of proposed test statistics are compared by simulation under different distributions. The proposed tests are then used to analyze an AIDS study. In Part 2, for bivariate interval-censored data, we propose some models of how to generate the data and several methods to measure the correlation between the two variates. We also propose several nonparametric tests to determine whether the two variates are mutually independent or whether they have the same distribution. We demonstrate the performance of these tests by simulation and give an application to AIDS study¡]ACTG 181¡^.
86

Interval Timing Under a Behavioral Microscope: Dissociating Motivational and Timing Processes in Fixed-Interval Performance

January 2015 (has links)
abstract: Theories of interval timing have largely focused on accounting for the aggregate properties of behavior engendered by periodic reinforcement, such as sigmoidal psychophysical functions and their scalar property. Many theories of timing also stipulate that timing and motivation are inseparable processes. Such a claim is challenged by fluctuations in and out of states of schedule control, making it unclear whether motivation directly affects states related to timing. The present paper seeks to advance our understanding of timing performance by analyzing and comparing the distribution of latencies and inter-response times (IRTs) of rats in two fixed-interval (FI) schedules of food reinforcement (FI 30-s and FI 90-s), and in two levels of food deprivation. Computational modeling revealed that each component was well described by mixture probability distributions embodying two-state Markov chains. Analysis of these models revealed that only a subset of latencies are sensitive to the periodicity of reinforcement, and pre-feeding only reduces the size of this subset. The distribution of IRTs suggests that behavior in FI schedules is organized in bouts that lengthen and ramp up in frequency with proximity to reinforcement. Pre-feeding slowed down the lengthening of bouts and increased the time between bouts. When concatenated, these models adequately reproduced sigmoidal FI response functions. These findings suggest that behavior in FI fluctuates in and out of schedule control; an account of such fluctuation suggests that timing and motivation are dissociable components of FI performance. These mixture-distribution models also provide novel insights on the motivational, associative, and timing processes expressed in FI performance, which need to be accounted for by causal theories of interval timing. / Dissertation/Thesis / Masters Thesis Psychology 2015
87

Regressão linear com medidas censuradas / Linear regression with censored data

Marcel Frederico de Lima Taga 07 November 2008 (has links)
Consideramos um modelo de regressão linear simples, em que tanto a variável resposta como a independente estão sujeitas a censura intervalar. Como motivação utilizamos um estudo em que o objetivo é avaliar a possibilidade de previsão dos resultados de um exame audiológico comportamental a partir dos resultados de um exame audiológico eletrofisiológico. Calculamos intervalos de previsão para a variável resposta, analisamos o comportamento dos estimadores de máxima verossimilhança obtidos sob o modelo proposto e comparamos seu desempenho com aquele de estimadores obtidos de um modelo de regressão linear simples usual, no qual a censura dos dados é desconsiderada. / We consider a simple linear regression model in which both variables are interval censored. To motivate the problem we use data from an audiometric study designed to evaluate the possibility of prediction of behavioral thresholds from physiological thresholds. We develop prediction intervals for the response variable, obtain the maximum likelihood estimators of the proposed model and compare their performance with that of estimators obtained under ordinary linear regression models.
88

Zpracování elektrokardiografických signálů / Processing of electrocardiograms

Princ, Martin January 2010 (has links)
This work concerns with problems of the QT sequences detection in ECG signal. The first part introduces electrophysiology of heart and his electrical manifestation. For main detection were used two algorithms, which were afterwards modified and programmed in Matlab. The work includes developed custom applications for measurement and evaluation of the length of QT interval. The final lengths of the QT interval, which we got from this two methods, were compared with reference length.
89

Speicher- und Zeitbedarf von Methoden der Isoflächen-Extraktion

Tölke, Jürgen, Saupe, Dietmar 18 October 2018 (has links)
Isoflaechen-Extraktion dient der Erzeugung von Flaechen gleicher Werte einer gegebenen Funktion f. Dabei ist f auf den Punkten eines regelmaessigen Gitters gegeben, zwischen denen die gesuchte Isoflaeche verlaeuft. Es existieren schon Arbeiten zu diesem Thema, die das Problem der Isoflaechen-Extraktion mit wenig Speicherbedarf langsam (Brute-Force-Methode, kleinere adaptive Zerlegungsbaeume), oder unter grossem Speicheraufwand sehr schnell loesen (k-d-Trees, Intervallbaeume). Diese haben aber den Nachteil, dass der Speicherbedarf von vornherein festgelegt ist. Die Conditioned-Tree-Methode laesst sich durch Einstellung eines Parameters an jeden Computer anpassen, so dass sie seinen Hauptspeicher zugunsten der Geschwindigkeit der Isoflaechen-Extraktion optimal ausschoepft.
90

Idiopathic Polymorphic Ventricular Tachycardia With Normal QT Interval in a Structurally Normal Heart

Mechleb, Bassam, Haddadin, Tariq Z., Iskandar, Said B., Abboud, Lucien N., Fahrig, Stephen A. 01 July 2006 (has links)
Polymorphic ventricular tachycardia (PVT) is a life-threatening arrhythmia that is typically related to long QT syndrome, organic heart disease, electrolyte abnormalities, cardiotoxic drugs, or adrenergic stimulation. A review of the literature reveals that PVT with normal QT interval and without underlying cause is quite rare. We report a case of idiopathic spontaneous PVT with structurally normal heart and without electrolyte abnormalities, drug reactions, or evidence of catecholamine induced arrhythmia. We also review the literature on the electrocardiographic characteristics and management of idiopathic PVT.

Page generated in 0.0759 seconds