• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 5
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Parallel Computing in Statistical-Validation of Clustering Algorithm for the Analysis of High throughput Data

Atlas, Mourad 12 May 2005 (has links)
Currently, clustering applications use classical methods to partition a set of data (or objects) in a set of meaningful sub-classes, called clusters. A cluster is therefore a collection of objects which are “similar” among them, thus can be treated collectively as one group, and are “dissimilar” to the objects belonging to other clusters. However, there are a number of problems with clustering. Among them, as mentioned in [Datta03], dealing with large number of dimensions and large number of data items can be problematic because of computational time. In this thesis, we investigate all clustering algorithms used in [Datta03] and we present a parallel solution to minimize the computational time. We apply parallel programming techniques to the statistical algorithms as a natural extension to sequential programming technique using R. The proposed parallel model has been tested on a high throughput dataset. It is microarray data on the transcriptional profile during sporulation in budding yeast. It contains more than 6,000 genes. Our evaluation includes clustering algorithm scalability pertaining to datasets with varying dimensions, the speedup factor, and the efficiency of the parallel model over the sequential implementation. Our experiments show that the gene expression data follow the pattern predicted in [Datta03] that is Diana appears to be solid performer also the group means for each cluster coincides with that in [Datta03]. We show that our parallel model is applicable to the clustering algorithms and more useful in applications that deal with high throughput data, such as gene expression data.
2

Validity of a Brief Self-Rating Visual Analogue Pain Questionnaire

Cuencas, Ramon 05 1900 (has links)
It is believed by many researchers that little attention has been given to patients' perceptions of the impact of chronic pain on their lives. In recognition of this need, G. Frank Lawlis, C. Edward McCoy, and David K. Selby developed the Dallas Pain Questionnaire (DPQ) to assess the amount of chronic pain that affects four aspects (daily activities, work-leisure activities, anxiety-depression, and social interest) of the patients' lives. The present study, conducted to validate the DPQ's statistical properties, first reviews the literature addressing the various theories and varieties of pain, its opiates, and the two current approaches to quantify pain. This study included a total of 143 subjects. Clinical subjects were 104 inpatients in the Spinal and Chronic Pain Center at Medical Arts Hospital and 15 chronic pain outpatients released to work. Normal subjects consisted of staffing personnel (n = 13) and flight assistance employees (U = 11)- Both clinical and normal groups completed the DPQ. The Minnesota Multiphasic Personality Inventory (MMPI) was administered only to the clinical population. Results suggest that the DPQ is both externally reliable (stability reliability coefficient of .970) as well as an internally consistent instrument. Two factors emerged from factor structure analysis. Factor one (63.2% of variance) represents functional activities. Factor two (8.3% of variance) represents emotional capacities. A correlation analysis suggests the concurrent validity of the psychological and functional factors of the DPQ. A t-test demonstrated that chronic pain patients have significantly higher DPQ's scores than normals. Because these findings support its psychometric properties, the DPQ appears to have utility for clinical and research purposes. The findings, limitations, and implications of this study are detailed, as are suggestions for future research.
3

Statistical Stability and Biological Validity of Clustering Algorithms for Analyzing Microarray Data

Karmakar, Saurav 08 August 2005 (has links)
Simultaneous measurement of the expression levels of thousands to ten thousand genes in multiple tissue types is a result of advancement in microarray technology. These expression levels provide clues about the gene functions and that have enabled better diagnosis and treatment of serious disease like cancer. To solve the mystery of unknown gene functions, biological to statistical mapping is needed in terms of classifying the genes. Here we introduce a novel approach of combining both statistical consistency and biological relevance of the clusters produced by a clustering method. Here we employ two performance measures in combination for measuring statistical stability and functional similarity of the cluster members using a set of gene expressions with known biological functions. Through this analysis we construct a platform to predict about unknown gene functions using the outperforming clustering algorithm.
4

Statistical Stability and Biological Validity of Clustering Algorithms for Analyzing Microarray Data

Karmakar, Saurav 08 August 2005 (has links)
Simultaneous measurement of the expression levels of thousands to ten thousand genes in multiple tissue types is a result of advancement in microarray technology. These expression levels provide clues about the gene functions and that have enabled better diagnosis and treatment of serious disease like cancer. To solve the mystery of unknown gene functions, biological to statistical mapping is needed in terms of classifying the genes. Here we introduce a novel approach of combining both statistical consistency and biological relevance of the clusters produced by a clustering method. Here we employ two performance measures in combination for measuring statistical stability and functional similarity of the cluster members using a set of gene expressions with known biological functions. Through this analysis we construct a platform to predict about unknown gene functions using the outperforming clustering algorithm.
5

On Incentives affecting Risk and Asset Management of Power Distribution

Wallnerström, Carl Johan January 2011 (has links)
The introduction of performance based tariff regulations along with higher media and political pressure have increased the need for well-performed risk and asset management applied to electric power distribution systems (DS), which is an infrastructure considered as a natural monopoly. Compared to other technical systems, DS have special characteristics which are important to consider. The Swedish regulation of DS tariffs between 1996 and 2012 is described together with complementary laws such as customer compensation for long outages. The regulator’s rule is to provide incentives for cost efficient operation with acceptable reliability and reasonable tariff levels. Another difficult task for the regulator is to settle the complexity, i.e. the balance between considering many details and the manageability. Two performed studies of the former regulatory model, included in this thesis, were part of the criticism that led to its fall. Furthermore, based on results from a project included here, initiated by the regulator to review a model to judge effectible costs, the regulator changed some initial plans concerning the upcoming regulation.   A classification of the risk management divided into separate categories is proposed partly based on a study investigating investment planning and risk management at a distribution system operator (DSO). A vulnerability analysis method using quantitative reliability analyses is introduced aimed to indicate how available resources could be better utilized and to evaluate whether additional security should be deployed for certain forecasted events. To evaluate the method, an application study has been performed based on hourly weather measurements and detailed failure reports over eight years for two DS. Months, weekdays and hours have been compared and the vulnerability of several weather phenomena has been evaluated. Of the weather phenomena studied, heavy snowfall and strong winds significantly affect the reliability, while frost, rain and snow depth have low or no impact. The main conclusion is that there is a need to implement new, more advanced, analysis methods. The thesis also provides a statistical validation method and introduces a new category of reliability indices, RT. / Distribution av elektricitet är att betrakta som ett naturligt monopol och är med stor sannolikhet det moderna samhällets viktigaste infrastruktur – och dess betydelse förutspås öka ytterligare i takt med implementering av teknik ämnad att minska mänsklighetens klimatpåverkan. I Sverige finns det fler än 150 elnätsbolag, vilka är av varierande storleksordning och med helt olika ägarstrukturer. Tidigare var handel med elektricitet integrerat i elnätsbolagens verksamhet, men 1996 avreglerades denna; infrastruktur för överföring separerades från produktion och handel. Införandet av kvalitetsreglering av elnätstariffer under början av 2000-talet och hårdare lagar om bland annat kundavbrottsersättning samt politiskt- och medialt tryck har givit incitament till kostnadseffektivitet med bibehållen god leveranskvalitet. En viktig aspekt är att eldistribution har, jämfört med andra infrastrukturer, flera speciella egenskaper som måste beaktas, vilket beskrives i avhandlingens första del tillsammans med introduktion av risk- och tillförlitlighetsteori samt ekonomisk teori.  Två studier som kan ha bidragit till den förra regleringens fall och en studie vars resultat ändrat reglermyndighetens initiala idé avseende modell för att beräkna påverkbara kostnader i kommande förhandsreglering från 2012 är inkluderade.   Av staten utsedd myndighet övervakar att kunder erbjudes elnätsanslutning och att tjänsten uppfyller kvalitetskrav samt att tariffnivåerna är skäliga och icke diskriminerande. Traditionellt har elnätsföretag mer eller mindre haft tillåtelse till intäkter motsvarande samtliga omkostnader och skälig vinst, så kallad självkostnadsprissättning. Under slutet av 1990-talet började ansvarig myndighet emellertid arbeta mot en reglering av intäktsram som även beaktar kostnadseffektivitet och kundkvalitet. Vid utformande av en sådan reglering måste svåra avvägningar göras. Exempelvis bör elnätsföretags objektiva förutsättningar, såsom terräng och kunder, tas i beaktning samtidigt som modellen bör vara lätthanterlig och konsekvent. Myndigheten ansåg ingen existerande reglermodell vara lämplig att anpassa till svenska förhållanden, så en ny modell utvecklades: Nätnyttomodellen (NNM). För 2003 års tariffer användes denna och beslut om krav på återbetalning till berörda elnätskunder togs, vilka överklagades. En utdragen juridisk process inleddes, där modellen kritiserades hårt av branschen på flera punkter. Två, i avhandlingen inkluderade studier, underbyggde kritisk argumentation mot NNM. Beslut i första instans (Länsrätt) hade inte tagits 2008 då parterna kom överens avseende år 2003-2007. Ett EU-direktiv tvingar Sverige att gå över till förhandsreglering, och i stället för att modifiera NNM och fortsätta strida juridiskt för den, togs beslut att ta fram en helt ny modell. Nätföretagens tillåtna intäktsram kommer förenklat grunda sig på elnätsföretagens kapitalkostnader och löpande kostnader. Därtill, utifrån hur effektivt och med vilken kvalitet nätföretagen bedrivit sin verksamhet, kan tillåten intäktsram justeras.   En systematisk beskrivning av ett elnätsföretags nuvarande riskhantering och investeringsstrategier för olika spänningsnivåer tillhandahålles med syfte att stödja elnätsföretag i utvecklandet av riskhantering och att ge akademiskt referensmaterial baserat på branscherfarenhet. En klassificering av riskhantering uppdelat i olika kategorier och en sårbarhetsanalysmetod samt en ny tillförlitlighetsindexkategori (RT) föreslås i avhandlingen, delvis baserat på genomförd studie. Sårbarhetsanalysens övergripande idé är att identifiera och utvärdera möjliga systemtillstånd med hjälp av kvantitativa tillförlitlighetsanalyser. Målet är att detta skall vara ett verktyg för att nyttja tillgängliga resurser effektivare, t.ex. förebyggande underhåll och semesterplanering samt för att bedöma om förebyggande åtgärder baserat på väderprognoser vore lämpligt. RT är en flexibel kategori av mått på sannolikhet för kundavbrott ≥T timmar, vilket exempelvis är användbart för analys av kundavbrottsersättningslagars påverkan; sådana har exempelvis införts i Sverige och UK under 2000-talet. En statistisk valideringsmetod av tillförlitlighetsindex har tagits fram för att uppskatta statistisk osäkerhet som funktion av antal mätdata ett tillförlitlighetsindexvärde är baseras på.   För att utvärdera introducerad sårbarhetsanalysmetod har en studie utförts baserat på timvisa väderdata och detaljerad avbrottsstatistik avseende åtta år för två olika eldistributionsnät i Sverige. Månader, veckodagar och timmar har jämförts vars resultat exempelvis kan användas för fördelning av resurser mer effektivt över tid. Sårbarhet med avseende på olika väderfenomen har utvärderats. Av de studerade väderfenomen är det blott ymnigt snöfall och hårda vindar, särskilt i kombination, som signifikant påverkar eldistributionssystems tillförlitlighet. Andra studier har visat på sårbarhet även för blixtnedslag (som ej fanns med som parameter i avhandlingen inkluderad studie). Temperatur (t.ex. inverkan av frost), regn och snödjup har således försumbar påverkan. Korrelationsstudier har utförts vilket bland annat visar på ett nästan linjärt samband i Sverige mellan temperatur och elförbrukning, vilket indirekt indikerar att även elförbrukning har försumbar påverkan på leveranskvalitet. Slutligen föreslås ett analysramverk som introducerad sårbarhetsanalys skulle vara en del av. Övergripande idé presenteras, vilket främst skall inspirera för fortsatt arbete; emellertid bör påpekas att introducerad sårbarhetsanalysmetod är en självständig och färdig metod oavsett om föreslagna idéer genomföres eller ej. / QC 20110815

Page generated in 0.1575 seconds