• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 600
  • 210
  • 136
  • 54
  • 52
  • 41
  • 20
  • 19
  • 16
  • 16
  • 8
  • 7
  • 7
  • 6
  • 6
  • Tagged with
  • 1466
  • 135
  • 133
  • 107
  • 102
  • 99
  • 95
  • 82
  • 82
  • 80
  • 76
  • 72
  • 72
  • 71
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Evaluating the effect of life cycle cost forecasting accuracy on mining project valuations / Stefanus Hendrik Jansen van Vuuren

Van Vuuren, Stefanus Hendrik Jansen January 2013 (has links)
The study was conducted to establish what effect life cycle cost forecasting accuracy has on project valuations with special reference to a global mining organisation’s coal business unit in South Africa. The research stemmed from the fact that the organisation identified through its own research in 2009 that its capital projects rarely met the originally budgeted life cycle cost forecasts estimated during the project development stages. These forecasts were generally found to be underestimated. Overrunning of cost budgets in project management terms results in project failure. The study employed two main empirical research sections. The first section took a case study approach where past implemented project results were collated and analysed. The main aim was to determine how close to reality the original life cycle cost estimates were, and secondly how any variances to the originally budgeted costs impacted on the anticipated project value post implementation. Secondly, the study employed in-depth interviews with seven project specialists within the organisation that were also involved in the development stages of the investigated projects. The study concluded that life cycle cost forecasts are very important project business case inputs and that the necessary time and effort should go into developing them so as to ensure that they are as comprehensive and accurate as possible. The sensitivity analysis that was conducted revealed that a coal mining project business case is the second most sensitive to variations in life cycle costs after variations in commodity price. The results indicated that a 20% increase in life cycle costs can destroy an equivalent project value of up to 100%. Accurate life cycle cost forecasting is therefore essential in order to estimate to a certain degree of accuracy the value of a project which in turn will be used to inform capital investment decision making. / MBA, North-West University, Potchefstroom Campus, 2014
282

Genomic selection in farm animals: accuracy of prediction and applications with imputed whole-genome sequencing data in chicken

Ni, Guiyan 10 February 2016 (has links)
Methoden zur genomischen Vorhersage basierend auf Genotypinformationen von Single Nucleotide Polymorphism (SNP)-Arrays mit unterschiedlicher Markeranzahl sind mittlerweile in vielen Zuchtprogrammen für Nutztiere fest implementiert. Mit der zunehmenden Verfügbarkeit von vollständigen Genomsequenzdaten, die auch kausale Mutationen enthalten, werden mehr und mehr Studien veröffentlicht, bei denen genomische Vorhersagen beruhend auf Sequenzdaten durchgeführt werden. Das Hauptziel dieser Arbeit war zu untersuchen, inwieweit SNP-Array-Daten mit statistischen Verfahren bis zum Sequenzlevel ergänzt werden können (sogenanntes „Imputing“) (Kapitel 2) und ob die genomische Vorhersage mit imputeten Sequenzdaten und zusätzlicher Information über die genetische Architektur eines Merkmals verbessert werden kann (Kapitel 3). Um die Genauigkeit der genomischen Vorhersage besser verstehen und eine neue Methode zur Approximation dieser Genauigkeit ableiten zu können, wurde außerdem eine Simulationsstudie durchgeführt, die den Grad der Überschätzung der Genauigkeit der genomischen Vorhersage verschiedener bereits bekannter Ansätze überprüfte (Kapitel 4). Der technische Fortschritt im letzten Jahrzehnt hat es ermöglicht, in relativ kurzer Zeit Millionen von DNA-Abschnitten zu sequenzieren. Mehrere auf unterschiedlichen Algorithmen basierende Software-Programme zur Auffindung von Sequenzvarianten (sogenanntes „Variant Calling“) haben sich etabliert und es möglich gemacht, SNPs in den vollständigen Genomsequenzdaten zu detektieren detektieren. Oft werden nur wenige Individuen einer Population vollständig sequenziert und die Genotypen der anderen Individuen, die mit einem SNP-Array an einer Teilmenge dieser SNPs typisiert wurden, imputet. In Kapitel 2 wurden deshalb anhand von 50 vollständig sequenzierten Weiß- und Braunleger-Individuen die mit drei unterschiedlichen Variant-Calling-Programmen (GATK, freebayes and SAMtools) detektierten Genomvarianten verglichen und die Qualität der Genotypen überprüft. Auf den untersuchten Chromosomen 3,6 und 26 wurden 1.741.573 SNPs von allen drei Variant Callers detektiert was 71,6% (81,6%, 88,0%) der Anzahl der von GATK (SAMtools, freebayes) detektierten Varianten entspricht. Die Kenngröße der Konkordanz der Genotypen („genotype concordance“), die durch den Anteil der Individuen definiert ist, deren Array-basierte Genotypen mit den Sequenz-basierten Genotypen an allen auch auf dem Array vorhandenen SNPs übereinstimmt, betrug 0,98 mit GATK, 0,98 mit SAMtools und 0,97 mit freebayes (Werte gemittelt über SNPs auf den untersuchten Chromosomen). Des Weiteren wiesen bei Nutzung von GATK (SAMtools, freebayes) 90% (88 %, 75%) der Varianten hohe Werte (>0.9) anderer Qualitätsmaße (non-reference sensitivity, non-reference genotype concordance und precision) auf. Die Leistung aller untersuchten Variant-Calling-Programme war im Allgemeinen sehr gut, besonders die von GATK und SAMtools. In dieser Studie wurde außerdem in einem Datensatz von ungefähr 1000 Individuen aus 6 Generationen die Güte des Imputings von einem hochdichten SNP-Array zum Sequenzlevel untersucht. Die Güte des Imputings wurde mit Hilfe der Korrelationen zwischen imputeten und wahren Genotypen pro SNP oder pro Individuum und der Anzahl an Mendelschen Konflikten bei Vater-Nachkommen-Paaren beschrieben. Drei unterschiedliche Imputing-Programme (Minimac, FImpute und IMPUTE2) wurden in unterschiedlichen Szenarien validiert. Bei allen Imputing-Programmen betrug die Korrelation zwischen wahren und imputeten Genotypen bei 1000 Array-SNPs, die zufällig ausgewählt und deren Genotypen im Imputing-Prozess als unbekannt angenommen wurden, durchschnittlich mehr als 0.95 sowie mehr als 0.85 bei einer Leave-One-Out-Kreuzvalidierung, die mit den sequenzierten Individuen durchgeführt wurde. Hinsichtlich der Genotypenkorrelation zeigten Minimac und IMPUTE2 etwas bessere Ergebnisse als FImpute. Dies galt besonders für SNPs mit niedriger Frequenz des selteneren Allels. FImpute wies jedoch die kleinste Anzahl von Mendelschen Konflikten in verfügbaren Vater-Nachkommen-Paaren auf. Die Korrelation zwischen wahren und imputeten Genotypen blieb auf hohem Niveau, auch wenn die Individuen, deren Genotypen imputet wurden, einige Generationen jünger waren als die sequenzierten Individuen. Zusammenfassend zeigte in dieser Studie GATK die beste Leistung unter den getesteten Variant-Calling-Programmen, während Minimac sich unter den untersuchten Imputing-Programmen als das beste erwies. Aufbauend auf den Ergebnissen aus Kapitel 2 wurden in Kapitel 3 Studien zur genomischen Vorhersage mit imputeten Sequenzdaten durchgeführt. Daten von 892 Individuen aus 6 Generationen einer kommerziellen Braunlegerlinie standen hierfür zur Verfügung. Diese Tiere waren alle mit einem hochdichten SNP-Array genotypisiert. Unter der Nutzung der Daten von 25 vollständig sequenzierten Individuen wurden jene Tiere ausgehend von den Array-Genotypen bis zum Sequenzlevel hin imputet. Das Imputing wurde mit Minimac3 durchgeführt, das bereits haplotypisierte Daten (in dieser Studie mit Beagle4 erzeugt) als Input benötigt. Die Genauigkeit der genomischen Vorhersage wurde durch die Korrelation zwischen de-regressierten konventionellen Zuchtwerten und direkt genomischen Zuchtwerten für die Merkmale Bruchfestigkeit, Futteraufnahme und Legerate gemessen. Neben dem Vergleich der Genauigkeit der auf SNP-Array-Daten und Sequenzdaten basierenden genomischen Vorhersage wurde in dieser Studie auch untersucht, wie sich die Verwendung verschiedener genomischer Verwandtschaftsmatrizen, die die genetische Architektur berücksichtigen, auf die Vorhersagegenauigkeit auswirkt. Hierbei wurden neben dem Basisszenario mit gleichgewichteten SNPs auch Szenarien mit Gewichtungsfaktoren, nämlich den -(〖log〗_10 P)-Werten eines t-Tests basierend auf einer genomweiten Assoziationsstudie und den quadrierten geschätzten SNP-Effekten aus einem Random Regression-BLUP-Modell, sowie die Methode BLUP|GA („best linear unbiased prediction given genetic architecture“) überprüft. Das Szenario GBLUP mit gleichgewichteten SNPs wurde sowohl mit einer Verwandtschaftsmatrix aus allen verfügbaren SNPs oder nur derer in Genregionen, jeweils ausgehend von der Grundmenge aller imputeten SNPs in der Sequenz oder der Array-SNPs, getestet. Gemittelt über alle untersuchten Merkmale war die Vorhersagegenauigkeit mit SNPs aus Genregionen, die aus den imputeten Sequenzdaten extrahiert wurden, mit 0,366 ± 0,075 am höchsten. Den zweithöchsten Wert erreichte die genomische Vorhersage mit SNPs aus Genregionen, die im SNP-Array erhalten sind (0,361 ± 0,072). Weder die Verwendung gewichteter genomischer Verwandtschaftsmatrizen noch die Anwendung von BLUP|GA führten im Vergleich zum normalen GBLUP-Ansatz zu höheren Vorhersagegenauigkeiten. Diese Beobachtung war unabhängig davon, ob SNP-Array- oder imputete Sequenzdaten verwendet wurden. Die Ergebnisse dieser Studie zeigten, dass kaum oder kein Zusatznutzen durch die Verwendung von imputeten Sequenzdaten generiert werden kann. Eine Erhöhung der Vorhersagegenauigkeit konnte jedoch erreicht werden, wenn die Verwandschaftsmatrix nur aus den SNPs in Genregionen gebildet wurde, die aus den Sequenzdaten extrahiert wurden. Die Auswahl der Selektionskandidaten erfolgt in genomischen Selektionsprogrammen mit Hilfe der geschätzten genomischen Zuchtwerte (GBVs). Die Genauigkeit des GBV ist hierbei ein relevanter Parameter, weil sie die Stabilität der geschätzten Zuchtwerte beschreibt und zeigen kann, wie sich der GBV verändern kann, wenn mehr Informationen verfügbar werden. Des Weiteren ist sie einer der entscheidenden Faktoren beim erwarteten Zuchtfortschritt (auch als so genannte „Züchtergleichung“ beschrieben). Diese Genauigkeit der genomischen Vorhersage ist jedoch in realen Daten schwer zu quantifizieren, da die wahren Zuchtwerte (TBV) nicht verfügbar sind. In früheren Studien wurden mehrere Methoden vorgeschlagen, die es ermöglichen, die Genauigkeit von GBV durch Populations- und Merkmalsparameter (z.B. effektive Populationsgröße, Sicherheit der verwendeten Quasi-Phänotypen, Anzahl der unabhängigen Chromosomen-Segmente) zu approximieren. Weiterhin kann die Genauigkeit bei Verwendung von gemischten Modellen mit Hilfe der Varianz des Vorhersagefehlers abgeleitet werden. In der Praxis wiesen die meisten dieser Ansätze eine Überschätzung der Genauigkeit der Vorhersage auf. Deshalb wurden in Kapitel 4 mehrere methodische Ansätze aus früheren Arbeiten in simulierten Daten mit unterschiedlichen Parametern, mit Hilfe derer verschiedene Tierzuchtprogramme (neben einem Basisszenario ein Rinder- und ein Schweinezuchtschema) abgebildet wurden, überprüft und die Höhe der Überschätzung gemessen. Außerdem wurde in diesem Kapitel eine neue und leicht rechenbare Methode zur Approximation der Genauigkeit vorgestellt Die Ergebnisse des Vergleichs der methodischen Ansätze in Kapitel 4 zeigten, dass die Genauigkeit der GBV durch den neuen Ansatz besser vorhergesagt werden kann. Der vorgestellte Ansatz besitzt immer noch einen unbekannten Parameter, für den jedoch eine Approximation möglich ist, wenn in einem geeigneten Datensatz Ergebnisse von Zuchtwertschätzungen zu zwei verschiedenen Zeitpunkten vorliegen. Zusammenfassend kann gesagt werden, dass diese neue Methode die Approximation der Genauigkeit des GBV in vielen Fällen verbessert.
283

Evaluating the effect of life cycle cost forecasting accuracy on mining project valuations / Stefanus Hendrik Jansen van Vuuren

Van Vuuren, Stefanus Hendrik Jansen January 2013 (has links)
The study was conducted to establish what effect life cycle cost forecasting accuracy has on project valuations with special reference to a global mining organisation’s coal business unit in South Africa. The research stemmed from the fact that the organisation identified through its own research in 2009 that its capital projects rarely met the originally budgeted life cycle cost forecasts estimated during the project development stages. These forecasts were generally found to be underestimated. Overrunning of cost budgets in project management terms results in project failure. The study employed two main empirical research sections. The first section took a case study approach where past implemented project results were collated and analysed. The main aim was to determine how close to reality the original life cycle cost estimates were, and secondly how any variances to the originally budgeted costs impacted on the anticipated project value post implementation. Secondly, the study employed in-depth interviews with seven project specialists within the organisation that were also involved in the development stages of the investigated projects. The study concluded that life cycle cost forecasts are very important project business case inputs and that the necessary time and effort should go into developing them so as to ensure that they are as comprehensive and accurate as possible. The sensitivity analysis that was conducted revealed that a coal mining project business case is the second most sensitive to variations in life cycle costs after variations in commodity price. The results indicated that a 20% increase in life cycle costs can destroy an equivalent project value of up to 100%. Accurate life cycle cost forecasting is therefore essential in order to estimate to a certain degree of accuracy the value of a project which in turn will be used to inform capital investment decision making. / MBA, North-West University, Potchefstroom Campus, 2014
284

TEST AND EVALUATION OF GPS/DR APPLICATION FOR CAR NAVIGATION SYSTEM

Dongkai, Yang, Yanhong, Kou, Zhi, Chen, Qishan, Zhang, Aigong, Xu 10 1900 (has links)
International Telemetering Conference Proceedings / October 20-23, 2003 / Riviera Hotel and Convention Center, Las Vegas, Nevada / Global Positioning System (GPS) was analyzed in terms of its repeatable accuracy, UTM projection for 2D plane coordinate system, satellite visibility performance and the horizontal dilution of positioning (HDOP). The principle of Dead Reckoning together with body coordinate system transformation was introduced. The complementary performance of GPS and DR, and GPS/DR integration using gyroscope and accelerometer were given. Test results were demonstrated that the repeatable accuracy of GPS alone is about 10 meters in open air, and DR can provide continuous positioning output within sufficient accuracy when GPS signal is outage.
285

A MORE EFFICIENT TRACKING SYSTEM FOR THE SANTIAGO SATELLITE TRACKING STATION

Ramírez, Eduardo Díaz 10 1900 (has links)
ITC/USA 2007 Conference Proceedings / The Forty-Third Annual International Telemetering Conference and Technical Exhibition / October 22-25, 2007 / Riviera Hotel & Convention Center, Las Vegas, Nevada / A digital antenna control system has been designed and installed on a pedestal that was formerly used to drive a VHF array and that has now been replaced with an 11 meter S-Band parabolic reflector. In this Paper, the former analog tracking system will be described, showing all the drawbacks that made it unusable for S-Band. Subsequently, the development and implementation of the digital S-Band tracking system, using Labview, C++ & digital control theory will be discussed. Finally, there will be a comparison between the digital and analog system, too.
286

The User Attribution Problem and the Challenge of Persistent Surveillance of User Activity in Complex Networks

Taglienti, Claudio 01 January 2014 (has links)
In the context of telecommunication networks, the user attribution problem refers to the challenge faced in recognizing communication traffic as belonging to a given user when information needed to identify the user is missing. This is analogous to trying to recognize a nameless face in a crowd. This problem worsens as users move across many mobile networks (complex networks) owned and operated by different providers. The traditional approach of using the source IP address, which indicates where a packet comes from, does not work when used to identify mobile users. Recent efforts to address this problem by exclusively relying on web browsing behavior to identify users were limited to a small number of users (28 and 100 users). This was due to the inability of solutions to link up multiple user sessions together when they rely exclusively on the web sites visited by the user. This study has tackled this problem by utilizing behavior based identification while accounting for time and the sequential order of web visits by a user. Hierarchical Temporal Memories (HTM) were used to classify historical navigational patterns for different users. Each layer of an HTM contains variable order Markov chains of connected nodes which represent clusters of web sites visited in time order by the user (user sessions). HTM layers enable inference "generalization" by linking Markov chains within and across layers and thus allow matching longer sequences of visited web sites (multiple user sessions). This approach enables linking multiple user sessions together without the need for a tracking identifier such as the source IP address. Results are promising. HTMs can provide high levels of accuracy using synthetic data with 99% recall accuracy for up to 500 users and good levels of recall accuracy of 95 % and 87% for 5 and 10 users respectively when using cellular network data. This research confirmed that the presence of long tail web sites (rarely visited) among many repeated destinations can create unique differentiation. What was not anticipated prior to this research was the very high degree of repetitiveness of some web destinations found in real network data.
287

Using Speech Recognition Software to Improve Writing Skills

Diaz, Felix 01 January 2014 (has links)
Orthopedically impaired (OI) students face a formidable challenge during the writing process due to their limited or non-existing ability to use their hands to hold a pen or pencil or even to press the keys on a keyboard. While they may have a clear mental picture of what they want to write, the biggest hurdle comes well before having to tackle the basic elements of writing such as grammar, punctuation, syntax, order, coherence, and unity of thought among others. There are many examples of assistive technology that has been deployed to facilitate writing for these students such as: word processors, word prediction software, keyboards and mice modified to be manipulated by feet and even mouth, and speech recognition software (SRS). The use of SRS has gained great popularity mainly due to the leaps in technology that have occurred during the last decade, particularly during the last three to five years. SRS is now capable of delivering speech to write with a verifiable accuracy rate in excess of 90% with as little as 10 hours of training. The current SRS industry recognized leader is Nuance Communications with its iconic Dragon Naturally Speaking (DNS) which is on version 12.5 at the time of this writing. DNS has practically eliminated the competition on SRS applications. This investigation explored the feasibility of using SRS as a writing tool by OI students to take notes and to complete writing projects. While others have tested the efficacy of SRS in general and of DNS in particular, this exploration is believed to be the first investigation into the use of SRS in the general classroom. One OI and two regular students were observed taking notes in three different classrooms after having received 10 hours of training using the software. Results indicate that all students dictated at a rate at least twice as fast as typing while averaging 90% accuracy rate. While the OI student dictation speed was consistently lower than that of the other students, there was minimal difference in accuracy. The Psychosocial Impact of Assistive Devices Scales (PIADS) questionnaire revealed a positive effect of the use of SRS on all three students with the OI student showing a higher index of improvement than the regular students in the areas of competence and self-esteem while all students experienced a closely similar score in the area of adaptability.
288

IMPROVING PERFORMANCE OF SINGLE OBJECT TRACKING RADAR WITH INTEGRATED GPS/INS

Singh, Mahendra, McNamee, Stuart, Navarro, Rick, Fleishans, Amy, Garcia, Louie, Khosrowabadi, Allen 10 1900 (has links)
International Telemetering Conference Proceedings / October 23-26, 2000 / Town & Country Hotel and Conference Center, San Diego, California / A novel approach combines GPS receiver technology with micro-electromechanical inertial sensors to improve performance of single object tracking radar. The approach enhances range safety by integrating an airborne Global Positioning System/Inertial Movement Unit (GPS/IMU) with a C-band transponder to downlink time-space-position information (TSPI) via FPS-16 instrumentation radar. This improves current telemetry links and the Range Application Joint Program Office (RAJPO) data link for downlinking TSPI because of the inherent long-range advantage of the radar. The goal of the project is to provide distance independent accuracy, and to demonstrate continuous 15-meter or better position accuracy over the entire flight envelope out to slant ranges up to 1,000 Km with at least 50 updates per second. This improves safety coverage for the wide area flight testing. It provides risk reduction for the Air Force Flight Test Center (AFFTC), Edwards Air Force Base, California and other ranges planning TSPI system upgrades.
289

TIME SYNCHRONIZATION IN FLIGHT TEST DATA ANALYSIS

Von Zuben, Francis S. G., David, Alfred S., Jr. 10 1900 (has links)
International Telemetering Conference Proceedings / October 23-26, 2000 / Town & Country Hotel and Conference Center, San Diego, California / A recurring problem in flight testing navigation systems is the need for an accurate, common time reference for the system under test and for the truth source to which it is compared. Lockheed Martin Aeronautics Company and Computer Sciences Corporation have developed software that utilizes all available timing information to reference the times of validity for each navigation measurement to Coordinated Universal Time. This permits accurate comparison and correlation of data necessary for statistical error analysis of the navigation system.
290

TIME REFERENCE SYSTEM OF THE ESO VERY LARGE TELESCOPE.

Lange, Werner R., Ravensbergen, Martin 11 1900 (has links)
International Telemetering Conference Proceedings / October 30-November 02, 1995 / Riviera Hotel, Las Vegas, Nevada / The necessity of supplying precise time information in large telemetry ground stations and astronomical observatories is very similar. Therefore the way of solving this problem as it is done in the Very Large Telescope of the European Southern Observatory can be easily adopted to telemetry stations and ranges, especially when fiber optics are used. The European Southern Observatory (ESO) is building a new observatory in Chile for the Very Large Telescope (VLT). This VLT consists of 4 telescopes, each of them has a primary mirror diameter of 8 meters. the control architecture is based on workstations and VMEbus computers. The VMEbus computers are distributed over the whole building and are using real time operating system. Since the availability of the Global Positioning System (GPS) the generation of highly accurate timing signals on remote locations without the use of expensive Cesium standards does not create problems any more. However, distribution of a timing signal to many computer with high accuracy is an issue. The accuracy of the commonly used IRIG B-code is not adequate if the requirements are in the 10 microseconds range. This paper presents the design of a timing system that is adopted to the VLT. An overview of the requirements of the Time Reference System (TRS) is given. These requirements have been defined on the basis of experiences with the timing system of the ESO NTT telescope. The hardware units are described. These are a Central Time Standard, a Time Distribution System and a VME Time Interface Module. The distribution is based on fiber optic transmission, using a simple digital modulation that outperforms the analog IRIG B modulation. The Time Interface Module in the computer does not only perform the timing signal decoding but contains also user-programmable timers that are synchronously clocked from the time source. Presently all units of the TRS have been tested and the series production of the distribution and the Time Interface Modules are in progress.

Page generated in 0.0535 seconds