• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 205
  • 100
  • 35
  • 32
  • 31
  • 7
  • 6
  • 6
  • 5
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 524
  • 524
  • 84
  • 81
  • 66
  • 60
  • 46
  • 46
  • 39
  • 38
  • 37
  • 36
  • 35
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Data Quality Assurance Begins Before Data Collection and Never Ends: What Marketing Researchers Absolutely Need to Remember

Moore, Zachary, Harrison, Dana E., Hair, Joe 01 November 2021 (has links)
Data quality has become an area of increasing concern in marketing research. Methods of collecting data, types of data analyzed, and data analytics techniques have changed substantially in recent years. It is important, therefore, to examine the current state of marketing research, and particularly self-administered questionnaires. This paper provides researchers important advice and rules of thumb for crafting high quality research in light of the contemporary changes occuring in modern marketing data collection practices. This is accomplished by a proposed six-step research design process that ensures data quality, and ultimately research integrity, are established and maintained throughout the research process—from the earliest conceptualization and design phases, through data collection, and ultimately the reporting of results. This paper provides a framework, which if followed, will result in reduced headaches for researchers and more robust results for decision makers.
462

The detection of high-qualified indels in exomes and their effect on cognition

Younis, Nadine 12 1900 (has links)
Plusieurs insertions/délétions (indels) génétiques ont été identifiées en lien avec des troubles du neurodéveloppement, notamment le trouble du spectre de l’autisme (TSA) et la déficience intellectuelle (DI). Bien que ce soit le deuxième type de variant le plus courant, la détection et l’identification des indels demeure difficile à ce jour, et on y retrouve un grand nombre de faux positifs. Ce projet vise à trouver une méthode pour détecter des indels de haute qualité ayant une forte probabilité d’être des vrais positifs. Un « ensemble de vérité » a été construit à partir d’indels provenant de deux cohortes familiales basé sur un diagnostic d’autisme. Ces indels ont été filtrés selon un ensemble de paramètres prédéterminés et ils ont été appelés par plusieurs outils d’appel de variants. Cet ensemble a été utilisé pour entraîner trois modèles d’apprentissage automatique pour identifier des indels de haute qualité. Par la suite, nous avons utilisé ces modèles pour prédire des indels de haute qualité dans une cohorte de population générale, ayant été appelé par une technologie d’appel de variant. Les modèles ont pu identifier des indels de meilleure qualité qui ont une association avec le QI, malgré que cet effet soit petit. De plus, les indels prédits par les modèles affectent un plus petit nombre de gènes par individu que ceux ayant été filtrés par un seuil de rejet fixe. Les modèles ont tendance à améliorer la qualité des indels, mais nécessiteront davantage de travail pour déterminer si ce serait possible de prédire les indels qui ont un effet non-négligeable sur le QI. / Genetic insertions/deletions (indels) have been linked to many neurodevelopmental disorders (NDDs) such as autism spectrum disorder (ASD) and intellectual disability (ID). However, although they are the second most common type of genetic variant, they remain to this day difficult to identify and verify, presenting a high number of false positives. We sought to find a method that would appropriately identify high-quality indels that are likely to be true positives. We built an indel “truth set” using indels from two diagnosis-based family cohorts that were filtered according to a set of threshold values and called by several variant calling tools in order to train three machine learning models to identify the highest quality indels. The two best performing models were then used to identify high quality indels in a general population cohort that was called using only one variant calling technology. The machine learning models were able to identify higher quality indels that showed a association with IQ, although the effect size was small. The indels predicted by the models also affected a much smaller number of genes per individual than those predicted through using minimum thresholds alone. The models tend to show an overall improvement in the quality of the indels but would require further work to see if it could a noticeable and significant effect on IQ.
463

Shoppin’ in the Rain : An Evaluation of the Usefulness of Weather-Based Features for an ML Ranking Model in the Setting of Children’s Clothing Online Retailing / Handla i regnet : En utvärdering av användbarheten av väderbaserade variabler för en ML-rankningsmodell inom onlineförsäljning av barnkläder

Lorentz, Isac January 2023 (has links)
Online shopping offers numerous benefits, but large product catalogs make it difficult for shoppers to understand the existence and characteristics of every item for sale. To simplify the decision-making process, online retailers use ranking models to recommend products relevant to each individual user. Contextual user data, such as location, time, or local weather conditions, can serve as valuable features for ranking models, enabling personalized real-time recommendations. Little research has been published on the usefulness of weather-based features for ranking models in online clothing retailing, which makes additional research into this topic worthwhile. Using Swedish sales and customer data from Babyshop, an online retailer of children’s fashion, this study examined possible correlations between local weather data and sales. This was done by comparing differences in daily weather and differences in daily shares of sold items per clothing category for two cities: Stockholm and Göteborg. With Malmö as an additional city, historical observational weather data from one location each in the three cities Stockholm, Göteborg, and Malmö was then featurized and used along with the customers’ postal towns, sales features, and sales trend features to train and evaluate the ranking relevancy of a gradient boosted decision trees learning to rank LightGBM ranking model with weather features. The ranking relevancy was compared against a LightGBM baseline that omitted the weather features and a naive baseline: a popularity-based ranker. Several possible correlations between a clothing category such as shorts, rainwear, shell jackets, winter wear, and a weather variable such as feels-like temperature, solar energy, wind speed, precipitation, snow, and snow depth were found. Evaluation of the ranking relevancy was done using the mean reciprocal rank and the mean average precision @ 10 on a small dataset consisting only of customer data from the postal towns Stockholm, Göteborg, and Malmö and also on a larger dataset where customers in postal towns from larger geographical areas had their home locations approximated as Stockholm, Göteborg or Malmö. The LightGBM rankers beat the naive baseline in three out of four configurations, and the ranker with weather features outperformed the LightGBM baseline by 1.1 to 2.2 percent across all configurations. The findings can potentially help online clothing retailers create more relevant product recommendations. / Internethandel erbjuder flera fördelar, men stora produktsortiment gör det svårt för konsumenter att känna till existensen av och egenskaperna hos alla produkter som saluförs. För att förenkla beslutsprocessen så använder internethandlare rankningsmodeller för att rekommendera relevanta produkter till varje enskild användare. Kontextuell användardata såsom tid på dygnet, användarens plats eller lokalt väder kan vara värdefulla variabler för rankningsmodeller då det möjliggör personaliserade realtidsrekommendationer. Det finns inte mycket publicerad forskning inom nyttan av väderbaserade variabler för produktrekommendationssystem inom internethandel av kläder, vilket gör ytterligare studier inom detta område intressant. Med hjälp av svensk försäljnings- och kunddata från Babyshop, en internethandel för barnkläder så undersökte denna studie möjliga korrelationer mellan lokal väderdata och försäljning. Detta gjordes genom att jämföra skillnaderna i dagligt väder och skillnaderna i dagliga andelar av sålda artiklar per klädeskategori för två städer: Stockholm och Göteborg. Med Malmö som ytterligare en stad så gjordes historiska metereologiska observationer från en plats var i Stockholm, Göteborg och Malmö till variabler och användes tillsammans med kundernas postorter, försäljningsvariabler och variabler för försäljningstrender för att träna och utvärdera rankningsrelevansen hos en gradient-boosted decision trees learning to rank LightGBM rankningsmodell med vädervariabler. Rankningsrelevansen jämfördes mot en LightGBM baslinjesmodel som saknade vädervariabler samt en naiv baslinje: en popularitetsbaserad rankningsmodell. Flera möjliga korrelationer mellan en klädeskategori som shorts, regnkläder, skaljackor, vinterkläder och och en daglig vädervariabel som känns-som-temperatur, solenergi, vindhastighet, nederbörd, snö och snödjup upptäcktes. Utvärderingen av rankingsrelevansen utfördes med mean reciprocal rank och mean average precision @ 10 på ett mindre dataset som bestod endast av kunddata från postorterna Stockholm, Göteborg och Malmö och även på ett större dataset där kunder med postorter från större geografiska områden fick sina hemorter approximerade som Stockholm, Göteborg eller Malmö. LigthGBM-rankningsmodellerna slog den naiva baslinjen i tre av fyra konfigurationer och rankningsmodellen med vädervariabler slog LightGBM baslinjen med 1.1 till 2.2 procent i alla konfigurationer. Resultaten kan potentiellt hjälpa internethandlare inom mode att skapa bättre produktrekommendationssystem.
464

A comparative evaluation of machine learning models for engagement classification during presentations : A comparison of distance- and non-distance-based machine learning models for presentation classification and class likelihood estimation / En jämförande utvärdering av maskininlärningsmodeller för engagemangsklassificering under presentationer : En jämförelse av distans- och icke-distansbaserade maskininlärningsmodeller för presentationsklassificering och klasssannolikhetsuppskattning

Ali Omer Bajallan, Rebwar January 2022 (has links)
In recent years, there has been a significant increase in the usage of audience engagement platforms, which have allowed for engaging interactions between presenters and their audiences. The increased popularity of the platforms comes from the fact that engaging and interactive presentations have been shown to improve learning outcomes and create positive presentation experiences. However, using the platforms does not guarantee that your audience is engaged and participating. Given that the added value of engaging presentations only applies if the audience is actually engaged, it increases the need to know if and how engaged your audience is. The usage of audience engagement platforms has allowed for new ways of engagement to be studied. By utilizing the data gathered from the interactive presentation sessions, engagement can be studied and quantified through the modeling of the data. As the usage of audience engagement platforms and the study of presentation engagement is relatively new, there exists a limited amount of labeled data quantifying the level of engagement during presentations. To model the data, machine learning models should therefore be trained to generalize by being exposed to a limited number of presentation samples. This technique of training machine learning models is also referred to as few-shot learning. Distance-based machine learning models are defined in this study as models that make classifications and inferences by calculating distances between observations or observation class representations. Distance-based models have previously shown relatively good performance in few-shot learning applications, and interest therefore lies in expanding their application areas. This study presents a comparative evaluation of distance- and non-distance-based machine learning models given the problem of classifying presentations as being engaged or non-engaged, and estimating presentation class likelihoods in a few-shot learning context. A presentation-level dataset was gathered from the interactive presentation sessions, and each presentation observation was labeled as being engaged or non-engaged. The machine learning models were then trained to model the data and evaluated in terms of how well they were able to generalize to unseen testing samples by being exposed to a limited number of training observations. In particular, their classification and class likelihood estimation performances were evaluated. The results conclude that the distance-based models outperformed the non-distance-based models artificial neural network and relevance-vector machine given the presentation class likelihood estimation problem. The metric learning nearest neighbor classifier was the only distance-based model that outperformed all the non-distance-based models given both the presentation classification and class likelihood estimation problems. / Under de senaste åren har det skett en betydande ökning av användningen av plattformar för publikengagemang, vilket har möjliggjort engagerande interaktioner mellan presentatörer och deras publik. Plattformarnas ökade popularitet kommer från det faktum att engagerande och interaktiva presentationer har visat sig förbättra läranderesultat och skapa positiva presentationsupplevelser. Att använda plattformarna garanterar dock inte att din publik är engagerad och deltagande. Med tanke på att mervärdet av engagerande presentationer bara gäller om publiken faktiskt är engagerad, ökar det behovet av att veta om och hur engagerad din publik är. Användningen av plattformar för publikengagemang har gjort det möjligt att på nya sätt studera engagemang. Genom att använda data som samlats in från de interaktiva presentationssessionerna kan engagemang studeras och kvantifieras genom modellering av data. Eftersom användandet av plattformar för publikengagemang och studien av presentationsengagemang är relativt nytt, finns det en begränsad mängd märkt data som kvantifierar nivån av engagemang under presentationerna. För att modellera datan så bör maskininlärningsmodeller tränas att generalisera genom att utsättas för ett begränsad antal presentations observationer. Denna teknik för att träna inlärningsmodeller kallas också few-shot lärande. Distans-baserade maskininlärningsmodeller definieras i denna studie som modeller som gör klassificeringar genom att beräkna avstånd mellan observationer eller observationsklass representationer. Distans-baserade modeller har tidigare visat relativt goda resultat i few-shot inlärning problem, och intresset ligger därför i att utöka deras tillämpningsområden. Denna studie presenterar en jämförande utvärdering av distans- och icke-distans baserade maskininlärningsmodeller givet problemet med att klassificera presentationer som engagerade eller icke-engagerade, och uppskattning av presentation klasssannolikheter i ett few-shot inlärnings sammanhang. Ett dataset på presentationsnivå samlades in från de interaktiva presentationssessionerna, och varje presentation märktes som engagerad eller icke-engagerad. Maskininlärningsmodellerna tränades sedan för att modellera data och utvärderades i termer av hur väl de kunde generalisera till osedda testobservationer givet att de exponeras mot ett begränsat antal träningsobservationer. I synnerhet utvärderades deras klassificering och uppskattning av klasssannolikheter. Resultaten visade att alla distans-baserade modeller var bättre än de icke-distansbaserade modellerna artificial neural network och relevence-vector machine givet problemet med uppskattning av klasssannolikheter. Den distans-baserade metric learning nearest neighbor klassificeraren var den enda avståndsbaserade modellen som överträffade alla icke-distansbaserade modeller givet problemen med presentations klassificering och klasssannolikhets uppskattning.
465

The Role of Uni- and Multivariate Bias Adjustment Methods for Future Hydrological Projections and Subsequent Decision-Making / Rollen av uni- och multivariata biasjusteringsmetoder för framtida hydrologiska projektioner och efterföljande beslutsfattande

Liebenehm-Axmann, Anna Merle January 2024 (has links)
Climate models are essential for generating future climate projections. However, due to simplifications, the models can produce systematic differences between output and reality, which is referred to as model bias. Bias adjustment methods aim to reduce this error, which is important for making future projections more reliable. Here, the suitability of four different bias adjustment methods was tested: distribution-based (Distribution Scaling (DS), Quantile Delta Mapping (QDM)) and non-distribution- based methods (Copula, Multivariate Bias Correction (MBCn)), of which each one univariate and one multivariate approach. The methods were assessed on climate future projections together with a non bias adjusted data set, focusing on their impacts on hydrological modelling simulations. For this, 16 hydrological signatures were analysed and categorized into: 1) water balance and flow dynamics, 2) seasonal behaviour of the flow, 3) low flow characteristics and 4) high flow characteristics. The assessment was carried out based on 50 catchments in Sweden, 10 climate models and one hydrological model. Most noticeable differences were observed between distribution-based and non-distribution-based methods, rather than between univariate and multivariate methods. Bias adjustment methods introduce half as much variation as climate models, catchments contribute substantially more to the projected signatures. Specific hydrological signatures differed regionally, such as changes in the average spring streamflow magnitude and greater bias adjustment variations in low- and high-flow frequencies, compared to varia- tions among catchments, suggesting a shift in the frequency of extreme streamflow events in the future. The choice of bias adjustment method impacted ’High flow characteristics’ the strongest. The Copula method deviated in the trend analysis by utilizing an existing trend. This research prompts further exploration of variation between current and projected future climate, or the inclusion of other variables that might impact projections, to determine the necessity of the methods. / Vi befinner oss i en tid av klimatförändringar. Det blir mer och mer synligt och klimatet kommer förändras i närtid och långt fram i tiden. Men hur exakt kommer det vara i slutet av detta århundrade? För att förutspå det, används klimatmodeller. Dock kan klimatmodeller bara ge en uppskattning om hur det kommer se ut, eftersom de måste förenkla jordsystem och klimat genom simplifieringar och antaganden, för att kunna beräkna projektionen. Det betyder att klimatprojektioner är ingen särskilt exakt förutsägelse. För att projicera framtidens vattenföring i en förändrande klimat, behöver an först modellera framtidens klimat och ut ur det modellera framtidens hydrologiska processer genom hydrologiska modeller. Kombinationer av flera modelltyper kallas modellkedja. För att projicera framtidens klimat, behövs en hel modell-kedja som består av klimatmodeller och hydrologiska modeller. Ju fler delar en modell-kedjan består av, desto osäkrare blir projektionen. Osäkerheten kallas systematiskt och slumpmässigt fel, kort bias. För att förbättra projektionen kan man inkluderar en så kallat bias korrektions metod, vars syfte är att minska biasen med en massa ekvationer och underliggande algoritmer. Det finns flera olika metoder, baserade på olika algoritmer, som beroende på algoritmernas innehåll är mer eller mindre komplicerad.  Jag undersökte i det här projektet, om det gör en skillnad, vilket bias korrektur metod man använder för att förbättra sitt klimat projektion. Det kan, t.ex. vara intressant att veta, när man måste bestämma sig mellan olika bias korrektur metoder som innehåller olika nivåer av komplexitet som användaren måste förstå sig på för att beräkna och korrigerar dataset som är utdatan från klimatmodellerna. För att testa det, tog jag ett existerande stort dataset (bestående av 4 olika bias korrektur metoder och ett dataset som inte var bias korrigerad, med 10 stycken klimatprojektioner för 50 avrinningsområden jämt utspridda över hela Sverige). För att kunna ge en omfattande överblick av framtidens klimat, beräknade jag flera, så kallade hydrologiska signaturer av vattenföringens karakteristik. De signaturer testades statistiskt för att visar avvikande och liknande betedde.  Metoder som korrigerar systematiskt fel betog sig ganska lika varandra, dock introducerades ungefär hälften så mycket variation som hos de 10 testade klimatmodeller, däremot introducerade de 50 flodbäcken mycket mer variation än bias korrektur metoderna, förutom vissa undantag. Jämförelsen föreslår en förändring i vårflöde och ett betydligt skifte i extremflöden i framtiden, jämfört med dagens flöde i älvarna. Det syns att det som blivit påverkat mest av från valet av bias korrektur metoder är kategorin "hög flod drag".  Det här projektet är bara en liten del av en större forskning, och det finns mycket kvar att studera. I framtidens forskning skulle det vara intressant att jämföra skillnaden mellan dagens avloppet och i framtiden och hur stor skillnaden är, jämfört med styrkan av variationen mellan de testade bias korrektur metoder. Därmed kunde man minska forskningsgapet ytterligare, och göra ett noggrant konstaterande i samband med olika bias korrektur metoder och om valets betydelse.
466

A Framework of Critical Success Factors for Business Organizations that Lead to Performance Excellence Based on a Financial and Quality Systems Assessment.

Francisco, Melissa 01 January 2014 (has links)
One of the most important tasks that business leaders undertake in order to achieve a superior market position is strategic planning. Beyond this obligation, business owners desire to maximize profit and maintain steady growth. In order to do this, resources must be invested in the most efficient way possible in order to achieve performance excellence. Adjusting business operations quickly, however, especially in times of economic uncertainty, is extremely difficult. Business leaders therefore need insight into which elements of organizational improvement are most effective in order to strategically invest their resources to achieve superior performance in the most efficient way possible. This research examines the results of companies which have a demonstrated ability to achieve performance excellence as defined by the National Institute of Standards and Technology's Malcolm Baldrige Criteria for Performance Excellence. This research examined award-winning applications to determine common input factors, compared the business results of a subset of those award-winners with the overall market for a time-frame of 11 years, and then investigated the profitability, liquidity, debt management, asset management, and per share performance ratios of award-winners compared with their industry peers over 11 years as well. The main focus of this research is to determine whether participation in performance excellence best practices have created value for shareholders and business owners. This objective is achieved through the analysis of performance results of award winning companies. This research demonstrates that the integration of efforts associated with performance excellence is in-fact advantageous.
467

Computer Modeling of Geology in the Sparta and Montpelier Quadrangles of Clay and Chickasaw Counties, Mississippi: A Tantalizing Near Miss

Defibaugh y Chávez, Jason 07 August 2004 (has links)
This project attempted to combine digital data sets to define and map geologic features in the Sparta and Montpelier quadrangles of Chickasaw and Clay counties in northeastern Mississippi. LANDSAT TM, digital elevation, and soil permeability data was used in conjunction with reference data for the Sparta quadrangle to build a computer model. Variables used in the model were: geology, slope, soil permeability, vegetation indices, the first three bands of a tasseled cap transformation, and drainage frequency. The data used was LANDSAT TM 30 meter imagery, digital elevation models, also at 30 meter resolution, Penn State STASGO soils data, and the existing map of the Sparta quadrangle. The purpose of this project was to use digital data to remotely map geologic features through heavy vegetation using a computer model. While the results of this project were not completely successful, the methods used show some potential for future application.
468

When Insurgents Go Terrorist: The Role of Foreign Support in the Adoption of Terrorism

Fourman, Jeffrey F. 04 June 2014 (has links)
No description available.
469

A Validation of Nass Crop Data Layer in the Maumee River Watershed

Panozzo, Kimberly A. January 2016 (has links)
No description available.
470

Characterization of Peripheral Lung Lesions by Statistical Image Processing of Endobronchial Ultrasound Images

Madaris, Aaron T. January 2016 (has links)
No description available.

Page generated in 0.0765 seconds