• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 6
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 25
  • 25
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Geotekstilių parinkimo metodai Lietuvos automobilių kelių ir gatvių konstrukcijoms / Geotextile selection methods for the Lithuanian road and street structures

Vaitkus, Audrius 08 January 2008 (has links)
Įrengiant automobilių kelio ar gatvės dangas ant žemės sankasos bei vėliau jas eksploatuojant dėl nuolatos pasikartojančių statinių bei dinaminių transporto priemonių apkrovų gali prasidėti žemės sankasos grunto bei apsauginio šalčiui atsparaus sluoksnio medžiagų sąmaiša. Analogiškas procesas gali vykti ir tarp apsauginio šalčiui atsparaus sluoksnio bei dangos pagrindo medžiagų. Ilgainiui kelio ar gatvės konstrukcijos sluoksnių medžiagų tarpusavio sąmaiša mažina dangos stiprį bei tvarumą. Siekiant išvengti atskirų konstrukcijos sluoksnių mineralinių medžiagų tarpusavio susimaišymo, tiesiant kelius ar gatves bei juos eksploatuojant, pastaruosius 15 metų pasaulyje plačiai taikomi geotekstilės tarpsluoksniai. Jungtinių Amerikos Valstijų mokslininkai geotekstiles parinkti rekomenduoja naudoti skaičiavimus pagal formules, tačiau jos tinka tik keliams be asfaltbetonio dangos. Kitas geotekstilių taikymo būdas – atskirų šalių sukurtos normos bei rekomendacijos. Europoje nėra vieningų norminių dokumentų, reglamentuojančių geotekstilių naudojimą automobilių kelių bei gatvių konstrukcijos sluoksniams atskirti. Tai galima pagrįsti tuo, kad Europos valstybėse yra skirtingos klimatinės bei geologinės sąlygos. Taigi kiekviena ar keletas valstybių, kurioms pagal jų sąlygas aktualu kelio konstrukcijos sluoksnius atskirti geotekstilėmis, turi savo normas ar rekomendacijas. Lietuvoje geosintetinės medžiagos tiesiant ir rekonstruojant automobilių kelius bei miestų gatves naudojamos tik pastarąjį... [toliau žr. visą tekstą] / During construction of road or street pavement structure and its operation the continuous static and dynamic vehicle loads may cause the intermixing of the subgrade soil with the frost blanket course. Analogical process could happen between the frost blanket course and the sub-base constructed from the large particles of aggregate. Eventually, the intermixed materials of the different structural layers of road or street can have the impact on the strength and durability of the whole structure. In order to prevent the aggregates of different structural layers from becoming intermixed during road or street construction or in the phase of operation the geotextile inter-layers have been world-widely used in the recent 15 years. Method for selecting geotextiles – specifications and recommendations of different countries. At present there are no generally accepted European specifications regulating the selection of geotextiles intended for separating road or street pavement layers. The reason is that different European countries have different climatic and geological conditions. Thus, each or several countries, where these conditions require separation of pavement structural layers by the geotextile, have their own normative documents or recommendations. Lithuania has only been using geotextiles in road and street construction and reconstruction during the last decade. In 1998 Lithuanian Road Administration adopted the temporary regulations on Using Geotextiles and Geogrids for... [to full text]
12

Modeling and Data Analysis of Conductive Polymer Composite Sensors

Lei, Hua 26 October 2006 (has links) (PDF)
Conductive polymer composite sensors have shown great potential in identifying gaseous analytes. To more thoroughly understand the physical and chemical mechanism of this type of sensors, a model was developed by combining two sub-models: a conductivity model and a thermodynamic model, which gives a relationship between the vapor concentration of analyte(s) and the change of the sensor signals. In this work, 64 chemiresistors representing eight different carbon concentrations (8–60 vol.% carbon) were constructed by depositing thin films of a carbon black–polyisobutylene composite onto concentric spiral platinum electrodes on a silicon chip. The responses of the sensors were measured in dry air and at various vapor pressures of toluene and trichloroethylene. Three parameters in the conductivity model were determined by fitting the experimental data. It was shown that by applying this model, the sensor responses can be predicted if the vapor pressure is known; furthermore the vapor concentration can be estimated based on the sensor responses. This model will guide the improvement of the design and fabrication of conductive polymer composite sensors for detecting and identifying organic vapors. A novel method was developed to optimize the selection of polymeric materials to be used within a chemiresistor array for anticipated samples without performing preliminary experiments. It is based on the theoretical predicted responses of chemiresistors and the criterion of minimizing the mean square error (MSE) of the chemiresistor array. After the number of chemiresistors to be used in an array and the anticipated sample chemistry are determined, the MSE values of all combinations of the candidate chemiresistors are calculated. The combination which has the minimum MSE value is the best choice. This can become computationally intensive for selection of polymers for large arrays from candidates in a large database. The number of combinations can be reduced by using the branch and bound method to save computation time. This method is suitable for samples at low concentrations where thermodynamic multi-component interactions are linear. To help users apply this polymer selection method for the sensors, a website including 10 solvents and 10 polymers was developed. Users can specify a target sample and obtain the best set of polymers for a sensor array to detect the sample. The activities of trichloroethylene and toluene in polyisobutylene were measured at very low concentrations. The activities for toluene are consistent with published values at higher concentrations. The values for trichloroethylene are a new contribution to the literature.
13

Método para avaliação e seleção de softwares de simulação de eventos discretos aplicados à análise de sistemas logísticos. / Evaluation and selection method for discrete event simulation software dedicated to the analysis of logistic systems.

Silva, André Koide da 27 February 2007 (has links)
A simulação de eventos discretos é uma das mais poderosas ferramentas disponíveis para modelagem e análise de problemas. Freqüentemente ela é utilizada para o planejamento, projeto e controle de sistemas complexos em diversos segmentos; entre eles, a área de sistemas logísticos, que a tem aplicado extensivamente para analisar as capacidades logísticas, avaliar os impactos de mudanças nos processos produtivos, testar diferentes configurações na alocação de recursos limitados, determinar parâmetros das operações, validar novos projetos, entre outras aplicações. Esta popularização da simulação despertou o interesse das empresas especializadas no desenvolvimento de softwares, resultando em diversas opções com diferentes características e custos. Desta forma, identificou-se a necessidade de um método para seleção de softwares de simulação de eventos discretos voltados à resolução de problemas logísticos, pois os trabalhos disponíveis na Literatura abordam somente a escolha de softwares para fins genéricos. Para preencher essa lacuna, foi proposto um conjunto de critérios que endereçam as necessidades específicas do desenvolvimento de modelos voltados à análise de sistemas logísticos. Esses critérios formaram a base do método proposto, que incorporou as melhores características dos trabalhos identificados na Literatura. Sua primeira fase gerou uma lista com os softwares que suportaram os critérios definidos como essenciais por meio da aplicação de um método de atribuição de pesos e pontuação, cuja eficiência e simplicidade são amplamente reconhecidas; já a segunda fase, utilizou o método de análise hierárquica (AHP), recomendado para a tomada de decisão baseada em múltiplos critérios, por permitir a identificação e correção das inconsistências geradas pelo julgamento humano. Dois problemas testes também foram propostos para o desenvolvimento de aplicações em sistemas logísticos e condução de experimentos durante a segunda fase. Os softwares Arena, ProModel e @Risk, extensivamente utilizados para ensino e pesquisa na Escola Politécnica da Universidade de São Paulo, foram avaliados durante a aplicação prática do método proposto. Os resultados obtidos confirmaram a percepção, adquirida durante a segunda fase do método, de que os softwares Arena e ProModel apresentam características semelhantes, dada a discreta diferença em suas pontuações totais. Os diversos cenários desenvolvidos na análise de sensibilidade também ratificaram essa tendência. / The discrete event simulation is one of the most powerful tools available for modeling and problem analysis. Frequently it is used for planning, designing and controlling complex systems in several segments. The logistic system area has also applied it extensively to analyse the logistic capacities, evaluate the impacts of changes in the productive processes, test different configurations in the allocation of limited resources, determine operation parameters, validate new projects, among other applications. Thus, the growth of the simulation awoke the interest of the companies specialized in software development. This fact resulted in several options with different characteristics and costs. Because of this, it was identified the necessity of a selection method for discrete event simulation software dedicated to the resolution of logistic problems. The available works in Literature only approach the choice of softwares for generic purposes. To fill in this gap, a set of criteria that address the specific necessities of the development of models dedicated to the analysis of logistic systems was proposed. These criteria formed the base of the proposed method. It has incorporated the best characteristics of the works identified in Literature. Its first phase generated a list with softwares with widely recognized efficiency and simplicity that supported the essential criteria through the application of a scoring model. Its second phase used the Analytic Hierarchy Process (AHP) which is recommended for the decision taking based on multiple criteria because it allows the identification and correction of the inconsistencies generated by the human judgment. Two test problems have also been proposed for the development of applications in logistic systems and performance of experiments during the second phase. Arena, ProModel and @Risk, extensively used for education and research in the Polytechnical School of the University of São Paulo, were evaluated during the practical application of the proposed method. The results confirmed the perception acquired during the second phase of the method that Arena and ProModel present similar characteristics. They presented a discrete difference in their total score. The several scenes developed in the sensitivity analysis also ratified this trend.
14

選擇商業應用資料探勘方法之框架 / A Framework for Selecting Data Mining Method in Business Application

陳庭鈞, Chen,Tin Jiun Unknown Date (has links)
由於資訊科技的進步與網路的普及,企業得以收集與儲存大量的資料。使用資訊工具來協助資料處理、資訊擷取、以及產生知識已然變成企業的重要課題之一,所以如何良好運用資料探勘工具成為使用者關注的焦點。由於並非每一個使用者對於資料探勘的原理都有充分的了解,所以如何從探勘工具提供的功能中選用最佳的解決方案並不容易。如果對於探勘結果不滿意而需要調整軟體邏輯,與IT人員的協商溝通卻又曠日費時。 為了解決這個問題,本研究提出一個演算法選擇方法,藉由分析商業應用的內容,來自動對應到特定的資料探勘方法與演算法,讓選擇演算法的過程更為快速、更系統化,提升利用資料探勘工具解決商業問題的效率。 / Due to the information technology improvement and the growth of internet, companies are able to collect and to store huge amount of data. Using data mining technology to aid the data processing, information retrieval and knowledge generation process has become one of the critical missions to enterprise, so how to use data mining tools properly is users’ concern. Since not every user completely understand the theory of data mining, choosing the best solution from the functions which data mining tools provides is not easy. If user is not satisfied with the outcome of mining, communication with IT employees to adjust the software costs lots of time. To solve this problem, a selection model of data mining algorithms is proposed. By analyzing the content of business application, user’s requirement will map to certain data mining category and algorithm. This method makes algorithm selection faster and reasonable to improve the efficiency of applying data mining tools to solve business problems.
15

Seleção precoce de clones de batata adaptados às condições temperada e subtropical de cultivo do sul do Brasil / Early selection of potato clones adapted to the temperate and subtropical growing conditions of southern Brazil

Bandinelli, Maurício Guerra 28 February 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Experiments were conducted in order to (i) evaluate the use of canonical correlation to identify plant and tuber traits that can be used for early identification of superior potato clones and (ii) develop and validate a method of early selection of potato clones for tuber dormancy, to identify clones with short or long dormancy, with the purpose of being used respectively in subtropical and temperate growing conditions. The study of canonical correlation analysis was conducted in two generations (seedling and tuber) with nine families and a total of 358 clones. The seedling generation (G1) was conducted in a greenhouse in the winter of 2008, and the tuber generation (G2) on the field during the fall season of 2009. From both generations 13 plant and tuber traits were evaluated: height of the main stem (HMS), fresh weight of shoots (FWS), fresh weight of stolons (FWS), fresh weight of tubers (FWT), number of tubers per plant (NTP), elongated-shaped tuber (EST), flattened-shaped tuber (FST), skin texture (SKT), pointed ends (POI), secondary growth (SEG), eye depth (DEP), days to break dormancy (DBD) and number of sprouts per tuber (NST). The variability among families was significant for all traits in both generations except for POI in the first generation and FWS, SEG and DEP in the second generation. The linear correlations between G1 and G2 were significant, positive and high for 12 out of 13 traits evaluated. The canonical correlation analysis showed that there is an association between plant and tuber traits in the two generations. However, no general rule was observed for the early selection of clones, valid for any family, being the evaluation of clones in the set more efficient to identify the correlation of characters between the generations. In order to develop and validate a method of early selection of clones for tuber dormancy, experiments were conducted between the years of 2010 and 2013, beginning with two independent sets of clones. In 2010, seedling generation of the first set (19 clonal families) was conducted in a greenhouse. Tubers from each genotype were harvested (total of 1,145 clones or minitubers), which were treated with 30 mg L-1 gibberellic acid and stored at 20 °C for breaking dormancy. After 45 days of storage four groups of clones were formed according to the number of days (45, 60, 75 and 90 days) required for breaking dormancy. A random sample of tubers of each group was used for the summer field cultivation. At harvest, four tubers were separated from each clone to assess dormancy and apical dominance under storage of 20 °C. In 2012, a second set with 1,269 clones (minitubers of 16 families) was produced in order to separate five groups of clones according to the number of days (30, 45, 60, 75 and 90 days) required for breaking dormancy of tubers. For both sets of clones, a completely randomized design with four replicates of each clone was utilized. There was a pattern of dormancy breaking and direct relationship within the dormancy period of the tubers between the two generations, that made possible to develop and validate an early selection method. This method enables the assembly of clones with similar dormancy level as of the seedling generation, i.e., allows early identification of clones with short or long dormancy, with potential as new adapted cultivars respectively for subtropical and temperate growing conditions of southern Brazil. / Experimentos foram conduzidos com o objetivo de (i) avaliar o uso da correlação canônica para identificar caracteres de planta e tubérculo que possam ser utilizados para a identificação precoce de clones superiores de batata e (ii) desenvolver e validar um método de seleção precoce de clones de batata para a dormência dos tubérculos, para a identificação de clones com curta ou longa dormência, para serem utilizados respectivamente em condições subtropicais e temperadas de cultivo. O estudo da análise de correlação canônica foi conduzido em duas gerações (plantular e de tubérculo), com nove famílias e um total de 358 clones. A geração plantular (G1) foi conduzida em casa de vegetação, no inverno de 2008, e a geração de tubérculo (G2) em campo, no outono de 2009. Nas duas gerações foram avaliados 13 caracteres de planta e tubérculo: estatura da haste principal (EHP), massa fresca de parte aérea (MFA), massa fresca de estolão (MFE), massa fresca de tubérculos (MFT), número de tubérculos por cova (NTC), tubérculo alongado (TAL), tubérculo achatado (TAC), aspereza da casca (ASP), presença de ponta (PON), embonecamento (EMB), profundidade de gemas (PRG), dias para rompimento da dormência (DRD) e número de brotos por tubérculo (NBT). A variabilidade entre as famílias foi significativa para todos os caracteres nas duas gerações, com exceção de PON na primeira geração e MFA, EMB e PRG na segunda geração. As correlações lineares entre G1 e G2 foram significativas, positivas e altas para 12 dos 13 caracteres avaliados. A análise de correlação canônica mostrou que existe associação entre caracteres de planta e tubérculo nas duas gerações. Porém, não foi observado regra geral para a seleção precoce de clones, válida para qualquer família, sendo a avaliação de clones no conjunto mais eficiente para identificar a correlação de caracteres entre as gerações. Para desenvolver e validar um método de seleção precoce de clones para a dormência dos tubérculos, experimentos foram conduzidos entre os anos de 2010 e 2013, partindo de dois conjuntos independentes de clones. Em 2010, a geração plantular do primeiro conjunto (19 famílias clonais) foi conduzida em casa de vegetação. De cada genótipo foi colhido um tubérculo, totalizando 1.145 clones (minitubérculos), que foram tratados com 30 mg L-1 de ácido giberélico e armazenados a 20 ºC para rompimento da dormência. Após 45 dias de armazenamento, formaram-se quatro grupos de clones com número de dias (45, 60, 75 e 90 dias) necessários para o rompimento da dormência. Uma amostra aleatória dos tubérculos de cada um dos grupos foi utilizada para o cultivo de verão em campo. Por ocasião da colheita, quatro tubérculos foram separados de cada clone para avaliar a dormência e dominância apical, sob armazenamento à temperatura de 20 ºC. Em 2012, um segundo conjunto com 1.269 clones (minitubérculos de 16 famílias) foi produzido para separar cinco grupos de clones com número de dias (30, 45, 60, 75 e 90 dias) necessários para o rompimento da dormência dos tubérculos. Para os dois conjuntos de clones, o delineamento experimental foi inteiramente casualizado, com quatro repetições de cada clone. Houve um padrão de rompimento da dormência e relação direta entre o período de dormência dos tubérculos entre as duas gerações, o que possibilitou desenvolver e validar um método de seleção precoce. Esse método possibilita agrupar clones com similar nível de dormência já na geração de plântula, ou seja, permite a identificação precoce de clones com curta ou longa dormência, com potencial para serem utilizados no desenvolvimento de cultivares adaptadas, respectivamente, as condições subtropicais e temperadas de cultivo na região Sul do Brasil.
16

Método para avaliação e seleção de softwares de simulação de eventos discretos aplicados à análise de sistemas logísticos. / Evaluation and selection method for discrete event simulation software dedicated to the analysis of logistic systems.

André Koide da Silva 27 February 2007 (has links)
A simulação de eventos discretos é uma das mais poderosas ferramentas disponíveis para modelagem e análise de problemas. Freqüentemente ela é utilizada para o planejamento, projeto e controle de sistemas complexos em diversos segmentos; entre eles, a área de sistemas logísticos, que a tem aplicado extensivamente para analisar as capacidades logísticas, avaliar os impactos de mudanças nos processos produtivos, testar diferentes configurações na alocação de recursos limitados, determinar parâmetros das operações, validar novos projetos, entre outras aplicações. Esta popularização da simulação despertou o interesse das empresas especializadas no desenvolvimento de softwares, resultando em diversas opções com diferentes características e custos. Desta forma, identificou-se a necessidade de um método para seleção de softwares de simulação de eventos discretos voltados à resolução de problemas logísticos, pois os trabalhos disponíveis na Literatura abordam somente a escolha de softwares para fins genéricos. Para preencher essa lacuna, foi proposto um conjunto de critérios que endereçam as necessidades específicas do desenvolvimento de modelos voltados à análise de sistemas logísticos. Esses critérios formaram a base do método proposto, que incorporou as melhores características dos trabalhos identificados na Literatura. Sua primeira fase gerou uma lista com os softwares que suportaram os critérios definidos como essenciais por meio da aplicação de um método de atribuição de pesos e pontuação, cuja eficiência e simplicidade são amplamente reconhecidas; já a segunda fase, utilizou o método de análise hierárquica (AHP), recomendado para a tomada de decisão baseada em múltiplos critérios, por permitir a identificação e correção das inconsistências geradas pelo julgamento humano. Dois problemas testes também foram propostos para o desenvolvimento de aplicações em sistemas logísticos e condução de experimentos durante a segunda fase. Os softwares Arena, ProModel e @Risk, extensivamente utilizados para ensino e pesquisa na Escola Politécnica da Universidade de São Paulo, foram avaliados durante a aplicação prática do método proposto. Os resultados obtidos confirmaram a percepção, adquirida durante a segunda fase do método, de que os softwares Arena e ProModel apresentam características semelhantes, dada a discreta diferença em suas pontuações totais. Os diversos cenários desenvolvidos na análise de sensibilidade também ratificaram essa tendência. / The discrete event simulation is one of the most powerful tools available for modeling and problem analysis. Frequently it is used for planning, designing and controlling complex systems in several segments. The logistic system area has also applied it extensively to analyse the logistic capacities, evaluate the impacts of changes in the productive processes, test different configurations in the allocation of limited resources, determine operation parameters, validate new projects, among other applications. Thus, the growth of the simulation awoke the interest of the companies specialized in software development. This fact resulted in several options with different characteristics and costs. Because of this, it was identified the necessity of a selection method for discrete event simulation software dedicated to the resolution of logistic problems. The available works in Literature only approach the choice of softwares for generic purposes. To fill in this gap, a set of criteria that address the specific necessities of the development of models dedicated to the analysis of logistic systems was proposed. These criteria formed the base of the proposed method. It has incorporated the best characteristics of the works identified in Literature. Its first phase generated a list with softwares with widely recognized efficiency and simplicity that supported the essential criteria through the application of a scoring model. Its second phase used the Analytic Hierarchy Process (AHP) which is recommended for the decision taking based on multiple criteria because it allows the identification and correction of the inconsistencies generated by the human judgment. Two test problems have also been proposed for the development of applications in logistic systems and performance of experiments during the second phase. Arena, ProModel and @Risk, extensively used for education and research in the Polytechnical School of the University of São Paulo, were evaluated during the practical application of the proposed method. The results confirmed the perception acquired during the second phase of the method that Arena and ProModel present similar characteristics. They presented a discrete difference in their total score. The several scenes developed in the sensitivity analysis also ratified this trend.
17

Uma abordagem para a escolha do melhor método de seleção de instâncias usando meta-aprendizagem

MOURA, Shayane de Oliveira 21 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-04-05T14:16:18Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Shayane_FINAL.pdf: 7778172 bytes, checksum: bef887b2265bc2ffe53c75c2c275d796 (MD5) / Made available in DSpace on 2016-04-05T14:16:18Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Shayane_FINAL.pdf: 7778172 bytes, checksum: bef887b2265bc2ffe53c75c2c275d796 (MD5) Previous issue date: 2015-08-21 / IF Sertão - PE / Os sistemas de Descoberta de Conhecimentos em Bases de Dados (mais conhecidos como sistemas KDD) e métodos de Aprendizagem de Máquinas preveem situações, agrupam e reconhecem padrões, entre outras tarefas que são demandas de um mundo no qual a maioria dos serviços está sendo oferecido por meio virtual. Apesar dessas aplicações se preocuparem em gerar informações de fácil interpretação, rápidas e confiáveis, as extensas bases de dados utilizadas dificultam o alcance de precisão unida a um baixo custo computacional. Para resolver esse problema, as bases de dados podem ser reduzidas com o objetivo de diminuir o tempo de processamento e facilitar o seu armazenamento, bem como, guardar apenas informações suficientes e relevantes para a extração do conhecimento. Nesse contexto, Métodos de Seleção de Instâncias (MSIs) têm sido propostos para reduzir e filtrar as bases de dados, selecionando ou criando novas instâncias que melhor as descrevam. Todavia, aqui se aplica o Teorema do No Free Lunch, ou seja, a performance dos MSIs varia conforme a base e nenhum dos métodos sempre sobrepõe seu desempenho aos demais. Por isso, esta dissertação propõe uma arquitetura para selecionar o “melhor” MSI para uma dada base de dados (mais adequado emrelação à precisão), chamadaMeta-CISM (Metalearning for Choosing Instance SelectionMethod). Estratégias de meta-aprendizagem são utilizadas para treinar um meta-classificador que aprende sobre o relacionamento entre a taxa de acerto de MSIs e a estrutura das bases. O Meta-CISM utiliza ainda reamostragem e métodos de seleção de atributos para melhorar o desempenho do meta-classificador. A proposta foi avaliada com os MSIs: C-pruner, DROP3, IB3, ICF e ENN-CNN. Os métodos de reamostragem utilizados foram: Bagging e Combination (método proposto neste trabalho). Foram utilizados como métodos de seleção de atributos: Relief-F, CFS, Chi Square Feature Evaluation e Consistency-Based Subset Evaluation. Cinco classificadores contribuíram para rotular as meta-instâncias: C4.5, PART, MLP-BP, SMO e KNN. Uma MLP-BP treinou o meta-classificador. Os experimentos foram realizados com dezesseis bases de dados públicas. O método proposto (Meta-CISM) foi melhor que todos os MSIs estudados, na maioria dos experimentos realizados. Visto que eficientemente seleciona um dos três melhores MSIs em mais de 85% dos casos, a abordagemé adequada para ser automaticamente utilizada na fase de pré-processamento das base de dados. / The systems for Knowledge Discovery in Databases (better known as KDD systems) andMachine Learning methods predict situations, recognize and group (cluster) patterns, among other tasks that are demands of a world in which the most of the services is being offered by virtual ways. Although these applications are concerned in generate fast, reliable and easy to interpret information, extensive databases used for such applications make difficult achieving accuracy with a low computational cost. To solve this problem, the databases can be reduced aiming to decrease the processing time and facilitating its storage, as well as, to save only sufficient and relevant information for the knowledge extraction. In this context, Instances SelectionMethods (ISMs) have been proposed to reduce and filter databases, selecting or creating new instances that best describe them. Nevertheless, No Free Lunch Theorem is applied, that is, the ISMs performance varies according to the base and none of the methods always overcomes their performance over others. Therefore, this work proposes an architecture to select the "best"ISM for a given database (best suited in relation to accuracy), called Meta-CISM (Meta-learning for Choosing Instance SelectionMethod). Meta-learning strategies are used to train a meta-classifier that learns about the relationship between the accuracy rate of ISMs and the bases structures. TheMeta-CISM still uses resampling and feature selection methods to improve the meta-classifier performance. The proposal was evaluated with the ISMs: C-pruner, DROP3, IB3, ICF and ENN-CNN. Resampling methods used were: Bagging and Combination (method proposed in this work). The Feature SelectionMethods used were: Relief-F, CFS, Chi Square Feature Evaluation e Consistency-Based Subset Evaluation. Five classifiers contributed to label the meta-instances: C4.5, PART, MLP-BP, SMO e KNN. The meta-classifier was trained by a MLP-BP. Experiments were carried with sixteen public databases. The proposed method (Meta-CISM) was better than all ISMs studied in the most of the experiments performed. Since that efficiently selects one of the three best ISMs in more than 85% of cases, the approach is suitable to be automatically used in the pre-processing of the databases.
18

Uma abordagem personalizada no processo de seleção de itens em Testes Adaptativos Computadorizados / A personalized approach to the item selection process in Computerized Adaptive Testing

Victor Miranda Gonçalves Jatobá 08 October 2018 (has links)
Testes Adaptativos Computadorizados (CAT) baseados na Teoria de Resposta ao Item permitem fazer testes mais precisos com um menor número de questões em relação à prova clássica feita a papel. Porém a construção de CAT envolve alguns questionamentos-chave, que quando feitos de forma adequada, podem melhorar ainda mais a precisão e a eficiência na estimativa das habilidades dos respondentes. Um dos principais questionamentos está na escolha da Regra de Seleção de Itens (ISR). O CAT clássico, faz uso, exclusivamente, de uma ISR. Entretanto, essas regras possuem vantagens, entre elas, a depender do nível de habilidade e do estágio em que o teste se encontra. Assim, o objetivo deste trabalho é reduzir o comprimento de provas dicotômicas - que consideram apenas se a resposta foi correta ou incorreta - que estão inseridas no ambiente de um CAT que faz uso, exclusivo, de apenas uma ISR sem perda significativa de precisão da estimativa das habilidades. Para tal, cria-se a abordagem denominada ALICAT que personaliza o processo de seleção de itens em CAT, considerando o uso de mais de uma ISR. Para aplicar essa abordagem é necessário primeiro analisar o desempenho de diferentes ISRs. Um estudo de caso na prova de Matemática e suas tecnologias do ENEM de 2012, indica que a regra de seleção de Kullback-Leibler com distribuição a posteriori (KLP) possui melhor desempenho na estimativa das habilidades dos respondentes em relação as regras: Informação de Fisher (F); Kullback-Leibler (KL); Informação Ponderada pela Máxima Verossimilhança (MLWI); e Informação ponderada a posteriori (MPWI). Resultados prévios da literatura mostram que CAT utilizando a regra KLP conseguiu reduzir a prova do estudo de caso em 46,6% em relação ao tamanho completo de 45 itens sem perda significativa na estimativa das habilidades. Neste trabalho, foi observado que as regras F e a MLWI tiveram melhor desempenho nos estágios inicias do CAT, para estimar respondentes com níveis de habilidades extremos negativos e positivos, respectivamente. Com a utilização dessas regras de seleção em conjunto, a abordagem ALICAT reduziu a mesma prova em 53,3% / Computerized Adaptive Testing (CAT) based on Item Response Theory allows more accurate assessments with fewer questions than the classic paper test. Nonetheless, the CAT building involves some key questions that, when done properly, can further improve the accuracy and efficiency in estimating examinees\' abilities. One of the main questions is in regard to choosing the Item Selection Rule (ISR). The classic CAT makes exclusive use of one ISR. However, these rules have differences depending on the examinees\' ability level and on the CAT stage. Thus, the objective of this work is to reduce the dichotomous - which considers only correct and incorrect answers - test size which is inserted on a classic CAT without significant loss of accuracy in the estimation of the examinee\'s ability level. For this purpose, we create the ALICAT approach that personalizes the item selection process in a CAT considering the use of more than one ISR. To apply this approach, we first analyze the performance of different ISRs. The case study in textit test of the ENEM 2012 shows that the Kullback-Leibler Information with a Posterior Distribution (KLP) has better performance in the examinees\' ability estimation when compared with: Fisher Information (F); Kullback-Leibler Information (KL); Maximum Likelihood Weighted Information(MLWI); and Maximum Posterior Weighted Information (MPWI) rules. Previous results in the literature show that CAT using KLP was able to reduce this test size by 46.6% from the full size of 45 items with no significant loss of accuracy in estimating the examinees\' ability level. In this work, we observe that the F and the MLWI rules performed better on early CAT stages to estimate examinees proficiency level with extreme negative and positive values, respectively. With this information, we were able to reduce the same test by 53.3% using an approach that uses the best rules together
19

Uma abordagem personalizada no processo de seleção de itens em Testes Adaptativos Computadorizados / A personalized approach to the item selection process in Computerized Adaptive Testing

Jatobá, Victor Miranda Gonçalves 08 October 2018 (has links)
Testes Adaptativos Computadorizados (CAT) baseados na Teoria de Resposta ao Item permitem fazer testes mais precisos com um menor número de questões em relação à prova clássica feita a papel. Porém a construção de CAT envolve alguns questionamentos-chave, que quando feitos de forma adequada, podem melhorar ainda mais a precisão e a eficiência na estimativa das habilidades dos respondentes. Um dos principais questionamentos está na escolha da Regra de Seleção de Itens (ISR). O CAT clássico, faz uso, exclusivamente, de uma ISR. Entretanto, essas regras possuem vantagens, entre elas, a depender do nível de habilidade e do estágio em que o teste se encontra. Assim, o objetivo deste trabalho é reduzir o comprimento de provas dicotômicas - que consideram apenas se a resposta foi correta ou incorreta - que estão inseridas no ambiente de um CAT que faz uso, exclusivo, de apenas uma ISR sem perda significativa de precisão da estimativa das habilidades. Para tal, cria-se a abordagem denominada ALICAT que personaliza o processo de seleção de itens em CAT, considerando o uso de mais de uma ISR. Para aplicar essa abordagem é necessário primeiro analisar o desempenho de diferentes ISRs. Um estudo de caso na prova de Matemática e suas tecnologias do ENEM de 2012, indica que a regra de seleção de Kullback-Leibler com distribuição a posteriori (KLP) possui melhor desempenho na estimativa das habilidades dos respondentes em relação as regras: Informação de Fisher (F); Kullback-Leibler (KL); Informação Ponderada pela Máxima Verossimilhança (MLWI); e Informação ponderada a posteriori (MPWI). Resultados prévios da literatura mostram que CAT utilizando a regra KLP conseguiu reduzir a prova do estudo de caso em 46,6% em relação ao tamanho completo de 45 itens sem perda significativa na estimativa das habilidades. Neste trabalho, foi observado que as regras F e a MLWI tiveram melhor desempenho nos estágios inicias do CAT, para estimar respondentes com níveis de habilidades extremos negativos e positivos, respectivamente. Com a utilização dessas regras de seleção em conjunto, a abordagem ALICAT reduziu a mesma prova em 53,3% / Computerized Adaptive Testing (CAT) based on Item Response Theory allows more accurate assessments with fewer questions than the classic paper test. Nonetheless, the CAT building involves some key questions that, when done properly, can further improve the accuracy and efficiency in estimating examinees\' abilities. One of the main questions is in regard to choosing the Item Selection Rule (ISR). The classic CAT makes exclusive use of one ISR. However, these rules have differences depending on the examinees\' ability level and on the CAT stage. Thus, the objective of this work is to reduce the dichotomous - which considers only correct and incorrect answers - test size which is inserted on a classic CAT without significant loss of accuracy in the estimation of the examinee\'s ability level. For this purpose, we create the ALICAT approach that personalizes the item selection process in a CAT considering the use of more than one ISR. To apply this approach, we first analyze the performance of different ISRs. The case study in textit test of the ENEM 2012 shows that the Kullback-Leibler Information with a Posterior Distribution (KLP) has better performance in the examinees\' ability estimation when compared with: Fisher Information (F); Kullback-Leibler Information (KL); Maximum Likelihood Weighted Information(MLWI); and Maximum Posterior Weighted Information (MPWI) rules. Previous results in the literature show that CAT using KLP was able to reduce this test size by 46.6% from the full size of 45 items with no significant loss of accuracy in estimating the examinees\' ability level. In this work, we observe that the F and the MLWI rules performed better on early CAT stages to estimate examinees proficiency level with extreme negative and positive values, respectively. With this information, we were able to reduce the same test by 53.3% using an approach that uses the best rules together
20

多重移動平均選股法理論與實證 - 以台灣50、中型100及富櫃50成份股為例 / Theory and Evidence for Multi-period Moving Average Stock Selection - a Case Study of Constituent Stocks from Taiwan 50, Mid-Cap 100 and Gretai 50

官佑謙, You-Cian Guan January 1900 (has links)
本文改良金融投資技術分析操作方法中, 傳統的「單一移動平均」選股法為「多重移動平均」選股法, 其係以道氏理論上, 所謂的市場同時存在三種趨勢 (主要趨勢, 次級趨勢, 小型趨勢) 為基礎, 建立多重時間架構, 輔以移動平均線為股價趨勢判斷, 以及葛蘭碧八大法則之股價突破 (或跌破) 判斷原則作為操作訊號, 所彚整而提出。實證上, 採用2014年12月31日台灣證券交易所公告之台灣50、中型100, 以及富櫃50成分股為樣本, 並以2001年1月1日至2014年12月31日為回溯期間。在進行策略交易的模擬分析與績效差異檢定後, 實證結果發現, 多重移動平均選股法投資策略績效, 在統計分析上並無法較單一周期投資策略績效為優, 但卻能有效過濾沒必要的交易行為, 使突破買進之假訊號降低, 間接的降低交易次數及減少交易成本。 / This study enhanced from the traditional single period moving average for stock selection into multiple-period moving average counterpart. The theoretical foundation comes from the Dow Theory, which states that there exist three trends simultaneously, that is, major trend, secondary trend, and minor trend. Also, the Granville Rules suggest stock price breaking out may serve as entry and exit signal for trading. Our sample are grouped into three subsamples, Taiwan 50, Mid-Cap 100, Gretai 50. The sample period ranges from 2001/1/1 to 2014/12/31. Our empirical backtesting and performance test suggests that, contrary to our expectations, the multiple period method does not outperform its single period counterpart. However, the multiple period stock selection method may filter out false signals, and thereby reduce not only possible price risk associated with noisy trades but the accompanying transaction costs. / 摘要 I Abstract II 致謝詞 III 目錄 V 圖次 VII 表次 VIII 第一章 緒論 1 第一節 研究背景及動機 1 第二節 研究目的 2 第三節 研究對象與範圍 2 第四節 研究流程 4 第二章 文獻回顧 6 第一節 技術分析理論 6 一、技術分析基本邏輯 6 二、技術分析主要的型態類型 7 第二節 移動平均線的原理 9 一、簡單移動平均線的計算 9 二、移動平均線的常見應用 9 第三節 多重移動平均理論及選股法 11 一、多重移動平均的原理 11 二、多重移動平均的選股模式 11 第四節 相關研究文獻回顧與評析 11 一、過去研究文獻 11 二、文獻評析 16 三、本文假說推論 16 第三章 研究方法 17 第一節 傳統移動平均線選股模式 17 第二節 YC指標選股模式 17 第三節 選股模式績效差異檢定 19 第四節 資料來源與變數選取 19 第四章 實證分析 20 第一節 操作策略績效估計 20 第二節 操作策略績效比較 28 第三節 多重策略模型之適性歸納–由規模的角度 36 第五章 結論與建議 43 參考文獻 44 中文部份 44 英文部份 46 參考網址 46 圖次 圖1-4-1 研究流程圖 5 圖2-1-1 型態類技術理論的基本分類 6 圖2-1-2 市場同時存在三種趨勢 7 圖2-1-3 K線的基本構造 8 圖2-2-1 葛蘭碧(Granville)八大法則概念圖 10 表次 表1-3-1 台股之台灣50成分股 2 表1-3-2 台股之中型100成分股 3 表1-3-3 台股之富櫃50成分股 3 表2-4-1 過去研究文獻的整理 14 表4-1-1 台灣50成份股總交易次數及成本 20 表4-1-2 中型100成份股總交易次數及成本 22 表4-1-3 富櫃50成份股總交易次數及成本 26 表4-1-4 單一與多重模式下交易次數與進出場交易成本彚整 28 表4-2-1 台灣50成份股總報酬及總報酬率 28 表4-2-2 中型100成份股總報酬及總報酬率 30 表4-2-3 富櫃50成份股總報酬及總報酬率 34 表4-2-4 單一與多重策略下的平均總報酬與平均總報酬率彚整 36 表4-3-1 多重策略下總報酬率與市值之迴歸分析 36 表4-3-2 多重策略下總報酬率與股本之迴歸分析 37 表4-3-3 台灣50股本前20%成份股之策略績效及差異比較 37 表4-3-4 台灣50股本後20%成份股之策略績效及差異比較 38 表4-3-5 中型100股本前20%成份股之策略績效及差異比較 39 表4-3-6 中型100股本後20%成份股之策略績效及差異比較 40 表4-3-7 富櫃50股本前20%成份股之策略績效及差異比較 41 表4-3-8 富櫃50股本後20%成份股之策略績效及差異比較 42

Page generated in 0.0868 seconds