• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 217
  • 14
  • 6
  • 3
  • Tagged with
  • 241
  • 241
  • 197
  • 172
  • 65
  • 63
  • 45
  • 45
  • 43
  • 39
  • 34
  • 32
  • 31
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

ALGORITMO CO-EVOLUTIVO PARA PARTICIONAMENTO DE DADOS E SELEÇÃO DE VARIÁVEIS EM PROBLEMA DE CALIBRAÇÃO MULTIVARIADA.

Ramos, Jorcivan Silva 07 July 2015 (has links)
Made available in DSpace on 2016-08-10T10:40:28Z (GMT). No. of bitstreams: 1 Jorcivan Silva Ramos.pdf: 779202 bytes, checksum: e48a074121bf6a4260fb48b0324ff286 (MD5) Previous issue date: 2015-07-07 / This paper presents the development of a co-evolutionary genetic algorithm for the selection of samples from a data set and the selection of variables from the samples selected in the context of multivariate calibration . Each sample is divided into the calibration set for the preparation of the model and validating the calibration set of model. The algorithm selects samples variables with the goal of building the calibration models. The results show that the data sets selected by the proposed algorithm models to produce better predictive ability of the models reported in the literature. / Esse trabalho apresenta o desenvolvimento de um algoritmo genético co-evolutivo para a seleção de amostras a partir de um conjunto de dados e a seleção de variáveis a partir das amostras selecionadas no contexto da calibração multivariada. Cada amostra é dividida em conjunto de calibração para a confecção do modelo e conjunto de validação do modelo de calibração. O algoritmo seleciona amostras e variáveis com o objetivo de construir modelos de calibração. Os resultados mostram que os conjuntos de dados selecionados pelo algoritmo proposto produzem modelos com melhor capacidade preditiva do que os modelos relatados na literatura.
132

Adaptação do HCM-2000 para determinação do nível de serviço em rodovias de pista simples sem faixas adicionais no Brasil / Adaptation of the HCM-2000 to estimate the level of service for two-lane highways without auxiliary lanes Brazil

Egami, Cintia Yumiko 04 May 2006 (has links)
O objetivo desta tese é adaptar os procedimentos do Highway Capacity Manual 2000, para que possam melhor estimar a qualidade de serviço nas condições de tráfego encontradas em rodovias de pista simples estudadas. Para isto, foi desenvolvido um programa para calibração automática do simulador TRARR, baseado em um algoritmo genético e implementado em Perl. A calibração, que usa dados de velocidade e porcentagem de veículos em pelotões, coletado por meio de filmagens nos locais estudados, foi feita simultaneamente para cinco trechos diferentes, para que o simulador fosse capaz de reproduzir as características de um trecho típico de rodovia de pista simples do estado de São Paulo. Para garantir a qualidade dos resultados das simulações realizadas com o modelo recalibrado, procedeu-se à sua validação, usando-se um conjunto independente da dados. Partindo-se do pressuposto que a estrutura geral do método deveria ser mantida, a adaptação do HCM-2000 consistiu em obter novos valores para os diversos fatores de ajuste usados no processo de estimativa do nível de serviço. Para tanto, foram reproduzidos os experimentos de simulação realizados no desenvolvimento do procedimento para análise de rodovias de pista simples, à exceção do uso da versão recalibrada TRARR no lugar do simulador TWOPAS. Os fatores de ajuste adaptados foram: fator de pico horário (PHF), fator de ajuste de rampas (fG), fator de equivalência veicular (ET), fator para o efeito de zonas de ultrapassagem proibida (fnp) e fator de ajuste para o efeito combinado da divisão direcional do tráfego e de zonas de ultrapassagem proibida (fd/np). Com exceção do PHF, todos os demais fatores foram obtidos a partir de resultados de simulação. Os níveis de serviço observados nos cinco trechos estudados foram comparados com estimativas obtidas com a versão original do HCM-2000 e com a adaptação proposta. Os resultados desta comparação mostram que as estimativas obtidas com a adaptação proposta são mais precisas que as obtidas usando-se os valores originais do HCM-2000. / This thesis objective is to adapt the Highway Manual Capacity 2000, procedures to produce better estimates of service level and capacity for two-lane highways studied, In order to do this, an automatic calibration system, implementing a genetic algorithm and coded in Perl, was used to obtain a recalibrated version of TRARR, a two-lane highway simulation model. The calibration, that which uses speed and percent vehicles traveling in platoons data collected by videotaping, was carried out simultaneously for five different road segments, so that the recalibrated model would be able to reproduce traffic behavior on a typical two-lane road in the state of São Paulo, Brazil. The recalibrated model was validated using a second, independent, set of data. Based on the assumption that the general framework of the methodology should be kept, the adaptation was achieved by obtaining new values for the adjustment factors used in the procedure. Thus, the simulation experiments used in the development of HCM-2000 methodology were reproduced using the recalibrated TRARR model. The following adjustment factors were adapted: peak hour factor (PHF), grade adjustment factor (fG), heavy vehicle equivalence factor (ET), adjustment factor for the effect of non-passing zones (fnp) and adjustment factor for combined effect of directional distribution of traffic and percentage of no-passing zones (fd/np). With the exception of the PHF, all factors were obtained from simulation results. In order to assess the accuracy of the proposed adaptation observed levels of service were compared to the estimates obtained through the original HCM-2000 procedure and the modified procedure. The results of these comparisons clearly show that the estimates obtained using the proposed values for the adjustment factors are closer to the observed levels of service than the estimates obtained using the original values for the adjustment factors.
133

Transformação de espaços métricos otimizando a recuperação de imagens por conteúdo e avaliação por análise visual / Metric space transformation optimizing content-based image retrieval and visual analysis evaluation

Avalhais, Letrícia Pereira Soares 30 January 2012 (has links)
O problema da descontinuidade semântica tem sido um dos principais focos de pesquisa no desenvolvimento de sistemas de recuperação de imagens baseada em conteúdo (CBIR). Neste contexto, as pesquisas mais promissoras focam principalmente na inferência de pesos de características contínuos e na seleção de características. Entretanto, os processos tradicionais de inferência de pesos contínuos são computacionalmente caros e a seleção de características equivale a uma ponderação binária. Visando tratar adequadamente o problema de lacuna semântica, este trabalho propõe dois métodos de transformação de espaço de características métricos baseados na inferência de funções de transformação por meio de algoritmo genético. O método WF infere funções de ponderação para ajustar a função de dissimilaridade e o método TF infere funções para transformação das características. Comparados às abordagens de inferência de pesos contínuos da literatura, ambos os métodos propostos proporcionam uma redução drástica do espaço de busca ao limitar a busca à escolha de um conjunto ordenado de funções de transformação. Análises visuais do espaço transformado e de gráficos de precisão vs. revocação confirmam que TF e WF superam a abordagem tradicional de ponderação de características. Adicionalmente, foi verificado que TF supera significativamente WF em termos de precisão dos resultados de consultas por similaridade por permitir transformação não lineares no espaço de característica, conforme constatado por análise visual. / The semantic gap problem has been a major focus of research in the development of content-based image retrieval (CBIR) systems. In this context, the most promising research focus primarily on the inference of continuous feature weights and feature selection. However, the traditional processes of continuous feature weighting are computationally expensive and feature selection is equivalent to a binary weighting. Aiming at alleviating the semantic gap problem, this master dissertation proposes two methods for the transformation of metric feature spaces based on the inference of transformation functions using Genetic Algorithms. The WF method infers weighting functions and the TF method infers transformation functions for the features. Compared to the existing methods, both proposed methods provide a drastic searching space reduction by limiting the search to the choice of an ordered set of transformation functions. Visual analysis of the transformed space and precision. vs. recall graphics confirm that both TF and WF outperform the traditional feature eighting methods. Additionally, we found that TF method significantly outperforms WF regarding the query similarity accuracy by performing non linear feature space transformation, as found in the visual analysis.
134

Estudo do impacto de veículos pesados sobre a infra-estrutura rodoviária através de simulação microscópica de tráfego / Study of heavy vehicles impact on highway infra-structure through microscopic traffic simulation

Araújo, Juliana Jerônimo de 13 April 2007 (has links)
O objetivo desta pesquisa foi desenvolver um método para estabelecer o efeito das características e da operação dos veículos pesados sobre a infra-estrutura rodoviária através do uso de resultados de simulação microscópica de tráfego. Para tanto, foram definidos dois objetivos secundários. O primeiro deles envolveu a obtenção de um banco de dados detalhado sobre as características de 6.253 veículos pesados. Esses dados foram coletados em sete balanças localizadas em rodovias de pista dupla do estado de São Paulo. O segundo objetivo secundário consistiu na calibração e validação do simulador de tráfego CORSIM com o auxílio de um algoritmo genético, que adaptou simultaneamente 19 parâmetros do simulador para que ele reproduzisse adequadamente as características e o comportamento do tráfego observado em um trecho de rodovia de pista dupla paulista. A metodologia desenvolvida é demonstrada através da realização de um estudo de caso em que foram simulados dois cenários de tráfego e em que foi considerada uma ponte hipotética com 100 m de extensão. Nele, foram determinadas as probabilidades de ocorrências simultâneas dos veículos pesados sobre a ponte. As conclusões da pesquisa indicam que o método de calibração de simuladores de tráfego com uso de um algoritmo genético mostrou-se eficaz, reduzindo o erro médio de 9,11% para 6,32%. Além disso, as conclusões revelam que a obtenção de um carregamento móvel a partir de dados extraídos de um simulador de tráfego é possível e que a associação dos dados simulados a um banco de dados detalhado permite o cálculo do efeito do tráfego dos veículos pesados sobre a infra-estrutura rodoviária. Do estudo de caso, pode-se concluir que: (1) a probabilidade de ocorrência simultânea de veículos pesados sobre a ponte é muito freqüente e está diretamente relacionada às características do fluxo de tráfego e; (2) a distribuição das cargas e seus respectivos valores são fatores determinantes para o cálculo dos esforços. Os resultados do estudo de caso demonstram a viabilidade do procedimento proposto. / The objective of this research was to develop a method for establishing the effect of heavy vehicles characteristics and operation on highway infra-structure by using the results of a microscopic traffic simulation model. Therefore, two secondary objectives were defined. The first of them involved the attainment of a detailed database containing the characteristics of 6,253 heavy vehicles. This data was collected at seven weight stations located on the state of São Paulo multilane highways. The other secondary objective was to calibrate and validate CORSIM by using a genetic algorithm, which simultaneously adapted 19 model parameters in order to appropriately reproduce the characteristics and the behavior of the observed traffic flow. The developed methodology is demonstrated through a case study in which two traffic scenarios were simulated and in which a hypothetic 100 m bridge was considered. In the case study, the probabilities of simultaneous presence of heavy vehicles on the bridge were determined. The conclusions of this research indicate that the method of calibrating a traffic simulation model utilizing a genetic algorithm was efficient, reducing the mean error from 9.11% to 6.32%. Additionally, the conclusions reveal that the attainment of a live load from extracted data through a traffic simulation model is possible and that the association of simulated data with a detailed database allows the estimation of heavy vehicle traffic effect on highway infra-structure. From the case study, it can be concluded that: (1) the probability of simultaneous presence of heavy vehicles on the bridge is very frequent and; (2) the loads distribution and its respective values are determinant in calculating efforts. The case study results demonstrate the proposed procedure viability.
135

Algoritmo de otimização híbrido para a coordenação de relés direcionais de sobrecorrente em um sistema elétrico malhado / Hybrid optimization algorithm for directional overcurrent relay coordination in meshed power system

Bottura, Fernando Bambozzi 29 January 2014 (has links)
Esta pesquisa tem como objetivo apresentar um método para a coordenação dos Relés Direcionais de Sobrecorrente (RDS) associados ao sistema de proteção de um Sistema Elétrico de Potência (SEP) malhado. O SEP malhado, referente a uma parte do sistema de subtransmissão da rede básica brasileira, em concessão da Companhia de Transmissão de Energia Elétrica Paulista (CTEEP), foi simulado via o software CAPE (Computer-Aided Protection Engineering) a partir da base de dados, para estudos de curtos-circuitos, disponibilizada pelo Operador Nacional do Sistema (ONS). Dada a topologia e a operação do SEP malhado em análise, um método de otimização híbrido foi implementado baseado na combinação e aplicação de Programação Linear (PL) e Algoritmo Genético (AG). O algoritmo desenvolvido permitiu a realização de diversos estudos de curtos-circuitos necessários para a obtenção e avaliação da coordenação dos pares de RDS, tanto para a topologia principal do SEP em análise, como para outras configurações de operação caracterizadas, principalmente, pela alteração topológica do SEP. Os resultados demonstram que o algoritmo foi capaz de fornecer uma coordenação adequada para os RDS, respeitando todas as restrições impostas pelo problema de coordenação. / The aim of this work is to present a method for directional overcurrent relays coordination in a meshed power system which is part of the Brazilian power transmission system operated by São Paulo State Electric Power Transmission Company (CTEEP - Companhia de Transmissão de Energia Elétrica Paulista). This power system was simulated by CAPE (Computer-Aided Protection Engineering) software using the database of short circuits studies which is provided by the Electric System National Operator (ONS - Operador Nacional do Sistema). Given a specific power system topology and its operating conditions, the hybrid algorithm was developed based on the combination and execution of linear programming and genetic algorithm. Several short circuits scenarios were evaluated in order to obtain and assess the coordination between the pairs of directional overcurrent relays. In such scenarios, it was considered the main network topology, as well as other network operating conditions, mainly caused by certain topological variations. The results show that the hybrid algorithm provided a feasible coordination solution for the considered directional overcurrent relays.
136

"Extração de conhecimento de redes neurais artificiais utilizando sistemas de aprendizado simbólico e algoritmos genéticos" / Extraction of knowledge from Artificial Neural Networks using Symbolic Machine Learning Systems and Genetic Algorithm

Milaré, Claudia Regina 24 June 2003 (has links)
Em Aprendizado de Máquina - AM não existe um único algoritmo que é sempre melhor para todos os domínios de aplicação. Na prática, diversas pesquisas mostram que Redes Neurais Artificiais - RNAs têm um 'bias' indutivo apropriado para diversos domínios. Em razão disso, RNAs têm sido aplicadas na resolução de vários problemas com desempenho satisfatório. Sistemas de AM simbólico possuem um 'bias' indutivo menos flexível do que as RNAs. Enquanto que as RNAs são capazes de aprender qualquer função, sistemas de AM simbólico geralmente aprendem conceitos que podem ser descritos na forma de hiperplanos. Por outro lado, sistemas de AM simbólico representam o conceito induzido por meio de estruturas simbólicas, as quais são geralmente compreensíveis pelos seres humanos. Assim, sistemas de AM simbólico são preferíveis quando é essencial a compreensibilidade do conceito induzido. RNAs carecem da capacidade de explicar suas decisões, uma vez que o conhecimento é codificado na forma de valores de seus pesos e 'thresholds'. Essa codificação é difícil de ser interpretada por seres humanos. Em diversos domínios de aplicação, tal como aprovação de crédito e diagnóstico médico, prover uma explicação sobre a classificação dada a um determinado caso é de crucial importância. De um modo similar, diversos usuários de sistemas de AM simbólico desejam validar o conhecimento induzido, com o objetivo de assegurar que a generalização feita pelo algoritmo é correta. Para que RNAs sejam aplicadas em um maior número de domínios, diversos pesquisadores têm proposto métodos para extrair conhecimento compreensível de RNAs. As principais contribuições desta tese são dois métodos que extraem conhecimento simbólico de RNAs. Os métodos propostos possuem diversas vantagens sobre outros métodos propostos previamente, tal como ser aplicáveis a qualquer arquitetura ou algoritmo de aprendizado de RNAs supervisionadas. O primeiro método proposto utiliza sistemas de AM simbólico para extrair conhecimento de RNAs, e o segundo método proposto estende o primeiro, combinado o conhecimento induzido por diversos sistemas de AM simbólico por meio de um Algoritmo Genético - AG. Os métodos propostos são analisados experimentalmente em diversos domínios de aplicação. Ambos os métodos são capazes de extrair conhecimento simbólico com alta fidelidade em relação à RNA treinada. Os métodos propostos são comparados com o método TREPAN, apresentando resultados promissores. TREPAN é um método bastante conhecido para extrair conhecimento de RNAs. / In Machine Learning - ML there is not a single algorithm that is the best for all application domains. In practice, several research works have shown that Artificial Neural Networks - ANNs have an appropriate inductive bias for several domains. Thus, ANNs have been applied to a number of data sets with high predictive accuracy. Symbolic ML algorithms have a less flexible inductive bias than ANNs. While ANNs can learn any input-output mapping, i.e., ANNs have the universal approximation property, symbolic ML algorithms frequently learn concepts describing them using hyperplanes. On the other hand, symbolic algorithms are needed when a good understating of the decision process is essential, since symbolic ML algorithms express the knowledge induced using symbolic structures that can be interpreted and understood by humans. ANNs lack the capability of explaining their decisions since the knowledge is encoded as real-valued weights and biases of the network. This encoding is difficult to be interpreted by humans. In several application domains, such as credit approval and medical diagnosis, providing an explanation related to the classification given to a certain case is of crucial importance. In a similar way, several users of ML algorithms desire to validate the knowledge induced, in order to assure that the generalization made by the algorithm is correct. In order to apply ANNs to a larger number of application domains, several researches have proposed methods to extract comprehensible knowledge from ANNs. The primary contribution of this thesis consists of two methods that extract symbolic knowledge, expressed as decision rules, from ANNs. The proposed methods have several advantages over previous methods, such as being applicable to any architecture and supervised learning algorithm of ANNs. The first method uses standard symbolic ML algorithm to extract knowledge from ANNs, and the second method extends the first method by combining the knowledge induced by several symbolic ML algorithms through the application of a Genetic Algorithm - GA. The proposed methods are experimentally analyzed in a number of application domains. Results show that both methods are capable to extract symbolic knowledge having high fidelity with trained ANNs. The proposed methods are compared with TREPAN, showing promising results. TREPAN is a well known method to extract knowledge from ANNs.
137

Controle coerente das bandas de emissão do ZnO através de algoritmo genético / Coherent control of the emission bands of ZnO using genetic algorithms

Martins, Renato Juliano 14 February 2012 (has links)
Neste trabalho, investigamos o controle coerente das bandas de emissão, excitadas via absorção multifotônica, em um cristal de óxido de Zinco (ZnO) através das formatação de pulsos laser ultracurtos (790 nm, 30 fs, 80 MHz e 5 nJ). O ZnO vem se mostrado um possível candidato a dispositivos fotônicos devido a sua grande energia de ligação de éxciton (60 meV).Inicialmente, implementamos a montagem experimental do sistema de formatação de pulsos, bem como de excitação e coleta da fluorescência do ZnO. O controle coerente foi feito através de um programa baseado em um algoritmo genético (GA), também desenvolvido no transcorrer deste trabalho. Através do algoritmo genético, observamos um ganho significativo da emissão do ZnO por meio de fases espectrais impostas ao pulso laser. Monitorando o traço de autocorrelação do pulso, inferimos que este se torna mais longo após a otimização das bandas de emissão via GA. Além disso, verificamos que as funções de fase que otimizam o processo são complexas e oscilatórias. Através da análise das componentes principais (PCA), fizemos uma análise do conjunto de dados providos pelo GA, onde observamos que este método pode ser usado como um filtro para os dados, suavizando as curvas e enfatizando os aspectos mais importantes das máscaras de fase obtidas pelo controle coerente. Por fim investigamos qual a importância das máscaras suavizadas para o entendimento físico do processo. / In this work, we investigate the coherent control of the emission bands, excited via multiphoton absorption, in a zinc oxide crystal (ZnO) by pulse shaping ultrashort laser pulses (790 nm, 30 fs, 5 nJ and 80 MHz). ZnO has been preposed as a potential material for photonic devices due to its strong exciton binding energy(60 meV). Initially, we have implemented the pulse shaper experimental setup, as well as the fluorescence measurements of ZnO. The coherent control was carried out through genetic algorithm (GA) based software, also developed in the course of this work. Using the genetic algorithm, we have observed a significant increase in the ZnO emission when appropriated spectral phase masks are applied to the laser pulse. Autocorrelation measurements were used to infer the pulse duration, which get longer after optimization of the emission band via GA. Additionally, we have found that the phase masks that optimize the process are complex oscillatory functions. Through the Principal Component Analysis, we analyzed the data provided by the GA and observed that it can be used to filter the data, smoothing the curves and highlighting the most important aspects of phase masks obtained by the coherent control. Finally we investigate how important the smoothed masks are for the physical understanding of the process.
138

Uma abordagem para o problema de carregamento de navios-contêineres através do emprego de metaheurísticas baseadas na codificação por regras

Carraro, Luziana Ferronatto 25 March 2013 (has links)
Submitted by William Justo Figueiro (williamjf) on 2015-07-27T20:23:06Z No. of bitstreams: 1 09d.pdf: 2136888 bytes, checksum: 8bc73fd7975259c3bc984b913580a5c1 (MD5) / Made available in DSpace on 2015-07-27T20:23:06Z (GMT). No. of bitstreams: 1 09d.pdf: 2136888 bytes, checksum: 8bc73fd7975259c3bc984b913580a5c1 (MD5) Previous issue date: 2013 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Com a expansão do transporte marítimo, passou a ser adotado o uso de contêineres para o transporte de cargas, sendo evidenciados alguns problemas. Dentre eles, um dos principais, é o problema de carregamento e descarregamento de contêineres em navios. O problema surge devido aos altos custos operacionais gerados a partir da movimentação de contêineres. Este problema é o foco desta pesquisa, que tem como objetivo principal elaborar planos de carga eficientes que gerem um número mínimo de movimentações de contêineres, nas operações de carga e descarga de navios-contêineres, diminuindo assim os custos de operação. Neste trabalho, é proposta a aplicação da metaheurística Algoritmo Genético e da metaheurística Enxame de Abelhas, resolvendo o problema através de uma codificação baseada em regras de carregamento e descarregamento. A codificação por regras é compacta e adequada, assegurando que as soluções do problema sejam factíveis e de simples representação, acelerando o processo de solução. Nos experimentos realizados, as duas metaheurísticas foram empregadas, assumindo diferentes configurações de regras, com o intuito de comparar o seu desempenho. A proposta de novas regras de carregamento e descarregamento, em complemento às existentes na literatura, trouxeram bons resultados. Desta forma, foram obtidas soluções de boa qualidade e melhores que aquelas encontradas na literatura que abordam o mesmo problema. / With the expansion of maritime transportation, the use of containers for goods transportation has increased, being evidenced some problems. Among these problems, the container ship stowage problem arose as one of the main problems due to the high operational costs related to movement of containers. This problem is the focus of this research, where the main objective is the formulation of stowage plans that generate a minimum number of container shiftings in the operations of loading and unloading performed in port calls of container ships. In order to determine a suitable stowage plan, the application of Genetic Algorithm and Bee Swarm Optimization metaheuristics are proposed to solve the problem by using a rule-based encoding for the solution. The solution encoding based on loading and unloading rules is compact and suitable, ensuring the feasibility of solutions and also the simple representation of it, speeding up the solution procedures. In the performed experiments, both metaheuristics were applied assuming different rules settings with the objective to compare each performance. The proposal of new rules of loading and unloading, in addition with those existing in literature, has produced good solutions. Thereby, good quality solutions were achieved and also better than that found in the literature which discuss the same problem
139

Seleção entre estratégias de geração automática de dados de teste por meio de métricas estáticas de softwares orientados a objetos / Selection between whole test generation strategies by analysing object oriented software static metrics

Ramos, Gustavo da Mota 09 October 2018 (has links)
Produtos de software com diferentes complexidades são criados diariamente através da elicitação de demandas complexas e variadas juntamente a prazos restritos. Enquanto estes surgem, altos níveis de qualidade são esperados para tais, ou seja, enquanto os produtos tornam-se mais complexos, o nível de qualidade pode não ser aceitável enquanto o tempo hábil para testes não acompanha a complexidade. Desta maneira, o teste de software e a geração automática de dados de testes surgem com o intuito de entregar produtos contendo altos níveis de qualidade mediante baixos custos e rápidas atividades de teste. Porém, neste contexto, os profissionais de desenvolvimento dependem das estratégias de geração automáticas de testes e principalmente da seleção da técnica mais adequada para conseguir maior cobertura de código possível, este é um fator importante dados que cada técnica de geração de dados de teste possui particularidades e problemas que fazem seu uso melhor em determinados tipos de software. A partir desde cenário, o presente trabalho propõe a seleção da técnica adequada para cada classe de um software com base em suas características, expressas por meio de métricas de softwares orientados a objetos a partir do algoritmo de classificação Naive Bayes. Foi realizada uma revisão bibliográfica de dois algoritmos de geração, algoritmo de busca aleatório e algoritmo de busca genético, compreendendo assim suas vantagens e desvantagens tanto de implementação como de execução. As métricas CK também foram estudadas com o intuito de compreender como estas podem descrever melhor as características de uma classe. O conhecimento adquirido possibilitou coletar os dados de geração de testes de cada classe como cobertura de código e tempo de geração a partir de cada técnica e também as métricas CK, permitindo assim a análise destes dados em conjunto e por fim execução do algoritmo de classificação. Os resultados desta análise demonstraram que um conjunto reduzido e selecionado das métricas CK é mais eficiente e descreve melhor as características de uma classe se comparado ao uso do conjunto por completo. Os resultados apontam também que as métricas CK não influenciam o tempo de geração dos dados de teste, entretanto, as métricas CK demonstraram correlação moderada e influência na seleção do algoritmo genético, participando assim na sua seleção pelo algoritmo Naive Bayes / Software products with different complexity are created daily through analysis of complex and varied demands together with tight deadlines. While these arise, high levels of quality are expected for such, as products become more complex, the quality level may not be acceptable while the timing for testing does not keep up with complexity. In this way, software testing and automatic generation of test data arise in order to deliver products containing high levels of quality through low cost and rapid test activities. However, in this context, software developers depend on the strategies of automatic generation of tests and especially on the selection of the most adequate technique to obtain greater code coverage possible, this is an important factor given that each technique of data generation of test have peculiarities and problems that make its use better in certain types of software. From this scenario, the present work proposes the selection of the appropriate technique for each class of software based on its characteristics, expressed through object oriented software metrics from the naive bayes classification algorithm. Initially, a literature review of the two generation algorithms was carried out, random search algorithm and genetic search algorithm, thus understanding its advantages and disadvantages in both implementation and execution. The CK metrics have also been studied in order to understand how they can better describe the characteristics of a class. The acquired knowledge allowed to collect the generation data of tests of each class as code coverage and generation time from each technique and also the CK metrics, thus allowing the analysis of these data together and finally execution of the classification algorithm. The results of this analysis demonstrated that a reduced and selected set of metrics is more efficient and better describes the characteristics of a class besides demonstrating that the CK metrics have little or no influence on the generation time of the test data and on the random search algorithm . However, the CK metrics showed a medium correlation and influence in the selection of the genetic algorithm, thus participating in its selection by the algorithm naive bayes
140

Calibração do modelo de desempenho de caminhões do Vissim / Calibration of Vissim\'s truck acceleration model

Luan Guilherme Staichak Carvalho 17 December 2018 (has links)
Simuladores de tráfego são ferramentas importantes para planejamento e operação do tráfego, pois permitem avaliar cenários de maneira segura e com baixo custo. Porém, a configuração original desses programas é ajustada para replicar as condições do tráfego observado no país de origem do simulador. Em rodovias, o modelo de desempenho de caminhões tem grande influência no comportamento da corrente de tráfego. No Vissim, todavia, esse modelo simula veículos com melhor desempenho, se comparados aos caminhões brasileiros. Apresenta-se neste trabalho a calibração das funções de aceleração para caminhões do Vissim, utilizando a diferença entre perfis de velocidade simulados e reais como medidas de ajuste. Os perfis de velocidade foram criados a partir de dados de GPS para caminhões que trafegaram ao longo de uma rodovia de pista dupla em relevo ondulado, sob baixo fluxo de tráfego. O ruído na velocidade presente nesses dados foi atenuado por meio de um filtro gaussiano. Determinou-se então o perfil longitudinal da rodovia através dos pontos coletados pelo GPS, de modo a ser possível comparar as velocidades reais e simuladas em pontos preestabelecidos ao longo do trecho. A calibração foi automatizada por meio de um algoritmo genético. Todas as replicações da calibração resultaram em configurações para as funções de aceleração capazes de gerar perfis de velocidade simulados mais próximos dos reais se comparadas à configuração original do simulador. Por fim, um estudo de caso foi usado para demonstrar a necessidade de recalibração do simulador, através da avaliação do impacto causado pela calibração do simulador nos equivalentes veiculares obtidos com dados simulados. / Traffic simulators are important tools for traffic planning and operation, as they can be used to perform safe, low-cost scenario evaluation. However, these software\'s default configuration is adjusted to replicate the traffic conditions found in the simulators\' country of origin. The truck performance model heavily impacts traffic behavior in simulations of freeway segments. The default values for Vissim\'s performance model are adjusted for trucks with lower mass/power ratios than typical Brazillian trucks. The objective of the research reported here was to recalibrate Vissim\'s truck acceleration functions using the difference between real and simulated truck speed profiles as goodness-of-fit measures. The speed profiles were created using GPS data obtained from trucks travelling over a four-lane freeway situated on rolling terrain, under low traffic flow. Speed noise was removed from GPS data using a Gaussian filter. The longitudinal profile of the freeway was determined using GPS data, to allow for the comparison of observed and simulated speeds at fixed points along the segment. The calibration procedure was automated and based on a genetic algorithm. Every calibration run provided a configuration for the acceleration functions that reduced the difference between simulated and real speed profiles, if compared to the simulator\'s default configuration. The effects of the truck performance model recalibration were demonstrated by means of a case study focusing on the estimation of passenger-car equivalents for Brazilian trucks travelling on freeways.

Page generated in 0.0579 seconds