591 |
Seleção entre estratégias de geração automática de dados de teste por meio de métricas estáticas de softwares orientados a objetos / Selection between whole test generation strategies by analysing object oriented software static metricsGustavo da Mota Ramos 09 October 2018 (has links)
Produtos de software com diferentes complexidades são criados diariamente através da elicitação de demandas complexas e variadas juntamente a prazos restritos. Enquanto estes surgem, altos níveis de qualidade são esperados para tais, ou seja, enquanto os produtos tornam-se mais complexos, o nível de qualidade pode não ser aceitável enquanto o tempo hábil para testes não acompanha a complexidade. Desta maneira, o teste de software e a geração automática de dados de testes surgem com o intuito de entregar produtos contendo altos níveis de qualidade mediante baixos custos e rápidas atividades de teste. Porém, neste contexto, os profissionais de desenvolvimento dependem das estratégias de geração automáticas de testes e principalmente da seleção da técnica mais adequada para conseguir maior cobertura de código possível, este é um fator importante dados que cada técnica de geração de dados de teste possui particularidades e problemas que fazem seu uso melhor em determinados tipos de software. A partir desde cenário, o presente trabalho propõe a seleção da técnica adequada para cada classe de um software com base em suas características, expressas por meio de métricas de softwares orientados a objetos a partir do algoritmo de classificação Naive Bayes. Foi realizada uma revisão bibliográfica de dois algoritmos de geração, algoritmo de busca aleatório e algoritmo de busca genético, compreendendo assim suas vantagens e desvantagens tanto de implementação como de execução. As métricas CK também foram estudadas com o intuito de compreender como estas podem descrever melhor as características de uma classe. O conhecimento adquirido possibilitou coletar os dados de geração de testes de cada classe como cobertura de código e tempo de geração a partir de cada técnica e também as métricas CK, permitindo assim a análise destes dados em conjunto e por fim execução do algoritmo de classificação. Os resultados desta análise demonstraram que um conjunto reduzido e selecionado das métricas CK é mais eficiente e descreve melhor as características de uma classe se comparado ao uso do conjunto por completo. Os resultados apontam também que as métricas CK não influenciam o tempo de geração dos dados de teste, entretanto, as métricas CK demonstraram correlação moderada e influência na seleção do algoritmo genético, participando assim na sua seleção pelo algoritmo Naive Bayes / Software products with different complexity are created daily through analysis of complex and varied demands together with tight deadlines. While these arise, high levels of quality are expected for such, as products become more complex, the quality level may not be acceptable while the timing for testing does not keep up with complexity. In this way, software testing and automatic generation of test data arise in order to deliver products containing high levels of quality through low cost and rapid test activities. However, in this context, software developers depend on the strategies of automatic generation of tests and especially on the selection of the most adequate technique to obtain greater code coverage possible, this is an important factor given that each technique of data generation of test have peculiarities and problems that make its use better in certain types of software. From this scenario, the present work proposes the selection of the appropriate technique for each class of software based on its characteristics, expressed through object oriented software metrics from the naive bayes classification algorithm. Initially, a literature review of the two generation algorithms was carried out, random search algorithm and genetic search algorithm, thus understanding its advantages and disadvantages in both implementation and execution. The CK metrics have also been studied in order to understand how they can better describe the characteristics of a class. The acquired knowledge allowed to collect the generation data of tests of each class as code coverage and generation time from each technique and also the CK metrics, thus allowing the analysis of these data together and finally execution of the classification algorithm. The results of this analysis demonstrated that a reduced and selected set of metrics is more efficient and better describes the characteristics of a class besides demonstrating that the CK metrics have little or no influence on the generation time of the test data and on the random search algorithm . However, the CK metrics showed a medium correlation and influence in the selection of the genetic algorithm, thus participating in its selection by the algorithm naive bayes
|
592 |
Riscos de mercado na comercialização de energia: uma abordagem via complementação energética e gestão de portfólio de projetos, considerando a mitigação de incertezas da geração eólica. / Market risks in energy trading: an approach via energy management and project portfolio completion, considering the mitigation of uncertainties of wind generation.Andre Takeshi Tamashiro 15 May 2014 (has links)
No setor elétrico brasileiro as fontes renováveis de energia têm se tornadas atrativas do ponto de vista do investidor devido não só aos incentivos de política de governo, como também por exibirem uma elevada competitividade, além da sinergia proveniente da complementariedade energética entre essas fontes. Por outro lado,a tomada de decisão de investimento em empreendimentos de geração tem se caracterizado cada vez mais como um processo complexo e arriscado, devido à potencial perda financeira decorrente de um fluxo de caixa bastante irregular, fundamentalmente em função da interação no mercado de curto prazo. Este trabalho descreve o problema e a solução para um investidor caracterizado por sua aversão ou apetite ao risco otimizando os recursos com restrição de risco (VaR, CVaR mesclado com conceito do CFaR). Os resultados mostram que para parâmetros usuais que condicionam o risco financeiro, tais como,(i) a taxa de investimento, (ii) preço de contrato de venda e (iii) custo de investimento, o modelo busca a solução para a melhor alocação de investimento, representada por um portfólio ótimo de projetos, respeitando limites fixados para o montante a ser investido e o risco financeiro correspondente. De forma geral, a conceituação da medida de aversão a risco e sua implementação no modelo de otimização desenvolvido permitiram obter resultados robustos para o tipo de problema abordado e a diversidade de situações analisada a partir de estudos de caso. / Brazilian electricity sector in renewable energy sources has become attractive from the investor point of view not only because of government policy incentives, but also to exhibit a high competitiveness beyond energy synergy from the complementarity between energy sources. However, the decision making of investments in generation capacity has come to characterize a complex and risky process, because of the potential financial loss resulting from a highly irregular cash flow, mainly due to the interaction in the short-term market. This paper describes the problem and solution for the risk averse investor optimizing financial resources constrained risk (VaR, CVaR merged with the concept CFaR). The results show that for the risk factors, as for instance, investment rate, sales price and cost of investment contract, the model responds within the limits of tax risks. In general, the concept of measure of risk aversion and its implementation in the optimization model developed is shown robust to the type of problem addressed.
|
593 |
Metodologia para planejamento de ações de alívio de carregamento em sistemas de distribuição de energia elétrica em média tensão / Methodology for planning of load shedding actions in electrical power distribution systems in medium voltageGuilherme Pereira Borges 14 June 2016 (has links)
O objetivo desta tese é desenvolver e implementar em computador uma metodologia para resolver o problema de alívio de carregamento utilizando técnicas de remanejamento ou corte de carga. Tal metodologia, fundamenta-se no Algoritmo Evolutivo Multiobjetivo em Tabelas, que foi desenvolvido inicialmente para o problema de restabelecimento de energia em sistemas de distribuição. Já metodologia desenvolvida nesta tese trata o problema de alívio de carregamento, buscando minimizar o número de consumidores sem fornecimento de energia elétrica e o número de operações de chaveamento. Todavia, é necessário a obtenção de um plano de manobras em chaves adequado de modo que este não inviabilize a implantação na prática e que resulte em soluções que contemplem: a ausência de sobrecarga na rede e nas subestações, a manutenção dos níveis de tensão dentro dos intervalos exigidos pela legislação e a manutenção da radialidade da rede. Para alcançar estes objetivos, utiliza-se técnicas que determinam a sequência de chaveamento necessária para o plano de alívio de carga obtido. Prioriza-se, ainda, o atendimento aos consumidores prioritários e o corte seletivo de cargas em condições de esgotamento das possibilidades de remanejamento entre os alimentadores primários. Ao aplicar a metodologia proposta em um sistema de distribuição real de grande porte da Companhia Energética de Pernambuco - CELPE, constatou-se que, em comparação com a técnica atualmente utilizada, a metologia desenvolvida é confiável e apresenta bons resultados no que se refere a: sequência exequível de manobras, diminuição do número de chaveamentos e redução do número de consumidores e consumidores prioritários sem atendimento. Além disso, a metodologia possui capacidade de aplicação em outros sistemas semelhantes e foi integrada em um sistema computacional com ambiente gráfico permitindo estudos de caso e armazenamento em banco de dados. / The objective of this research is to develop and implement a methodology for the treatment of load shedding problem due to the existence (operation) or the possibility to occur (planning) contingencies in supply system (High Voltage/Subtransmission). The methodology is based on Multiobjective Evolutionary Algorithm in Tables, initially developed for the service restoration problems in distribution systems. It aims to minimize the number of customers without electricity supply; minimizing the number of switching operations, so that it does not impede the implementation in practice; absence of overload in network and substations; maintaining the voltage levels within the ranges required by the laws of radiality and maintenance of the network. To achieve these goals, are used techniques for determining the required switching sequence for the load shedding plan obtained; prioritization of special consumer in service and selective load shedding when exhausted the possibilities of relocating loads between primary feeders. When applies the proposed methodology in a real large distribution system of the Energy Company of Pernambuco - CELPE, it can be seen that, compared with the technique currently used, it is reliable with good results regarding viable sequence of maneuvers; reducing the number of switchings and number of consumers and priority consumers without service in addition to be able to be applied in similar systems. The methodology has been integrated into a computer system in a graphical environment with facilities of case studies and storing information in the database.
|
594 |
Avaliação de uma metodologia para restabelecimento de energia baseada em algoritmos evolutivos multi-objetivos no sistema de distribuição de energia da COPEL na cidade de Londrina / Evaluation of a methodology for service restoration based on multi-objective evolutionary algorithms for Copel distribution system in Londrina cityMarcos Henrique Marçal Camillo 12 September 2013 (has links)
Desenvolver um sistema de distribuição de energia confiável é certamente um desafio inerente aos profissionais do setor elétrico. Porém, os sistemas estão sujeitos a falhas e, sendo assim, o rápido restabelecimento traz a satisfação do cliente e reduz as compensações pagas pelas concessionárias de energia. Neste contexto a presente dissertação visa avaliar a metodologia para restabelecimento de energia denominada AEMT-H que se baseia em algoritmos evolutivos multi-objetivo se na estrutura de dados chamada Representação Nó- Profundidade (RNP). Esta avaliação ocorrerá através da aplicação do AEMT-H para obtenção de planos de restabelecimento de energia após a ocorrência de faltas simples no sistema COPEL da cidade de Londrina. Os resultados gerados serão avaliados estatisticamente e ainda subjetivamente pelos profissionais do COD da concessionária. Os algoritmos evolutivos têm apresentado resultados animadores para os problemas de restabelecimento de energia. Em especial, os resultados obtidos, quando da representação computacional de sistemas de distribuição de grande porte (com milhares de barras e chaves) através da RNP, possuem como característica o tempo de resposta da ordem de segundos, instigando a evolução das pesquisas para utilização desta metodologia inclusive em aplicativos de tempo real. O sistema de Londrina possui 30.156 barras, 2.660 chaves \"NF\", 250 chaves \"NA\" e atende um universo de mais de 231.000 consumidores ligados diretamente ao sistema de 13,8 kV ou, após os transformadores de distribuição, nas tensões de 220V e 127V. Neste sistema estão presentes 6 subestações 138 kV/13,8 kV e 64 circuitos alimentadores, totalizando uma capacidade de transformação de energia de 541,7 MVA. / The development of a reliable distribution system is certainly a challenge to electrical industry professionals. However, these systems are subject to failures and thus the fast restoration brings customer satisfaction and reduces the compensation paid by the electricity utilities. In this context, this dissertation aims to evaluate the methodology for service restoration called \"AEMT-H\", which is based on multi-objective evolutionary algorithms and in the data structure called Node Depth Encoding (NDE). This evaluation will occur by applying the \"AEMT-H\" to obtain service restoration plans considering the occurrence of simple faults in the COPEL system of the city of Londrina. The obtained results will bee valuated statistically and subjectively by professionals of the Distribution Operation Center. It is important to highlight that Evolutionary algorithms have shown promising results to treat the service restoration problem in distribution systems. In particular, the results obtained when using NDE tocomputationally represent the electrical topology of large distribution systems (with thousand of buses and switchers) are very interesting in terms of time processing (in the order of seconds). The system of Londrina has 30,156 buses, 2,660 switchers normally closed, 250 switchers normally opened and supplies a universe of more than 231,000 consumers connected directly to the system with voltage of 13.8 kV or, after distribution transformers, with voltages of 220V and 127V. This system contains 6 substations 138 kV/13,8 kV and 64 feeders, and a installed power of 541.7 MVA.
|
595 |
A transformada Wavelet aplicada à identificação modal operacional / The wavelet transform applied to operational modal analysisAndréa Cardoso 10 March 2006 (has links)
Apresenta uma nova técnica de identificação estocástica para estruturas sujeitas a excitação ambiente utilizando um método não recursivo, a análise estatística e a transformada wavelet. A análise estatística contribui para a seleção da melhor ordem para o sistema e automação dos procedimentos computacionais. Em geral há dificuldade para a identificação de baixas freqüências. A transformada wavelet é uma ferramenta fundamental para a compressão de dados e torna possível a identificação completa incluindo baixas freqüências e modos acoplados, além de melhorar significativamente a eficiência computacional do método. É apresentado o estudo de três sistemas simulados e os resultados obtidos são comparados aos parâmetros modais teóricos. / A new form to carry out stochastic identification of structures in operational conditions using a non recursive method, the statistic analysis and the wavelet transform, is presented. The statistic analysis contributed to select the best system order and to automation of computational procedures. In general the identification of low frequencies is a difficult task. The wavelet transform is an essential tool for compression of data making possible the complete identification including low frequencies. In addition it improves the computational efficiency. The study of three simulated system is presented and the results are compared with the analytical modal parameters.
|
596 |
Diagnóstico de nódulos pulmonares em imagens de tomografia computadorizada usando redes neurais convolucionais evolutivasSilva, Giovanni Lucca França da 31 January 2017 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-05-30T19:36:59Z
No. of bitstreams: 1
GiovanniLucca.pdf: 1608375 bytes, checksum: 90ad0a568a12b861d1a2a3467c275a12 (MD5) / Made available in DSpace on 2017-05-30T19:36:59Z (GMT). No. of bitstreams: 1
GiovanniLucca.pdf: 1608375 bytes, checksum: 90ad0a568a12b861d1a2a3467c275a12 (MD5)
Previous issue date: 2017-01-31 / CAPES / Lung cancer is the leading cause of cancer death worldwide, which accounts for more
than 17% percent of the total cancer related deaths. However, its early detection may
help in a sharp drop in this mortality rate. Because of the arduous analysis process,
alternatives such as computational tools that use image processing techniques and pattern
recognition have been widely developed and explored for the early diagnosis of this disease,
providing a second opinion to the specialist and making this process faster. Therefore,
this work proposes a methodology for the diagnosis of slice-based lung nodules extracted
from computed tomography images using evolutionary convolutional neural networks.
Firstly, the nodules are divided into two sub-regions using the Otsu algorithm based on
the particle swarm optimization algorithm. Then, the slices of the nodules and the slices of
their sub-regions were resized to the 28 x 28 dimension and given as input simultaneously
to the networks. The architecture of the model was composed of three convolutional
neural networks sharing the same fully connected layer at the end. Being a parameterized
model, the genetic algorithm was applied to optimize some parameters, such as the number
of filters in the convolution layers and the number of neurons in the hidden layer. The
proposed methodology was tested on the Lung Image Database Consortium and the Image
Database Resource Initiative, resulting in a sensitivity of 94.66 %, specificity of 95.14 %, accuracy of 94.78 % and area under the ROC curve of 0.949. / O câncer de pulmão é a maior causa de morte por câncer em todo mundo, representando
mais de 17% do total de mortes relacionadas com câncer. No entanto, sua detecçãao
precoce pode ajudar em uma queda acentuada nesta taxa de mortalidade. Devido ao árduo
processo na análise dos exames por imagens, alternativas como sistemas computacionais
que utilizam técnicas de processamento de imagens e reconhecimento de padrões têm sido
amplamente desenvolvidos e explorados para o diagnóstico precoce desta doen¸ca, provendo
uma segunda opinião para o especialista e tornando esse processo mais rápido. Diante disso,
este trabalho propõe uma metodologia para o diagnóstico de nódulos pulmonares baseado
nas fatias extraídas da tomografia computadorizada usando as redes neurais convolucionais
evolutivas. Primeiramente, os nódulos são divididos em duas sub-regiões utilizando o
algoritmo de Otsu baseado no algoritmo de otimização por enxame de partículas. Em
seguida, as fatias dos nódulos e as fatias das suas sub-regiões foram redimensionadas
para a dimensão 28 x 28 e dadas como entrada simultaneamente às redes. A arquitetura
do modelo foi composta por três redes neurais convolucionais compartilhando a mesma
camada completamente conectada no final. Tratando-se de um modelo parametrizado,
o algoritmo genético foi aplicado para otimização de alguns parâmetros, tais como a
quantidade de filtros nas camadas de convolução e a quantidade de neurônios na camada
oculta. A metodologia proposta foi testada na base de imagens Lung Image Database
Consortium e a Image Database Resource Initiative, resultando em uma sensibilidade de
94,66%, especifidade de 95,14%, acurácia de 94,78% e área sob a curva ROC de 0,949.
|
597 |
Métodos para sistemas CAD e CADx de nódulo pulmonar baseada em tomografia computadorizada usando análise de forma e textura / Methods for CAD and CAD x-node systems Based on tomography Computed using form analysis and textureCarvalho Filho, Antonio Oseas de 10 October 2016 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-06-23T21:24:53Z
No. of bitstreams: 1
AntonioCarvalho.pdf: 2731250 bytes, checksum: 35369a74be0aec3dd6b29a792c37fc35 (MD5) / Made available in DSpace on 2017-06-23T21:24:53Z (GMT). No. of bitstreams: 1
AntonioCarvalho.pdf: 2731250 bytes, checksum: 35369a74be0aec3dd6b29a792c37fc35 (MD5)
Previous issue date: 2016-10-10 / Lung cancer has been identi ed as the leading cause of death among cancer patients worldwide. The high rates of deaths and instances of records of this type of cancer worldwide demonstrate the importance of the development and research in order to produce resources for the detection and early diagnosis of this disease. Because of the exhaustive analysis process, alternatives such as computational tools that use image processing techniques and pattern recognition have been widely explored. Therefore, to assist the expert in the identi cation and diagnosis of nodules, systems are developed Computer-Aided Detection (CAD) and Computer-Aided Diagnostic (CADx). This thesis proposes the development of methods that reduce false positives, and the diagnosis of volumes of interest in computed tomography. The proposed methods are based on image processing techniques and pattern recognition. For this, biology concepts have been adapted and applied to the study of the branch of the diversity of species; such concepts are the phylogenetic diversity indexes used in this thesis as texture descriptors. In another aspect, techniques that measure the properties of the shape of radiological ndings have been developed and adapted. Subsequently, an evolutionary methodology is used for the selection of the best models for training. Finally, a support vector machine is applied to perform the classi cation. Promising results were found in the 833 tests that we performed; these tests were divided into 80% for training and 20% for testing. In general, for the best results, we have false positive reduction methods, an accuracy of 99.57%, sensitivity of 99.45%, speci city of 99.61%, and an ROC curve of 0.992. The results obtained for the classi cation of the degree of malignancy and benignity are: accuracy of 93.46%, sensitivity of 92.95%, speci city of 93.49%, and an ROC curve of 0.931. / O câncer de pulmão é apontado como a principal causa de morte entre os pacientes com câncer. As altas taxas de mortes e registros de ocorrências desse câncer em todo o mundo demonstram a importância do desenvolvimento e investigação, a fi m de produzir meios para a detecção e o diagnóstico precoce dessa doença. Devido ao exaustivo processo de análise, alternativas como ferramentas de cunho computacional que utilizam técnicas de processamento de imagens e do reconhecimento de padrões têm sido amplamente exploradas. Assim, para auxiliar o especialista na identifi cação e diagnóstico de nódulos, são desenvolvidos sistemas Computer-Aided Detection (CAD) e Computer-Aided Diagnostic (CADx). Esta tese propõe o desenvolvimento de métodos para redução de falsos positivos em um sistema CAD e diagnóstico de nódulos em tomografi a computadorizada. Os métodos propostas baseiam-se em técnicas de processamento de imagens e reconhecimento de padrões. Para tanto, foram adaptados e aplicados os conceitos da biologia no ramo do estudo da diversidade entre espécies, sendo esses os índices de diversidade logenética, usados nesta tese como descritores de textura. Em outro aspecto, foram desenvolvidas e adaptadas técnicas capazes de mensurar propriedades de forma dos achados radiológicos. Seguindo, usou-se uma metodologia evolutiva genética para seleção dos melhores modelos de treinamento. E por fi m, foi aplicada a máquina de vetor de suporte para realizar a classificação . Resultados promissores foram encontrados em teste com 833 exames divididos em 80% para treino e 20% para testes. Em linhas gerais, para os melhores resultados tem-se, nos métodos de redução de falsos positivos: uma acurácia de 99,57%, sensibilidade de 99,45%, especificidade de 99.61% e uma curva ROC de 0,992. Já nos resultados para a classificação quanto a taxa de malignidade e benignidade, obtiveram-se os seguintes valores: acurácia de 93,46%, sensibilidade de 92,95%, especificidade de 93,49% e uma curva ROC de 0,931.
|
598 |
Estudo do impacto de veículos pesados sobre a infra-estrutura rodoviária através de simulação microscópica de tráfego / Study of heavy vehicles impact on highway infra-structure through microscopic traffic simulationJuliana Jerônimo de Araújo 13 April 2007 (has links)
O objetivo desta pesquisa foi desenvolver um método para estabelecer o efeito das características e da operação dos veículos pesados sobre a infra-estrutura rodoviária através do uso de resultados de simulação microscópica de tráfego. Para tanto, foram definidos dois objetivos secundários. O primeiro deles envolveu a obtenção de um banco de dados detalhado sobre as características de 6.253 veículos pesados. Esses dados foram coletados em sete balanças localizadas em rodovias de pista dupla do estado de São Paulo. O segundo objetivo secundário consistiu na calibração e validação do simulador de tráfego CORSIM com o auxílio de um algoritmo genético, que adaptou simultaneamente 19 parâmetros do simulador para que ele reproduzisse adequadamente as características e o comportamento do tráfego observado em um trecho de rodovia de pista dupla paulista. A metodologia desenvolvida é demonstrada através da realização de um estudo de caso em que foram simulados dois cenários de tráfego e em que foi considerada uma ponte hipotética com 100 m de extensão. Nele, foram determinadas as probabilidades de ocorrências simultâneas dos veículos pesados sobre a ponte. As conclusões da pesquisa indicam que o método de calibração de simuladores de tráfego com uso de um algoritmo genético mostrou-se eficaz, reduzindo o erro médio de 9,11% para 6,32%. Além disso, as conclusões revelam que a obtenção de um carregamento móvel a partir de dados extraídos de um simulador de tráfego é possível e que a associação dos dados simulados a um banco de dados detalhado permite o cálculo do efeito do tráfego dos veículos pesados sobre a infra-estrutura rodoviária. Do estudo de caso, pode-se concluir que: (1) a probabilidade de ocorrência simultânea de veículos pesados sobre a ponte é muito freqüente e está diretamente relacionada às características do fluxo de tráfego e; (2) a distribuição das cargas e seus respectivos valores são fatores determinantes para o cálculo dos esforços. Os resultados do estudo de caso demonstram a viabilidade do procedimento proposto. / The objective of this research was to develop a method for establishing the effect of heavy vehicles characteristics and operation on highway infra-structure by using the results of a microscopic traffic simulation model. Therefore, two secondary objectives were defined. The first of them involved the attainment of a detailed database containing the characteristics of 6,253 heavy vehicles. This data was collected at seven weight stations located on the state of São Paulo multilane highways. The other secondary objective was to calibrate and validate CORSIM by using a genetic algorithm, which simultaneously adapted 19 model parameters in order to appropriately reproduce the characteristics and the behavior of the observed traffic flow. The developed methodology is demonstrated through a case study in which two traffic scenarios were simulated and in which a hypothetic 100 m bridge was considered. In the case study, the probabilities of simultaneous presence of heavy vehicles on the bridge were determined. The conclusions of this research indicate that the method of calibrating a traffic simulation model utilizing a genetic algorithm was efficient, reducing the mean error from 9.11% to 6.32%. Additionally, the conclusions reveal that the attainment of a live load from extracted data through a traffic simulation model is possible and that the association of simulated data with a detailed database allows the estimation of heavy vehicle traffic effect on highway infra-structure. From the case study, it can be concluded that: (1) the probability of simultaneous presence of heavy vehicles on the bridge is very frequent and; (2) the loads distribution and its respective values are determinant in calculating efforts. The case study results demonstrate the proposed procedure viability.
|
599 |
Adaptação do HCM-2000 para determinação do nível de serviço em rodovias de pista simples sem faixas adicionais no Brasil / Adaptation of the HCM-2000 to estimate the level of service for two-lane highways without auxiliary lanes BrazilCintia Yumiko Egami 04 May 2006 (has links)
O objetivo desta tese é adaptar os procedimentos do Highway Capacity Manual 2000, para que possam melhor estimar a qualidade de serviço nas condições de tráfego encontradas em rodovias de pista simples estudadas. Para isto, foi desenvolvido um programa para calibração automática do simulador TRARR, baseado em um algoritmo genético e implementado em Perl. A calibração, que usa dados de velocidade e porcentagem de veículos em pelotões, coletado por meio de filmagens nos locais estudados, foi feita simultaneamente para cinco trechos diferentes, para que o simulador fosse capaz de reproduzir as características de um trecho típico de rodovia de pista simples do estado de São Paulo. Para garantir a qualidade dos resultados das simulações realizadas com o modelo recalibrado, procedeu-se à sua validação, usando-se um conjunto independente da dados. Partindo-se do pressuposto que a estrutura geral do método deveria ser mantida, a adaptação do HCM-2000 consistiu em obter novos valores para os diversos fatores de ajuste usados no processo de estimativa do nível de serviço. Para tanto, foram reproduzidos os experimentos de simulação realizados no desenvolvimento do procedimento para análise de rodovias de pista simples, à exceção do uso da versão recalibrada TRARR no lugar do simulador TWOPAS. Os fatores de ajuste adaptados foram: fator de pico horário (PHF), fator de ajuste de rampas (fG), fator de equivalência veicular (ET), fator para o efeito de zonas de ultrapassagem proibida (fnp) e fator de ajuste para o efeito combinado da divisão direcional do tráfego e de zonas de ultrapassagem proibida (fd/np). Com exceção do PHF, todos os demais fatores foram obtidos a partir de resultados de simulação. Os níveis de serviço observados nos cinco trechos estudados foram comparados com estimativas obtidas com a versão original do HCM-2000 e com a adaptação proposta. Os resultados desta comparação mostram que as estimativas obtidas com a adaptação proposta são mais precisas que as obtidas usando-se os valores originais do HCM-2000. / This thesis objective is to adapt the Highway Manual Capacity 2000, procedures to produce better estimates of service level and capacity for two-lane highways studied, In order to do this, an automatic calibration system, implementing a genetic algorithm and coded in Perl, was used to obtain a recalibrated version of TRARR, a two-lane highway simulation model. The calibration, that which uses speed and percent vehicles traveling in platoons data collected by videotaping, was carried out simultaneously for five different road segments, so that the recalibrated model would be able to reproduce traffic behavior on a typical two-lane road in the state of São Paulo, Brazil. The recalibrated model was validated using a second, independent, set of data. Based on the assumption that the general framework of the methodology should be kept, the adaptation was achieved by obtaining new values for the adjustment factors used in the procedure. Thus, the simulation experiments used in the development of HCM-2000 methodology were reproduced using the recalibrated TRARR model. The following adjustment factors were adapted: peak hour factor (PHF), grade adjustment factor (fG), heavy vehicle equivalence factor (ET), adjustment factor for the effect of non-passing zones (fnp) and adjustment factor for combined effect of directional distribution of traffic and percentage of no-passing zones (fd/np). With the exception of the PHF, all factors were obtained from simulation results. In order to assess the accuracy of the proposed adaptation observed levels of service were compared to the estimates obtained through the original HCM-2000 procedure and the modified procedure. The results of these comparisons clearly show that the estimates obtained using the proposed values for the adjustment factors are closer to the observed levels of service than the estimates obtained using the original values for the adjustment factors.
|
600 |
Análise de dificuldades de alunos com o algoritmo da subtraçãoMello, Elisabete Marcon 11 September 2008 (has links)
Made available in DSpace on 2016-04-27T16:58:43Z (GMT). No. of bitstreams: 1
Elisabete Marcon Mello.pdf: 3017114 bytes, checksum: 16fd1525b6ecfe454ef3f00ca9c10565 (MD5)
Previous issue date: 2008-09-11 / Secretaria da Educação do Estado de São Paulo / This research analyzed the difficulties that students from Basic Education face
up to the use of the algorithm of the borrowing (decomposition of the minuend)
to solve subtractions operations. Therefore, it was made a comparison between
the algorithm of the borrowing and algorithm of the compensation (addition of
equal quantities in the minuend and the subtrahend) in order to check if using
the algorithm of compensation it could diminish their mistakes. Once in the
diagnosis study we found out that students make many mistakes when they
have to use the algorithm of the borrowing, mainly when it is necessary to
proceed some borrowings to solve the operation. This difficulty was found out in
all grades from Basic Education 2 and sometimes it extends to High School
level. It was analyzed sixty didactic books and five pedagogical publications
from private schools systems of the second grade and we realized the use of
the algorithm of the borrowing to solve the subtractions with reserve in all of
them. Besides, we analyzed six books for teacher s formation and the same
procedure was adopted. Most of teachers who were interviewed recognized
that students have difficulties with the subtractions that involve some
borrowings. We applied a didactic sequence for fifth grade students in order to
introduce the use of the algorithm of the compensation. Based on results of our
research, we believed that the use of the algorithm of the compensation could
be more efficient for the subtraction problems faced to the students. Our
research is based on the Theory of the conceptual fields of Gerard Vergnaud
and on the Theory of the Situations of Brousseau / Neste trabalho levantamos as dificuldades enfrentadas por alunos do Ensino
Fundamental com o uso do algoritmo do empréstimo (decomposição do
minuendo) para efetuar subtrações. Fazemos uma comparação entre o
algoritmo do empréstimo e o algoritmo da compensação (adição de
quantidades iguais no minuendo e no subtraendo) a fim de saber se, com
esse último, poderíamos diminuir as dificuldades dos alunos. Por meio de um
estudo diagnóstico constatamos que os alunos cometem muitos erros ao
utilizar o algoritmo do empréstimo, principalmente quando são necessários
vários empréstimos para efetuar a subtração. Verificamos que essa
dificuldade é encontrada em todas as séries do Ensino Fundamental II e se
estende ao Ensino Médio. Verificamos sessenta títulos de livros didáticos e
cinco apostilas de sistemas educacionais de segunda série do Ensino
Fundamental e todos propõem o uso do algoritmo do empréstimo para
efetuar as subtrações com reserva. Os seis títulos destinados à formação de
professores, que analisamos, também privilegiam o uso do algoritmo do
empréstimo. A maioria dos professores analisados reconhece que os alunos
têm dificuldades com as subtrações que envolvem vários empréstimos.
Aplicamos uma seqüência didática a alunos de quinta série do Ensino
Fundamental a fim de introduzir o uso do algoritmo da compensação.
Baseados nos resultados de nossa pesquisa, acreditamos que o uso do
algoritmo da compensação poderia ser mais eficiente do que o uso do
algoritmo do empréstimo, contornando problemas que os alunos enfrentam
para efetuar subtrações. Nossa pesquisa está fundamentada na teoria dos
campos conceituais de Gerard Vergnaud e na Teoria das Situações Didáticas
de Brousseau
|
Page generated in 0.0521 seconds