• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 879
  • 60
  • 59
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1019
  • 709
  • 298
  • 242
  • 161
  • 157
  • 150
  • 148
  • 146
  • 142
  • 133
  • 131
  • 112
  • 108
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Algoritmo genético aplicado à otimização de asas de material compósito de veículos aéreos não tripulados / Genetic algorithm applied to optimization of composite material wings of unmanned air vehicles

Widmaier, Klaus 19 December 2005 (has links)
O advento dos veículos aéreos não tripulados (VANTs) representa uma quebra de paradigma no ramo aeronáutico. São revisados os conceitos de projeto envolvidos no desenvolvimento de VANTs e levantadas as suas potenciais aplicações. São também analisadas as características de sua operação e discutidas as questões regulatórias envolvidas na certificação e integração dos VANTs ao tráfego aéreo civil. Dentre as várias características singulares dos VANTs, enfatiza-se a sua necessidade de realizar vôos a grande altitude e com longa autonomia. Isso leva ao emprego de materiais mais leves e configurações com asas de grande alongamento, que provocam menor arrasto induzido. É feita uma revisão sobre materiais compósitos, que são materiais de uso crescente no ramo aeronáutico por sua leveza e resistência, e que por sua característica de anisotropia, são suscetíveis à otimização estrutural. Métodos e ferramentas de otimização estrutural de compósitos laminados ainda são pouco empregados, por suas características discretas e pelo grande número de parâmetros envolvidos. Um método eficiente e adequado à otimização de um problema desse tipo é o método dos algoritmos genéticos (AG). Assim foi desenvolvida uma sub-rotina de otimização baseada em algoritmos genéticos, usando a linguagem de programação Fortran. A sub-rotina desenvolvida trabalha em conjunto com um programa comercial de análise estrutural baseado no método dos elementos finitos, o Ansys. Foi também proposta uma configuração de asa de um VANT típico, de grande alongamento e fabricada com materiais compósitos reforçados com fibras (CRF). A asa proposta teve o número e a orientação das camadas do laminado otimizadas com o uso da sub-rotina desenvolvida, e resultados satisfatórios foram encontrados. Foram também analisados os efeitos da variação dos parâmetros dos operadores do AG, como probabilidades de mutação, cruzamento, tipo de escalonamento, entre outros, no desempenho do mesmo. Também foram feitas otimizações no mesmo modelo de asa proposto, empregando outros métodos disponíveis no próprio programa de análise estrutural. Os resultados das otimizações através desses métodos foram comparados com os resultados obtidos com a sub-rotina desenvolvida / The advent of the unmanned air vehicles (UAVs) represents a paradigm break in the aeronautical field. The project concepts involved in the development of UAVs are revised and its potential applications are rose. Also the issues related to UAVs operation are assessed and the regulatory questions involved in their certification and integration to the civil air space are argued. Amongst many singular characteristics of the UAV, its necessity of performing flights at high altitudes and with long endurance is emphasized. This leads to the employment of lighter materials and to configurations with high aspect ratio wings that cause minor induced drag. A revision on composite materials, which are of increasing use in the aeronautical field for their lightness and strength, and that are appropriate for being optimized due to their anisotropy characteristics, is made. Methods and tools of structural optimization of laminated composites are still seldom employed, due to their discrete nature and to the large number of parameters involved. An efficient and suitable method for the optimization of this kind of problem is the genetic algorithm (GA). Thus, an optimization sub-routine based on genetic algorithms was developed, using FORTRAN programming language. The developed sub-routine works in combination with Ansys, a structural analysis commercial program based on the finite elements method. A configuration of a typical UAV wing, made from composite reinforced plastics (CRP) was also proposed. The proposed wing had the number of plies and the orientations of its layers optimized using the developed sub-routine, and satisfactory results had been found. Also the effect of the variation of AG’s operator parameters in its performance, as mutation probabilities, crossover probabilities, fitness scaling, among others, have been assessed. The same wing model considered was also optimized using other build-in methods of the structural analysis program. The results of these optimizations have been compared with the results obtained with the developed sub-routine
372

Algoritmo de refinamento de Delaunay a malhas seqüenciais, adaptativas e com processamento paralelo. / Delaunay refinement algorithm to sequential, adaptable meshes and with parallel computing.

Sakamoto, Mauro Massayoshi 09 May 2007 (has links)
Este trabalho apresenta o desenvolvimento de um gerador de malha de elementos finitos baseado no Algoritmo de Refinamento de Delaunay. O pacote é versátil e pode ser aplicado às malhas seriais e adaptativas ou à decomposição de uma malha inicial grossa ou pré-refinada usando processamento paralelo. O algoritmo desenvolvido trabalha com uma entrada de dados na forma de um gráfico de linhas retas planas. A construção do algoritmo de Delaunay foi baseada na técnica de Watson para a triangulação fronteiriça e nos métodos seqüenciais de Ruppert e Shewchuk para o refinamento com paralelismo. A técnica elaborada produz malhas que mantêm as propriedades de uma triangulação de Delaunay. A metodologia apresentada foi implementada utilizando os conceitos de Programação Orientada a Objetos com o auxílio de bibliotecas de código livre. Aproveitando a flexibilidade de algumas dessas bibliotecas acopladas foi possível parametrizar a dimensão do problema, permitindo gerar malhas seqüenciais bidimensionais e tridimensionais. Os resultados das aplicações em malhas seriais, adaptativas e com programação paralela mostram a eficácia desta ferramenta. Uma versão acadêmica do algoritmo de refinamento de Delaunay bidimensional para o Ambiente Mathematica também foi desenvolvido. / This work presents the development of a finite elements mesh generation based on Delaunay Triangulation Algorithm. The package is versatile and applicable to the serial and adaptable meshes or to either the coarse or pre-refined initial mesh decomposition using parallel computing. The developed algorithm works with data input in the form of Planar Straight Line Graphics. The building of the Delaunay Algorithm was based on the Watson\'s technique for the boundary triangulation and in both Ruppert and Shewchuk sequential methods for the parallel refinement. The proposed technique produces meshes maintaining the properties of the Delaunay triangulation. The presented methodology was implemented using the Programming Object-Oriented concepts, which is supported by open source libraries. Taking advantage of the flexibility of some of those coupled libraries the parametrization of the problem dimension was possible, allowing to generate both two and three-dimensional sequential meshes. The results obtained with the applications in serial, adaptive and in parallel meshes have shown the effectiveness of this tool. An academic version of the twodimensional Delaunay refinement algorithm for the Mathematica Environment was also developed.
373

Políticas para servidores web baseados em sessões visando qualidade e diferenciação de serviços / Policies to web servers based on sessions aiming quality and differentiation of services

Barbato, Alessandra Kelli 25 April 2008 (has links)
Este trabalho propõe políticas para servidores Web baseados em sessões, visando ao oferecimento de garantias de qualidade de serviço (Quality of Service - QoS) a seus usuários. Para o fornecimento de QoS, dois tipos de políticas são consideradas: as responsáveis pela diferenciação de serviços e as responsáveis pelo controle de admissão. Alguns algoritmos de escalonamento foram desenvolvidos com o objetivo de oferecer melhores serviços para as sessões prioritárias: o algoritmo de escalonamento baseado em sessão (SBSA) e o algoritmo de escalonamento baseado em sessão com diferenciação de serviços (SBSA-DS). Quanto ao controle de admissão, foram consideradas duas novas políticas, as quais utilizam diferentes parâmetros para a tomada de decisão e têm como objetivo garantir a finalização do maior número de sessões prioritárias. A partir dos resultados obtidos nos experimentos realizados por meio de simulação, constatou-se que o emprego dos algoritmos e das políticas desenvolvidos melhora o atendimento das sessões para as quais deve ser oferecido um serviço preferencial. Portanto, em servidores Web preocupados com a garantia de QoS para seus usuários, os quais interagem com o sistema por meio de sessões, o uso dessas novas técnicas se mostra adequado / This work considers policies for Web servers based on sessions, aiming at the guarantees of Quality of Service (QoS) to the systems users. Two types of policies are considered: the responsible for the differentiation of services and the responsible for the admission control. Some scheduling algorithms had been developed to offer better services for the priority sessions: the Session Based Scheduling Algorithm (SBSA) and the Session Based Scheduling Algorithm with Differentiation of Services (SBSA-DS). In relation to the admission control, two new policies had been considered, which use different parameters to help the decisions and have as objective guarantee the finalization of as many priority sessions as possible. From the obtained results of the experiments realized by mean of simulation, it is evidenced that the use of the developed algorithms and policies improves the attendance of the sessions that deserve preferential service. Therefore, in Web servers worried in the guarantee the QoS for their users, which interact with the system by sessions, the use of these new techniques reveals adequate
374

Proposta de reconfiguração estratégica de sistema financeiro no contexto de governança de tecnologia da informação (GTI): o caso de uma indústria do setor plástico

Santos, Simone Rodrigues dos 23 June 2009 (has links)
Made available in DSpace on 2015-03-05T19:14:42Z (GMT). No. of bitstreams: 0 Previous issue date: 23 / Nenhuma / Este estudo desenvolveu uma proposta de reconfiguração estratégica de sistema financeiro no contexto de governança de tecnologia da informação apoiado por algoritmo de lógica difusa compensatória. Este estudo utilizou o método de Design Research em empresa do setor de plástico industrial. A proposta do sistema financeiro foi desenvolvida seguindo as seguintes etapas: 1 – identificação do sistema atual; 2 – identificações de variáveis estratégicas; 3 – quantificação das variáveis estratégicas com o uso de matrizes; 4 – cálculo de importância das variáveis estratégicas através de algoritmo difuso. Esta etapa gerou um ranking de importâncias ou prioridades. Com o ranking foi possível reconfigurar o sistema de Business Intelligence usado na empresa. Após a reconfiguração no contexto da governança da tecnologia de informação foi identificada a necessidade de uma maior evidenciação financeira. Para atender tal necessidade foi usada a linguagem XBRL e validada pelo Controller como satisfatória. Além disso, também f / This study developed a proposal for the strategic redesign of a finance system in the context of IT Governance supported by fuzzy logic algorithm. This study used a Design Research method in company of the plastic industrial sector. A new proposal was developed following these stages: 1 – Identification of current system; 2 – Identification of strategic variables; 3 – Quantification of strategic variables using matrixes; 4 – Calculation of the importance of strategic variables using a compensatory fuzzy logic algorithm. This stage created a ranking of importance or priorities. This ranking generated a redesigned system of Business Intelligence now used in the company. After the redesign in the IT context a necessity for financial disclosure was identified. XBRL language was used to do this and was validated by the company’s Controller as satisfactory. The following requisites were also identified: brand/image and costs optimization related to alignment of IT and strategy.
375

Uma aplicação de metaheurísticas na abordagem do problema de layout de armazém

Davi, André da Silva 12 September 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-11-29T16:00:55Z No. of bitstreams: 1 André da Silva Davi_.pdf: 2370087 bytes, checksum: dcaf9c82247a500748da7c104102054b (MD5) / Made available in DSpace on 2017-11-29T16:00:55Z (GMT). No. of bitstreams: 1 André da Silva Davi_.pdf: 2370087 bytes, checksum: dcaf9c82247a500748da7c104102054b (MD5) Previous issue date: 2017-09-12 / Nenhuma / Neste trabalho foi desenvolvido um modelo computacional para a otimização de layout de um Armazém. Além da abordagem do Problema de Layout de Armazém, também é abordado o Problema de Família de Partes. Para o desenvolvimento do modelo foi aplicada a metaheurística Algoritmo Genético. O objetivo do estudo é projetar a configuração de um armazém que otimize a alocação de mercadorias nas prateleiras tal que proporcione a minimização da movimentação das mesmas durante a seleção de pedidos, pois a operação e a gerência são partes essenciais das operações e serviços realizados. Para isto, as variáveis de decisão são: a distância absoluta da localização da mercadoria e o número de pedidos por dia. O resultado deste trabalho é a geração de um layout capaz de comportar as mercadorias de acordo com as necessidades de alocação, realizando uma otimização de aproximadamente 15%. / In this work a computational model was developed for a warehouse layout optimization. In addition to the Warehouse Layout Problem approach, the Part Family Problem is also addressed. For the development of the model was applied the metaheuristic Genetic Algorithm. The objective of the study is to design the configuration of a warehouse that optimizes an allocation of goods on the shelves that provides a minimization of the warehouse's movement during order selection, operation and management with essential uses of the operations and services performed. The decision variables are: the absolute distance of the location of the merchandise and the number of requests per day. The result is a set of new layouts, according to the conditions of service and the realization of an optimization of approximately 15%.
376

Modelo funcional de memória NAND Flash com injeção de falhas caracterizadas

Lopes, Guilherme Ferreira 28 May 2018 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-09-21T17:00:26Z No. of bitstreams: 1 Guilherme Ferreira Lopes_.pdf: 4084198 bytes, checksum: ddd09816e33c4ef8fac72a3f74fcc9d5 (MD5) / Made available in DSpace on 2018-09-21T17:00:26Z (GMT). No. of bitstreams: 1 Guilherme Ferreira Lopes_.pdf: 4084198 bytes, checksum: ddd09816e33c4ef8fac72a3f74fcc9d5 (MD5) Previous issue date: 2018-05-28 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A memória NAND Flash lidera o mercado de memórias não voláteis por prover soluções para aplicações móveis, juntando alta densidade de armazenamento em uma área de silício muito pequena e consumindo pouca energia (RICHTER, 2014). Devido à mecanismos específicos para a realização de operações na memória, elas se tornam suscetíveis à falhas funcionais de interferências, assim aumentando a importância do teste(HOU; LI, 2014). Esta dissertação apresenta o projeto de um modelo funcional de memória NAND Flash com inserção de falhas caracterizadas em 2 etapas, a primeira etapa ocorreu utilizando a ferramenta LogisimTM, projetada para desenvolver e simular circuitos lógicos de forma que possam ser apresentados visualmente, a segunda etapa consistiu no desenvolvimento também de forma modular e escalar em linguagem de descrição de hardware (VHDL). As 2 ferramentas possuem a implementação de um circuito de injeção de falhas, capaz de simular e aplicar falhas funcionais de interferência e stuck-at na memória desenvolvida. Com base no modelo comercial de memórias NAND Flash, o trabalho visa desenvolver os circuitos presentes na memória, respeitando a organização dos sinais e a organização das células em páginas e blocos, sendo uma característica específica para memórias NAND Flash. Após o desenvolvimento do modelo funcional, ocorreu a primeira etapa de verificação e validação da memória, composta pela varredura de endereços, criação e comparação dos valores esperados com valores de saída e utilização de algoritmos de teste para a validação final, finalizando o projeto com a verificação e validação de cada falha injetada para que assim tenha-se um modelo funcional de uma memória NAND Flash capaz de inserir uma determinada falha na posição exata da matriz de memória. Após a modelagem realizou-se simulações para avaliar aplicabilidade do projeto desenvolvido e os resultados mostram o atingimento de 100% de cobertura das falhas desenvolvidas, chegando ao objetivo de criar um modelo funcional para possibilitar a inserção de falhas foi atingido.
377

Otimização de um trocador de calor casco e tubos utilizando o algoritmo lobo cinzento

Oliveira, Clemar Trentin 11 December 2018 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2019-03-13T13:59:33Z No. of bitstreams: 1 Clemar Trentin Oliveira_.pdf: 4154239 bytes, checksum: 0abf1d28fa69ea97d15e72a7624615f5 (MD5) / Made available in DSpace on 2019-03-13T13:59:33Z (GMT). No. of bitstreams: 1 Clemar Trentin Oliveira_.pdf: 4154239 bytes, checksum: 0abf1d28fa69ea97d15e72a7624615f5 (MD5) Previous issue date: 2018-12-11 / Nenhuma / Neste trabalho, desenvolve-se uma nova abordagem de otimização do projeto de um trocador de calor casco e tubos. O algoritmo Otimizador por Lobo Cinzento (GWO) é aplicado para minimizar a função objetivo custo total do trocador de calor proposto. As variáveis de otimização adotadas são: número de passes nos tubos, diâmetro externo dos tubos, diâmetro interno do casco, espaçamento dos defletores e corte dos defletores. O método Bell-Delaware e o método de Kern são utilizados para calcular o coeficiente de transferência de calor e a perda de pressão para o lado do casco. Os resultados da otimização são comparados com o projeto original do trocador de calor e também com os resultados alcançados por outros algoritmos de otimização da literatura. Além disso, o algoritmo GWO é comparado com outras meta-heurísticas de otimização em três funções de teste distintas. Os resultados da comparação do algoritmo GWO nas funções de teste mostram um desempenho competitivo, comparado com o Algoritmo Genético, Otimização por Enxame de Partículas, algoritmo Evolução Diferencial e Algoritmo do Vaga-Lume. Os resultados da otimização do trocador de calor utilizando o método de Kern mostra um bom desempenho, com a redução do investimento de capital em 11,95%, 7,93%, 6,24%, 2,37% e 0,19% comparado ao projeto original, GA, ICA, PSO e GSA respectivamente. Além disso, o custo operacional total descontado foi menor que o projeto original e o restante das metaheurísticas exceto para o algoritmo GSA onde o algoritmo GWO obteve resultado 22,33 %, superior. No geral, a redução combinada do investimento de capital e do custo operacional total descontado obtido pela aplicação do algoritmo GWO levaram a uma redução de custo total de 20,80%, 7,28%, 6,07% e 4,06% comparado ao projeto original, GA, ICA e PSO respectivamente. Por fim, os resultados da otimização do trocador de calor utilizando o método Bell-Delaware comparado ao projeto original mostram desempenho satisfatório com redução do investimento de capital em 13,32%. O custo operacional total foi menor em 32,56%. Neste caso, a redução combinada do investimento de capital e do custo operacional total descontado com o GWO levaram a uma redução de custo total de 17,19%. / In this work, a new approach to optimizing the design of a shell and tube heat exchanger is developed. The Grey Wolf Optimizer algorithm (GWO) is applied to minimize the objective total cost function of the proposed heat exchanger. The optimization variables adopted are: number of tubes passes, tube outside diameter, shell inside diameter, baffles spacing and baffle cut. The Bell-Delaware method and the Kern method are used to calculate the heat transfer coefficient and the pressure drop from the shell side. The results of the optimization are compared with the original design and with other optimization algorithms in the literature. In addition, the GWO algorithm is compared with other optimization meta-heuristics in three different test functions. The results of the comparison of the GWO algorithm in the test functions show a competitive performance compared to the Genetic Algorithm, Particle Swarm Optimization, Differential Evolution algorithm and Firefly Algorithm. Already, the results of the optimization of the heat exchanger using the Kern method shows a good performance, with the reduction of capital investment by 11.95%, 7.93%, 6.24%, 2.37% and 0.19% compared to the original project, GA, ICA, PSO and GSA, respectively. In addition, the total discounted operating cost was lower than the original project and the rest of the metaheuristics except for the GSA algorithm where the GWO algorithm obtained 22.33% higher result. Overall, the combined reduction in capital investment and total discounted operating cost obtained by applying the GWO algorithm led to a total cost reduction of 20.80%, 7.28%, 6.07% and 4.06% compared to the original project, GA, ICA and PSO, respectively. Finally, the results of optimization of the heat exchanger using the Bell-Delaware method compared to the original design show satisfactory performance with reduction of capital investment by 13.32 %. The total discounted operating cost was lower by 32.56%. In this case, the combined reduction in capital investment and discounted total operating cost obtained by applying the GWO algorithm led to a total cost reduction of 17.19%.
378

Um sistema de codificação de vídeo para TV digital – SBTVD

Linck, Iris Correa das Chagas 29 June 2012 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2015-07-03T17:52:39Z No. of bitstreams: 1 Iris Corrêa das Chagas Linck.pdf: 1456080 bytes, checksum: ea4a6f659a229e845649c58baaf8cb23 (MD5) / Made available in DSpace on 2015-07-03T17:52:39Z (GMT). No. of bitstreams: 1 Iris Corrêa das Chagas Linck.pdf: 1456080 bytes, checksum: ea4a6f659a229e845649c58baaf8cb23 (MD5) Previous issue date: 2012 / FINEP - Financiadora de Estudos e Projetos / Neste trabalho é desenvolvido um algoritmo híbrido que simula o comportamento do Codificador/Decodificador de vídeo H.264/AVC, ou simplesmente CODEC H.264, utilizado no Sistema Brasileiro de Televisão Digital. O algoritmo proposto tem a finalidade de buscar a melhor configuração possível de seis dos principais parâmetros utilizados para a configuração do CODEC H.264. Este problema é abordado como um problema de otimização combinatória conhecido como Problema de Seleção de Partes e que é classificado como NP-Difícil. O algoritmo híbrido proposto, denominado Simulador de Metaheurísticas aplicado a um CODEC (SMC), foi desenvolvido com base em duas metaheurísticas: Busca Tabu e Algoritmo Genético. Os seis parâmetros de configuração a serem otimizados pelo SMC são: o bit rate; o frame rate; os parâmetros de quantização de quadros tipo B, tipo P e tipo I e a quantidade de quadros tipo B em um grupo de imagens (GOP – Group of Pictures). Os dois primeiros parâmetros mencionados atuam basicamente sobre a qualidade da imagem do vídeo enquanto que os demais parâmetros atuam diretamente na compressão do vídeo. Experimentos e testes foram feitos utilizandose o CODEC H.264 desenvolvido no Projeto Plataforma de Convergência Digital IPTV/TV Digital (DigConv). Nos experimentos o CODEC tem seus parâmetros configurados de acordo com os resultados obtidos pelo SMC. Um vídeo é codificado no CODEC H.264 para que se possa analisar a sua qualidade de imagem e o seu grau de compressão após o processo de codificação. É feita uma correlação entre esses resultados e a Função Objetivo do SMC. A qualidade da imagem é medida através da métrica mais utilizada na literatura, o PSNR (Peak Signal to Noise Ratio), que é calculada pelo próprio CODEC ao final da codificação de um vídeo. Verificouse que à medida que a Função Objetivo aumenta, o CODEC H.264 consegue obter uma melhor qualidade de imagem e um maior grau de compressão de vídeo. / In this work is developed a hybrid algorithm that simulates the behavior of the H.264/AVC video encoder/decoder, or simply H.264 video CODEC, used in the Brazilian System of Digital Television. The proposed algorithm intends to seek the best possible configuration of the six main parameters used for configuring the H.264 video CODEC. This problem is treated as a combinatorial optimization problem known as the Parties Selection Problem, which is classified as NP-Hard. The proposed hybrid algorithm, called Simulator Metaheuristcs applied to a CODEC (SMC), was developed based on two metaheuristics: Tabu Search and Genetic Algorithm. The six configuration parameters to be optimized by the SMC are the bit rate, frame rate, the parameters of quantization tables of type B, type I and type P and the amount of frames type B in a group of pictures (GOP - Group of Pictures).The first two parameters mentioned, work primarily on the quality of the video image while the other parameters act directly on the video compression. Experiments and tests were done using the video CODEC H.264 developed in Digital Convergence Platform IPTV/Digital TV Project (DigConv). DigConv Project. In the experiments the CODEC has its parameters set according to the results obtained by the SMC. Then, a video is encoded by the CODEC in order to analyze the video image quality and the video compression degree reached after the encoding process. It is made a correlation between these results and the objective function of the SMC. The picture quality is measured by the metric most often used in literature, the PSNR (Peak Signal to Noise Ratio), which is calculated by the CODEC at the end of a video encoding process. It was found that as the objective function has increased, the CODEC reached a better image quality and a higher video compression.
379

Caracterização do fluxo de tráfego em rodovias de pista simples do Estado de São Paulo / Characterization of the traffic flow on two-lane rural highways in the state of São Paulo

José Elievam Bessa Júnior 29 October 2009 (has links)
A meta desta pesquisa foi caracterizar as relações fundamentais do fluxo de tráfego em rodovias de pista simples paulistas através de modelos baseados em parâmetros que reflitam a qualidade de serviço e possam ser observados diretamente em campo. Para que esta meta fosse atingida, primeiramente foram obtidos dados através de observações em campo e de sensores instalados em rodovias. Os dados coletados nas observações diretas foram usados para calibrar e validar um modelo de simulação através de um processo automático, baseado num algoritmo genético. Constatou-se que a versão recalibrada do simulador é capaz de reproduzir tanto informações de detectores como as correntes de tráfego observadas nos onze trechos onde foram coletados dados. Propôs-se um método para produção de dados de tráfego sintéticos, que utiliza um simulador microscópico e um algoritmo genético. Os dados sintéticos obtidos pelo método proposto foram usados para obter os modelos que descrevem as relações entre o fluxo de tráfego e a velocidade e a porcentagem de tempo viajando em pelotões (PTSF) para rodovias de pista simples no estado de São Paulo. Esses modelos poderiam substituir os utilizados pelo HCM-2000 em análises da qualidade de serviço em rodovias paulistas. Também foram propostos novos modelos para relações fundamentais que se adequaram melhor às condições paulistas: um modelo côncavo para a curva fluxovelocidade e um novo modelo exponencial para a relação entre o fluxo e a PTSF. Cinco medidas de desempenho capazes de substituir PTSF foram estudadas, tendo sido relacionadas com a taxa de fluxo bidirecional e unidirecional. As medidas de desempenho propostas foram avaliadas pela capacidade de refletir o nível de serviço observado em campo. Destas, uma nova definição da PTSF, calculada em função do número médio de headways dentro e fora de pelotões, apresentou a melhor porcentagem de acertos (90%), usando-se o mesmo critério adotado pelo HCM-2000. Em razão disso, e da possibilidade de observação direta da PTSF, recomenda-se sua adoção para avaliar a qualidade de serviço em rodovias de pista simples. / The goal of this research was to characterize the fundamental relationships of traffic flow on two-lane rural highways in the state of São Paulo through models based on parameters that reflect the quality of service and that could be obtained from direct observations of traffic flows. To reach this goal, sets of data were obtained from observation of traffic flows and from detectors installed on roads. The data collected from direct observation was used to calibrate and validate a microscopic traffic simulation model, as well as for the calculation of performance measures used in some of the analyses. The microsimulation model was calibrated using an automatic procedure that is based on a genetic algorithm. The recalibrated model was found to be able to reproduce traffic sensor data as well as traffic flow characteristics observed in the 11 road segments observed for this research. A procedure for synthetic data generation, which uses a microsimulation model and a genetic algorithm, was proposed. Synthetic data obtained through this procedure were used to develop the models that describe the relationships between flow rate, traffic stream speed and percent time spent following (PTSF) for two-lane roads in the state of São Paulo. These models could replace those used in the HCM-2000 for quality of service analysis of two-lane roads in São Paulo. New fundamental relationships, which better reflect the operational conditions on local two-lane roads were also studied: a concave speed-flow relationship and an exponential PTSF-flow model. Five alternatives to PTSF were studied and correlated to one-way and two-way flows. Among these, a novel definition of PTSF, based on the ratio of average number of headways within platoons and average number of headways between platoons, was found to be the most accurate (90% of the cases), adopting the HCM-2000 criteria. Thus, this new measure could be used to evaluate the quality of service on two-lane rural highways.
380

A programação no ensino médio como recurso de aprendizagem dos zeros da função polinomial do 2º grau

Siqueira, Fábio Rodrigues de 19 October 2012 (has links)
Made available in DSpace on 2016-04-27T16:57:20Z (GMT). No. of bitstreams: 1 Fabio Rodrigues de Siqueira.pdf: 2570104 bytes, checksum: 932e47e8f7aba3ad1adce0aba39a8a34 (MD5) Previous issue date: 2012-10-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This research has as objective to check if the proposal of an algorithm to be converted into a computer program can contribute to the learning of an object of mathematical study. For that, we have formulated the following research question: how can the elaboration of a converted algorithm into a computer program help high school students in the learning of the zeros of the 2nd degree polynomial function? The research was conducted in two stages. The first stage, with two initial activities, consisted of two parts: the first one with a 1st year high school student in order to verify if the activities were appropriate to the research and in the second part, after the application of the two activities, we have selected four participants for the second stage that had presented different results. After the analysis of the first stage development, the activities were improved to the second one, composed of three activities, among which the software Visualg 2.0 was used for the algorithm edition and its conversion to a computer program. The APOS theory by Ed Dubinsky, theoretical support of the research, presents the action levels, process, object and scheme, that allow the verification of the individual`s capacity to develop actions over an object and think about its properties. The research participants had improvements in their learning, because besides developing a computer program to determine the zeros of 2nd degree polynomial function, they have started to elaborate other functions previewing their possible solutions, presenting all the levels of the APOS theory. As research methodology we have adopted the Design Experiments. We have justified its use, for adjustments could be done during the work development. Analyzing the activities which were done we have concluded that the students have achieved a satisfactory learning level over the object of study / Esta pesquisa tem como objetivo verificar se a proposta de um algoritmo a ser convertido em um programa de computador pode contribuir na aprendizagem de um objeto de estudo matemático. Para tanto, formulamos a seguinte questão de pesquisa: como a elaboração de um algoritmo convertido em um programa pode auxiliar alunos do ensino médio na aprendizagem dos zeros da função polinomial do 2º grau? A pesquisa foi realizada em duas etapas. A primeira etapa, com duas atividades iniciais, foi composta por dois momentos: o primeiro com um aluno da 1ª série do ensino médio a fim de verificar se as atividades estavam adequadas à pesquisa e no segundo momento, após a aplicação das duas atividades, selecionamos quatro participantes para a segunda etapa que apresentaram resultados diferenciados. Após análise do desenvolvimento da primeira etapa, as atividades foram aprimoradas para a segunda, composta de três atividades, entre as quais foi utilizado o software Visualg 2.0 para edição do algoritmo e sua conversão para programa. A teoria APOS de Ed Dubinsky, aporte teórico da pesquisa, apresenta os níveis ação, processo, objeto e esquema, que permitem a verificação da capacidade do indivíduo em desenvolver ações sobre um objeto e raciocinar sobre suas propriedades. Os participantes da pesquisa tiveram melhorias em seu aprendizado, pois além de desenvolver um programa de computador para se determinar os zeros de funções polinomiais do 2º grau, passaram a elaborar outras funções já prevendo as possíveis soluções, apresentando todos os níveis da teoria APOS. A metodologia adotada nessa pesquisa foi o Design Experiments. Justificamos seu uso, pois adequações puderam ser realizadas durante o desenvolvimento do trabalho. Ao analisarmos as atividades realizadas concluímos que os alunos atingiram um nível de aprendizagem satisfatório acerca do objeto de estudo

Page generated in 0.0394 seconds