• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 539
  • 16
  • 6
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 568
  • 568
  • 341
  • 329
  • 280
  • 203
  • 131
  • 124
  • 121
  • 118
  • 114
  • 101
  • 101
  • 88
  • 85
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Métodos estatísticos e sistema neuro-fuzzy aplicados na avaliação de impactos ambientais / Statistical methods and neuro-fuzzy system applied in the environmental impact assessment

Valdetaro, Erlon Barbosa 30 November 2015 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-03-29T16:36:01Z No. of bitstreams: 1 texto completo.pdf: 2456636 bytes, checksum: df07e232b8b9d18c7ed86236c88f4676 (MD5) / Made available in DSpace on 2016-03-29T16:36:01Z (GMT). No. of bitstreams: 1 texto completo.pdf: 2456636 bytes, checksum: df07e232b8b9d18c7ed86236c88f4676 (MD5) Previous issue date: 2015-11-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O objetivo geral do trabalho foi avaliar a aplicabilidade do teste de qui-quadrado (χ2) e da lógica neuro-fuzzy na avaliação de impactos ambientais. Avaliou-se o uso dos métodos para reduzir a gama de dados de matrizes de interação e, assim, facilitar a exposição de seus resultados em audiências públicas e, também, calcular o grau de impacto a partir das características qualitativas do impacto ambiental. O estudo foi realizado com dados extraídos de matrizes de interação de avaliação quali-quantitativa de impactos ambientais de um programa de fomento florestal. O trabalho foi dividido em dois capítulos. No primeiro capítulo, por meio da estatística do qui-quadrado, foi investigado se a avaliação qualitativa das matrizes de interação exerce alguma influência nos resultados da avaliação quantitativa (grau de impacto) e também se os quadros de contingência, preparados para o teste, podem sintetizar as informações das matrizes de interação. Foi mostrado que existe uma associação entre as variáveis qualitativas e quantitativas e que os quadros de contingência são adequados para sintetizar os resultados das matrizes de interação de impactos ambientais, podendo ser utilizados em audiências públicas como forma de exposição dos resultados. No segundo capítulo foi avaliada a aplicabilidade de um sistema neuro-fuzzy para cálculo do grau de impacto ambiental a partir dos dados de avaliação qualitativa dos mesmos e, ainda, a capacidade dos gráficos de superfície, gerados pelo sistema, sintetizarem os resultados de matrizes de interação. Com os dados obtidos, foram criadas 87 regras e, após treinamento e teste, estimou-se 87 graus de impacto, um para cada regra, evidenciando que é possível a estimativa do grau de impacto por meio de sistema neuro-fuzzy. Os gráficos de superfície gerados pelo sistema se mostraram eficientes na síntese de resultados de matrizes de interação. Os dois métodos testados são capazes de reduzir a gama de dados de matrizes de interação e facilitam a exposição de resultados em audiências públicas. / The overall objective of this study was to evaluate the applicability of the chi- square test (χ2) and neuro-fuzzy logic in the evaluation of environmental impacts. Evaluated the use of methods to reduce the range of data interaction matrices and thus facilitate the display of results in public audiences and also calculate the degree impact from the qualitative characteristics of environmental impact. The study was conducted with data extracted from interaction matrices of qualitative and quantitative of the environmental impacts assessment of a forest development program. The work was divided into two chapters. In the first chapter, by statistical chi-square, was investigated whether the qualitative assessment of the interaction matrices have some effect on the results of quantitative assessment (degree impact) and also if tables of contingency, prepared for the test, can synthesize interaction matrices’ information. It was shown that there is an association between qualitative and quantitative variables and contingency tables are suitable to synthesize the interaction matrices’ results and can be used at public hearings as a way to exposure these results. The second chapter was evaluated the applicability of a neuro-fuzzy system to calculate the degree impact from the qualitative evaluation and also the ability of the surface charts, generated by the system, to synthesize the of interaction matrices’ results. With the data obtained, 87 rules have been created, and after training and testing, it was estimated 87degrees impact, one for each rule, showing that the estimate of degree impact by neuro-fuzzy system is possible. Surface charts generated by the system proved to be efficient in the synthesis of interaction matrices’ results. Both methods tested are able to reduce the range of interaction matrices’ data and facilitate exposure results in public hearings.
162

Simulação do sistema imunológico humano por meio de modelagem multiagente paralela / Simulation of the human immune system in modeling multi-agent means of parallel

Martins, Fábio Rodrigues 04 December 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-04-29T08:54:54Z No. of bitstreams: 1 texto completo.pdf: 2586171 bytes, checksum: 35bda2aae8a23a13663ca9387bd0044b (MD5) / Made available in DSpace on 2016-04-29T08:54:54Z (GMT). No. of bitstreams: 1 texto completo.pdf: 2586171 bytes, checksum: 35bda2aae8a23a13663ca9387bd0044b (MD5) Previous issue date: 2015-12-04 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho apresenta uma proposta de modelagem do sistema imunológico (SI) humano. Mais especificamente, propõe a modelagem do SI por meio de sistema multiagente paralelo. O ser humano é exposto a uma quantidade imensurável de agentes não-próprios no decorrer de um dia. O fato de não sermos afetados pe- los mesmos se deve ao SI, uma vez que atua para manter a homeostase (equilíbrio orgânico). Então, estudar o comportamento deste sistema é fundamental, já que de- scobertas nesta área impactam na vida de todas as pessoas. Uma forma de investigar o comportamento do SI é por meio de simulações computacionais (experimentação in-silico). Mas, como o SI é grande e complexo, demanda muito processamento. Esta característica impõe algumas restrições para estas simulações, já que até o momento uma geração de frameworks que estava disponível, no mercado, eram os ABMS (do inglês Agent-basead mod-eling and simulation), que são indicados para testes mais simples. Por este motivo, neste trabalho foi utilizado o framework Flame que se enquadra na geração HPC (do inglês High Performance Computing). Este framework é usado para programação paralela com alto poder computacional. No entanto, para agilizar ainda mais o resultado dos experimentos, em uma parte do modelo, foi utilizada a programação para placa gráfica (GPU). A comparação entre a implementação deste trabalho e de outro SI artificial - o AutoSimmune aponta que a abordagem multiagente paralelo é superior aos ABMS antigos. / The research presented this dissertation deals with the human immune system (IS) simulation. More specifically, about modeling the IS by parallel multi-agent systems. Human beings are exposed to an immeasurable number of threatening microorgan- isms everyday. The fact of not being affected by these same is due to the IS, since it operates to maintain homeostasis (organic balance). Thus the study this system behavior is essential, as discoveries in this area may have impact on the lives of all people. One way to investigate the IS behavior is by means of computer simulations (experiment in-silico). But as the IS is very large and complex it requires a lot of computing power.The emergence of agent oriented systems has provided an alterna- tive approach to address many complex problems similar to the immune system, that requires distributed behavior, local decisions, and emerging global behavior from the interactions of their basic elements. However, despite providing a suitable tool for modeling complex distributed systems, implementations of multi-agent systems are limited by the available hardware architecture. A recent possibility to circumvent this problem is the use of graphics cards to implement such systems. Nevertheless, these devices reach the optimal performance when agents have homogeneous and simple behavior, which might not be the case of many problems. Systems such as simulators of the immune system, in addition to having a large number of agents with complex behavior, those agents communicate massively, indirectly, through dissemination of various substances in their environment. Diffusion of substances is something easily simulated in modern current graphics cards, but the problem is to provide the results of those simulations to thousands (or millions) of agents simultaneously. Therefore in this study we used the Flame framework. This frame- work is used for parallel programming with self computational power. However, to further expedite the result of the experiment, in a part of the model program was used for the graphic card. The comparison between the implementation of this work and another immune system points out that the parallel multi-agent approach is superior to the sequential implementation.
163

Modeling and numerical simulation of fluid flow and heat transfer of a steel continuous casting tundish

Rocha, José Renê de Sousa 17 February 2017 (has links)
ROCHA, J. R. S. Modeling and numerical simulation of fluid flow and heat transfer of a steel continuous casting tundish. 2017. 91 f. Dissertação (Mestrado em Ciência de Materiais)-Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2017-07-25T11:20:37Z No. of bitstreams: 1 2017_dis_jrsrocha.pdf: 3666906 bytes, checksum: 42780d960166d0354f84586d96a51b44 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2017-08-02T18:42:27Z (GMT) No. of bitstreams: 1 2017_dis_jrsrocha.pdf: 3666906 bytes, checksum: 42780d960166d0354f84586d96a51b44 (MD5) / Made available in DSpace on 2017-08-02T18:42:27Z (GMT). No. of bitstreams: 1 2017_dis_jrsrocha.pdf: 3666906 bytes, checksum: 42780d960166d0354f84586d96a51b44 (MD5) Previous issue date: 2017-02-17 / Currently, the continuous casting process is the most used technique to produce steel. Being an inherently component of the caster machine, the tundish has been designed to be not only an intermediate vessel between the ladle and the mold, but also a device to remove inclusions and a metallurgical reactor. Therefore, the tundish has an important role in the continuous casting process. The physical model for heat transfer and fluid flow into the tundish is very complex, thus analytical solutions are not available. Physical studies might present many difficulties for analyzing the process. Hence, Computational Fluid Dynamics (CFD) emerges as an attractive alternative. CFD is based on numerical approaches that are used to solve several classes of engineering problems. The main goal of the present study is to analyze the fluid flow and temperature fields into an actual tundish configuration that is used in continuous casting processes of a local steelmaker company. Based on the performed simulations, some modifications in the geometry of the tundish are proposed in order to improve the steel quality; these modifications make use of weirs and dams. For solving the governing equations arising from the physical model, the Ansys CFX software, which is based on the Element-based Finite-Volume Method (EbFVM) were used. Simulations were performed using water and steel as working fluids for a turbulent flow in a 3D tundish. The results were presented in terms of velocity and temperature fields and Residence Time Distribution (RTD) curves, which evaluated them qualitatively and quantitatively. / O processo de lingotamento contínuo é o processo mais utilizado na produção de aço atualmente. Sendo um importante componente da máquina de lingotamento, o distribuidor tem sido projetado para atuar não apenas como um reservatório entre a panela e o molde, mas também como um dispositivo para remoção de inclusões e servir como um reator metalúrgico. Logo, o distribuidor assume um papel de relevância no processo de lingotamento contínuo. O modelo físico que rege a transferência de calor e escoamento dentro do distribuidor apresenta grande complexidade, tornando a sua solução analítica indisponível. Estudos físicos podem apresentar várias dificuldades para a análise do processo. Portanto, a Dinâmica dos Fluidos Computacional (CFD) surge com uma alternativa viável. CFD é baseada em aproximações numéricas as quais são utilizadas para a solução de várias classes de problemas de engenharia. O principal objetivo do presente trabalho é analisar os campos de escoamento e temperatura no interior de um distribuidor o qual é utilizado nos processos de lingotamento contínuo de uma companhia siderúrgica local. Com base nas simulações realizadas, modificações na geometria do distribuidor são propostas com o intuito de aumentar a qualidade do aço. Essas modificações são feitas através do uso de diques e barragens. Para a solução das equações de conservação originadas do modelo físico, o programa Ansys CFX, o qual utiliza o Método dos Volumes Finitos baseado em Elementos (EbFVM), foi utilizado. As simulações foram feitas utilizando-se aço e água como fluidos de trabalho para um escoamento turbulento em um distribuidor tridimensional. Os resultados foram apresentados em termos de campos de velocidade e temperatura e curvas de Distribuição de Tempo de Residência (RTD) as quais serviram para analisá-los qualitativa e quantitativamente.
164

Uso de simulador para validação de sistema de segurança de uma planta industrial

Reis, Renata Lins 06 1900 (has links)
Submitted by LIVIA FREITAS (livia.freitas@ufba.br) on 2015-10-20T15:04:48Z No. of bitstreams: 1 Dissertação_RenataLins.pdf: 5938202 bytes, checksum: 0c7f992a3f1f93b7144bcfd0d48238f5 (MD5) / Approved for entry into archive by LIVIA FREITAS (livia.freitas@ufba.br) on 2015-10-20T15:05:02Z (GMT) No. of bitstreams: 1 Dissertação_RenataLins.pdf: 5938202 bytes, checksum: 0c7f992a3f1f93b7144bcfd0d48238f5 (MD5) / Made available in DSpace on 2015-10-20T15:05:02Z (GMT). No. of bitstreams: 1 Dissertação_RenataLins.pdf: 5938202 bytes, checksum: 0c7f992a3f1f93b7144bcfd0d48238f5 (MD5) / É de suma importância que os operadores e engenheiros responsáveis por uma planta industrial tenham domínio do processo e se sintam seguros com relação a possíveis eventos anormais e falhas de equipamentos, pois decisões erradas podem se transformar em desastres. O uso de simuladores é uma excelente maneira de satisfazer esse objetivo, pois é capaz de fornecer resultados próximos à realidade sem envolver riscos de segurança e econômicos. Com base nisto, o objetivo desta dissertação é o desenvolvimento de um simulador dos sistemas de automação e segurança e que emule a operação de maneira similar a uma planta real. Esta ferramenta auxilia no treinamento e capacitação de operadores no que diz respeito à parte de segurança e irá possibilitar a análise de intertravamentos e o manuseio de controladores lógicos programáveis, equipamentos robustos e complexos normalmente utilizados no sistema de segurança de uma indústria
165

O uso da abordagem por competências no desenvolvimento de jogos de empresas para a formação de empreeendedores

Hermenegildo, Jorge Luiz Silva January 2002 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção / Made available in DSpace on 2012-10-19T16:10:30Z (GMT). No. of bitstreams: 0 / A presente pesquisa investiga os principais desenvolvimentos na área de empreendedorismo, e os referenciais de aprendizagem para a composição de um programa utilizando a abordagem por competências. A partir da vinculação dos jogos de empresas de caráter geral em uma pedagogia ativa, é apresentado um novo micro mundo simulado para formação de empreendedores utilizando o jogo de empresas como ferramenta final para vivenciar a prática de gestão de um negócio, sendo este jogo formulado com base em uma nova prática didático-pedagógica.
166

Teoria quântica do campo escalar real com autoacoplamento quártico - simulações de Monte Carlo na rede com um algoritmo worm

Leme, Rafael Reis [UNESP] 13 June 2011 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:25:34Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-06-13Bitstream added on 2014-06-13T19:53:28Z : No. of bitstreams: 1 leme_rr_me_ift.pdf: 924435 bytes, checksum: 92fdbfbe29ac1970f3d28a01d822ca6c (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Neste trabalho apresentamos resultados de simulações de Monte Carlo de uma teoria quântica de campos escalar com autointeração ´fi POT. 4' em uma rede (1+1) empregando o recentemente proposto algoritmo worm. Em simulações de Monte Carlo, a eficiência de um algoritmo é medida em termos de um expoente dinâmico 'zeta', que se relaciona com o tempo de autocorrelação 'tau' entre as medidas de acordo com a relação 'tau' 'alfa' 'L POT. zeta', onde L é o comprimento da rede. O tempo de autocorrelação fornece uma medida para a “memória” do processo de atualização de uma simulação de Monte Carlo. O algoritmo worm possui um 'zeta' comparável aos obtidos com os eficientes algoritmos do tipo cluster, entretanto utiliza apenas processos de atualização locais. Apresentamos resultados para observáveis em função dos parâmetros não renormalizados do modelo 'lâmbda' e 'mü POT. 2'. Particular atenção é dedicada ao valor esperado no vácuo < 'fi'('qui')> e a função de correlação de dois pontos <'fi'('qui')'fi'('qui' POT. 1')>. Determinamos a linha crítica ( ´lâmbda IND. C', 'mu IND C POT. 2') que separa a fase simétrica e com quebra espontânea de simetria e comparamos os resultados com a literatura / In this work we will present results of Monte Carlo simulations of the ´fi POT. 4'quantum field theory on a (1 + 1) lattice employing the recently-proposed worm algorithm. In Monte Carlo simulations, the efficiency of an algorithm is measured in terms of a dynamical critical exponent 'zeta', that is related with the autocorrelation time 'tau' of measurements as 'tau' 'alfa' 'L POT. zeta', where L is the lattice length. The autocorrelation time provides a measure of the “memory” of the Monte Carlo updating process. The worm algorithm has a 'zeta' comparable with the ones obtained with the efficient cluster algorithms, but uses local updates only. We present results for observables as functions of the unrenormalized parameters of the theory 'lâmbda and 'mü POT. 2'. Particular attention is devoted to the vacuum expectation value < 'fi'('qui')> and the two-point correlation function <'fi'('qui')fi(qui pot. 1')>. We determine the critical line( ´lâmbda IND. C', 'mu IND C POT. 2') that separates the symmetric and spontaneously-broken phases and compare with results of the literature
167

Integração entre um modelo de simulação hidrológica e Sistema de Informação Geográfica na delimitação de zonas tampão ripárias

Simões, Ligia Barrozo [UNESP] 09 March 2001 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:35Z (GMT). No. of bitstreams: 0 Previous issue date: 2001-03-09Bitstream added on 2014-06-13T20:42:02Z : No. of bitstreams: 1 simoes_lb_dr_botfca.pdf: 1117846 bytes, checksum: 175aba9f863c6b4c4658042c5e065053 (MD5) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Tem sido amplamente reconhecido que as atividades agrícolas são as maiores fontes de poluição difusa dos recursos hídricos. A manutenção de vegetação natural ribeirinha pode reduzir a entrada de poluentes e sedimentos nos cursos de água, favorecendo a infiltração da água no solo, absorvendo, retardando ou purificando o escoamento antes que ele atinja os rios. Apesar do reconhecimento da importância das matas ripárias nesse aspecto e da Legislação Brasileira ser bastante preventiva, existem poucos estudos sobre a eficiência de retenção e as larguras necessárias em climas tropicais. Nesse sentido, os principais objetivos do presente estudo foram avaliar a eficiência de diversas larguras de mata ripária em reter o escoamento e reduzir o pico do escoamento para as condições mais críticas da área de estudo; estabelecer condições de referência para comparação com outras situações da área; aplicar o modelo de tempo de detenção para delinear larguras necessárias variáveis para toda área de estudo e identificar áreas mais frágeis, cuja restauração deveria ser priorizada. As condições mais críticas da área de estudo (área degradada), onde o escoamento superficial deve predominar, foram simuladas para avaliar a eficiência da zona ripária em controlar a poluição não pontual. Utilizou-se o Catchment Hydrology Distributed Model (CHDM, Lopes, 1995), para geração do escoamento que atinge o corpo d'água após passar por zonas tampão de comprimentos variáveis, para precipitaçõess de 6 tempos de retorno diferentes (1, 5, 10, 25, 50 e 100 anos), com durações de 30, 45 e 60 minutos. A área degradada consistiu num Podzólico Vermelho-Amarelo, sob uso agrícola. Os resultados indicaram eficiências máximas de 96,59% para redução do escoamento superficial e 90,18% para o pico do escoamento, com uma zona tampão de 100 m, para uma precipitação de tempo de retorno de 1 ano e duração de 60 minutos. / Agricultural activities are one of the major contributors to non-point source pollution of inland surface and underground water. Keeping riparian vegetation can reduce pollutants and sediment away from water bodies, functioning as filter to delay, absorb, or purify runoff before it reaches surface waters. Although the Brazilian legislation recognizes the importance of riparian forests, there are few studies addressing their runoff retention capability and the riparian width efficiency in the Tropics. This study was conducted on the upper section of the Pardo River watershed, São Paulo State, Brazil, with the intent of: (a) evaluating efficiencies of different riparian widths in runoff retention in the most critical condition of the study area, (b) establishing a reference buffer, (c) applying the detention time model (Phillips, 1989a) to delineate efficient widths for the entire area and, (d) identifying priority areas for restoration. Conditions of degraded areas, where superficial flow might prevail, were simulated in order to evaluate riparian buffer efficiency to control non-point pollution. It was employed the Catchment Hydrology Distributed Model (Lopes, 1995), to generate runoff values to variable buffer widths for events of 6 return periods (1, 5, 10, 25, 50 and, 100 years), with 30, 45 and 60 minutes of duration. Degraded area comprised pastureland on Ultisoll (Podzólico Vermelho-Amarelo). Results indicated maximum efficiencies of 96.59% to overland flow reduction and, 90.18% to peak flow for 100-meter buffer zone, to 1-year return period event of 60 minutes. Minimum efficiencies reached 7.33% and 4.51%, respectively, to overland and peak flow for a 100-year event, with 30 minutes and 10-meter buffer width. Minimum width of 30 meters for streams up to 10-meter width, established by Brazilian Forestry Code, reached maximum efficiencies of 46.52% to runoff and, 32.40% to peak flow reduction.
168

Benefícios e dificuldades na utilização dos jogos de empresas : survey em cursos de graduação em administração na região noroeste do estado de São Paulo /

Gracia, André Luiz Crevelaro. January 2014 (has links)
Orientador: José de Souza Rodrigues / Banca: Manoel Henrique Salgado / Banca: Edmundo Escrivão Filho / Resumo: A demanda social por profissionais capazes de lidar com problemas que exigem trabalho em equipe e multidisciplinaridade pressiona as instituições de ensino superior a inovarem em seus métodos de ensino-aprendizagem. Os jogos de empresas são utilizados como um método didático-pedagógico capaz de cumprir esta tarefa, seja porque coloca o aluno no centro do processo, seja porque desenvolve habilidades e competências associadas à visão sistêmica, multidisciplinaridade, trabalho em equipe e torna o processo de aprendizagem vivencial. Neste contexto, este trabalho faz uma revisão bibliográfica sobre jogos de empresas, seu surgimento, objetivos, vantagens, desvantagens, sua utilização como método educacional. O objetivo desta obra é apresentar os benefícios e as dificuldades de utilização dos jogos de empresas nos cursos de administração nas instituições de ensino superior da região noroeste do estado de São Paulo e também efetuar uma comparação com dados de uma pesquisa realizada no estado de São Paulo por Neves e Lopes em 2008, onde se calculou um índice 48,46% de utilização dos jogos nos cursos de graduação em Administração no estado de São Paulo e projetado que este índice estaria entre 63% e 79% até 2013. O método de pesquisa utilizado foi um survey com aplicação de questionário a coordenadores de 20 cursos. Os dados foram analisados através de estatística descritiva. Os resultados mostram que houve uma redução no uso dos jogos nesses cursos e os principais fatores para essa redução foram custos e falta de docente capacitado para trabalhar com jogos de empresas / Abstract: The social demand for professionals capable of dealing with problems that require multidisciplinary and team work press Higher Educational Institutions to innovate in their methods of teaching and learning. The business game are used as a didactic-pedagogic method to accomplish this task, because it puts the learner at the center of the case, either because it develops skills and competencies associated with systemic vision, multidisciplinary, team work and makes the learning process experiential. In this context, this paper shows a literature review on business games, its appearance, goals, advantages, disadvantages, and its use as an educational method. The purpose of this paper is to present the benefits and difficulties of using game in business administration courses in Higher Educational Institutions in the Northwest region of São Paulo and also make a comparison with data from a survey conducted in the state of São Paulo by Neves and Lopes in 2008, which calculated a 48,46% rate use of games in undergraduate courses in Management in São Paulo and projected that this rate would be between 63% and 79% by 2013. The research method used was a questionnaire survey with application of the coordinators of 20 courses. Data were analyzed using descriptive statistics. The results show that a reduction in the use of games, in these courses and the man factors for this reduction were cost and lack of trained teachers to work with business games / Mestre
169

Análise comparativa de técnicas de compressão aplicadas a imagens médicas usando ultrassom

Zimbico, Acácio José 18 March 2014 (has links)
CAPES / A área de compressão de imagem é de grande importância para aplicações médicas. As técnicas de compressão têm sido muito estudadas por permitirem representar de forma eficiente os dados, reduzindo o espaço necessário para armazenamento e minimizando a demanda na transmissão através de canais de comunicação. A técnica de compressão JPEG usa a transformada discreta de cossenos bidimensional e as técnicas Joint Photographic Experts Group 2000 (JPEG2000), Set Partitioning in Hierarchical Trees (SPIHT) e Embedded Zerotree Wavelet (EZW) usam a Transformada Wavelet bidimensional. Neste trabalho, uma análise comparativa é feita usando as métricas Mean Squared Error (MSE), Peak Signal to Noise Ratio (PSNR), Cross Correlation (CC) e Structural Similarity (SSIM) assim como uma avaliação indireta de esforço computacional através do tempo de processamento. A análise usando a técnica de compressão JPEG usando blocos de tamanhos diferentes permite concluir sobre a influência da frequência central dos transdutores ultrassônicos nos detalhes da imagem assim como concluir que o uso de blocos de tamanho 8x8 e 16x16 pixeis tem o melhor desempenho que o uso de blocos de menos tamanho. Adicionalmente, ao avaliar matrizes de quantização alternativas propostas por Hamamoto, Veraswamy e Abu para a técnica de compressão JPEG introduzem melhorias na qualidade da imagem de ultrassom reconstruída quando comparadas a matriz de quantização tradicional considerada taxa de compressão constante na comparação. Para técnicas usando a transformada wavelet foi possível observar o impacto significativo na qualidade da imagem de ultrassom reconstruída em função dos filtros utilizados. Finalmente, pode-se concluir que o algoritmo JPEG2000 apresenta o melhor desempenho em relação à qualidade de imagem e ao tempo de processamento quando comparado com os algoritmos JPEG, SPIHT e EZW. / The area of image compression is of great importance for medical applications. Compression techniques have been studied for allowing to efficiently representing the data, reducing the required storage space and minimizing the demand on transmission through communication channels. The JPEG compression technique uses a two-dimensional discrete cosine transform and techniques Joint Photographic Experts Group 2000 (JPEG2000), Set Partitioning in Hierarchical Trees (SPIHT) and Embedded Zerotree Wavelet (EZW) use the two-dimensional wavelet transform. In this work, a comparative analysis is made using the metrics Mean Squared Error (MSE), Peak Signal to Noise Ratio (PSNR), Cross Correlation (CC) and Structural Similarity (SSIM) as well as an indirect assessment of computational effort through time processing. The analysis using the JPEG compression technique using blocks of different sizes allows us to conclude on the influence of the center frequency of the ultrasonic transducers in the details of the image so as to conclude that the use of blocks of size 8x8 and 16x16 pixels has better performance than the use of note less size. Additionally, in evaluating alternative quantization matrices proposed by Hamamoto, Veraswamy and Abu for JPEG compression technique is concluded that these introduce improvements in the quality of reconstructed ultrasound image when compared to traditional matrix quantization considered that given compression rate in comparison. Techniques for using the wavelet transform have been possible to observe a significant impact on the quality of the ultrasound image reconstructed on the basis of the filters used. Finally, it was concluded that the JPEG2000 algorithm has the best performance with respect to image quality and processing time compared with JPEG, EZW and SPIHT algorithms.
170

Avaliação do desvio lateral do feixe em protonterapia

Cassetta Junior, Francisco Roberto 31 July 2013 (has links)
Neste trabalho foi desenvolvido um estudo sobre o desvio lateral do feixe utilizado em protonterapia. Por meio de softwares, como o SRIM2012 e GEANT4, que permitem simulações de passagem de partículas pesadas pela matéria, foi possível a obtenção de resultados para estudos específicos nessa área. A importância dessas simulações vem de sua simplicidade de uso frente ao alto custo dos aceleradores de hádrons e a enorme variedade de possibilidades para análises de métodos. A protonterapia vem apresentando resultados promissores frente ao tratamento convencional por fótons, e a análise dos parâmetros calculados por simulações e seus níveis de incerteza na região do pico de Bragg será essencial para o futuro aprimoramento de planos de tratamento em protonterapia. Foram utilizados alvos compostos de água e também de materiais substitutos aos tecidos humanos para a análise do espalhamento do feixe de prótons, e os resultados obtidos apresentam a tendência do aumento do desvio lateral na região de máximo alcance dos prótons com o aumento da energia inicial do feixe, sendo esta incerteza lateral da mesma ordem de grandeza da incerteza em profundidade encontrada na literatura atual. / This work developed a study of the lateral deviation of the beam used in proton therapy. Through software, such as SRIM2012 and GEANT4, which allow simulations of heavy particles passing through matter, it was possible to obtain results for specific studies in this area. The importance of these simulations comes from its simplicity of use mainly due to the high cost of hadron accelerators and the huge variety of possibilities for methods analysis. The proton therapy has shown promising results compared to conventional treatment by photons, the analysis of the parameters calculated by simulations and their levels of uncertainty in the region of the Bragg peak will be essential for future improvements of treatment plans in proton therapy. Targets used were composed of water and also of human tissue substitute materials for scattering analysis of the proton beam, and the results show the trend of increased lateral deviation with initial energy of the beam increasing in the region of maximum range of protons, where we find the Bragg peak, and this lateral uncertainty has the same order of magnitude than the uncertainty in depth found in the current literature.

Page generated in 0.0616 seconds