• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2072
  • 111
  • 100
  • 100
  • 99
  • 97
  • 51
  • 9
  • 3
  • 1
  • Tagged with
  • 2144
  • 2144
  • 682
  • 528
  • 528
  • 482
  • 433
  • 353
  • 342
  • 253
  • 248
  • 242
  • 241
  • 191
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Uma metodologia para melhoria de processos baseada em Design Thinking

PICANÇO, Caroline Tavares 04 August 2017 (has links)
LIMA, Simone Cristiane dos Santos, também é conhecida em citações bibliográficas por: SANTOS, Simone Cristiane dos / Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-14T21:10:12Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Caroline Tavares Picanço.pdf: 5193588 bytes, checksum: 183c7ea2d865905bb4213d1a21a9527c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-18T15:38:21Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Caroline Tavares Picanço.pdf: 5193588 bytes, checksum: 183c7ea2d865905bb4213d1a21a9527c (MD5) / Made available in DSpace on 2018-09-18T15:38:21Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Caroline Tavares Picanço.pdf: 5193588 bytes, checksum: 183c7ea2d865905bb4213d1a21a9527c (MD5) Previous issue date: 2017-08-04 / Diante da alta competitividade do mercado e da necessidade de inovação constante para alcançar objetivos de negócios, as empresas buscam por alternativas que melhorem continuamente seus processos. Neste cenário, o gerenciamento de processos de negócio (do inglês, Business Process Management ou BPM) permite que as organizações consigam acompanhar suas atividades do início ao fim, a partir da definição de objetivos, mapeamento, análise, melhorias, execução e mensuração de seus processos de negócios. Em particular, a fase de melhoria de processos de negócios é essencial para que mudanças sejam realizadas de modo a alcançar resultados mais positivos, evitando erros, cortando custos, entregando valor ao cliente, entre outros. Nesse contexto, as organizações necessitam realizar atividades que identifiquem os problemas de negócio, bem como determinar o que deve ser melhorado e estabeleçam cenários concretos de mudanças, levando em consideração o entendimento das pessoas envolvidas no negócio. A proposta desta pesquisa é, primeiramente, motivada pela experiência profissional da pesquisadora que observou na organização onde trabalha, a deficiência no alinhamento entre a viabilidade do negócio, a disponibilidade da tecnologia e o desejo das pessoas envolvidas. Numa investigação ad hoc da literatura, foi constatada uma grande carência de soluções efetivas para este problema, principalmente, que motivasse a participação de pessoas neste processo. Diante disso, como forma de garantir a melhoria de processos de negócio por uma abordagem centrada no ser humano, este trabalho propõe uma metodologia para a melhoria de processos utilizando a abordagem Design Thinking (DT). Essa metodologia possui atividades que servem para analisar e solucionar desafios de forma colaborativa e coletiva, numa perspectiva de empatia máxima entre as pessoas envolvidas. Além disso, para proporcionar maior engajamento entre pessoas e o negócio, utilizou-se técnicas de gamificação dentro da metodologia. Para avaliar a metodologia proposta, um estudo de caso foi realizado numa organização pública, mostrando resultados positivos e benefícios da utilização da metodologia para o cenário apresentado, contribuindo, assim, para a fase de melhoria de processos de negócios. / Faced with the high competitiveness of the market and the need for constant innovation to achieve business objectives, companies look for alternatives to continuously improve their processes. In this scenario, the business process management (BPM) enables organizations to track their activities from start to finish, from the definition of objectives, mapping, analysis, improvement, implementation and measurement of its business processes. In particular, the phase of improvement of business processes is essential for changes to be made in the pursue to achieve more positive results, avoiding mistakes, cutting costs, delivering value to the customer, among others. In this context, organizations need to carry out activities to identify business problems and determine what should be improved and establish concrete scenarios of changes, taking into account the savviness of the people involved in the business. The proposal of this research is primarily motivated by the professional experience of the researcher who observed the deficiency in the alignment between the viability of the business, the availability of the technology and the desire of the people involved, in the organization where it works. In an ad hoc investigation of the literature, we observed a great need for effective solutions to this problem mainly to motivate the participation of people in this process. Therefore, in order to ensure improvement of business processes through a focused approach in humans, this work proposes a methodology for process improvement using the approach of Design Thinking (DT). This methodology has activities that serve to analyze and solve challenges collaboratively and collectively, in a maximum empathy perspective of the people involved. Moreover, to provide greater engagement between the people and the business, gamification techniques are used within the method. To evaluate the proposed methodology, a case study was conducted in a public organization, showing positive results and benefits of the use of the methodology for the presented scenario, thus contributing to the phase of improvement of business processes.
132

Análise empírica da utilização de técnicas de aprendizagem de máquina para classificação de sequências de proteínas de Metarhizium anisopliae / Empirical analysis of machine learning techniques for classification of protein sequences of Metarhizium Anisopliae

Dias, Maria Fernanda Ribeiro 23 February 2015 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2015-04-02T18:45:21Z No. of bitstreams: 1 Dissertacao_MariaFernandaRibeiroDias_entregue.pdf: 3554535 bytes, checksum: 008e52d46f1049b4b131d2d5de745ce9 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2015-04-02T18:45:37Z (GMT) No. of bitstreams: 1 Dissertacao_MariaFernandaRibeiroDias_entregue.pdf: 3554535 bytes, checksum: 008e52d46f1049b4b131d2d5de745ce9 (MD5) / Made available in DSpace on 2015-04-02T18:45:51Z (GMT). No. of bitstreams: 1 Dissertacao_MariaFernandaRibeiroDias_entregue.pdf: 3554535 bytes, checksum: 008e52d46f1049b4b131d2d5de745ce9 (MD5) Previous issue date: 2015-02-23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) / Metarhizium anisopliae} is an entomopathogenic fungus used as biological insecticide possessing proteins linked to infection processes and unknown control mechanisms, many of which may be controlled by the ubiquitination system. In this work we used machine-learning techniques to predict {\it M. anisopliae~ isolate E6} ubiquitination-prone proteins. One hundred fifty-one ubiquitinable peptides and one hundred fifty-one non-ubiquitinable peptides from {\it S. cereviseae} and {\it H. sapiens} were used as the training set.\!\footnote{(http://iclab.life.nctu.edu.tw/ubipred/)} These peptides were composed by 21 amino acids flanking a central lysine residue. Each of these peptides was represented as a numerical vector corresponding to the average value for their constituent amino-acids of each of the 31 physicochemical properties previously used in Ubipred. Hierarchical clustering of ubiquitinable proteins from this dataset showed evidence of correlation between several physicochemical properties, indicating redundancy in these features. Redundant features may cause model overfitting and increase computational cost. We used the classification algorithm Weighted-Voting (W-V), with cross validation, to disclose the minimal set of features best correlated with the probability of a given peptide being ubiquitinable. WeightedVotingXvalidation performed similarly for vectors of 10 and 31 dimensions. Indeed, each of the 10 features in the minimal set correlates with most of the remaining 21 features, as confirmed by pairwise Pearson correlation test (coefficients ranging from -0.95 to -0.40 and 0.40 to 0.98). We then compared the performance of the algorithms W-V and Support Vector Machine (SVM) with radial kernel for vectors with 10 or 31 dimensions. In both cases, SVM outperformed W-V. The resulting of recall, precision and accuracy with 10 features were respectively, 67\%, 65\% and 66\% for SVM against 65\%, 55\% and 47\% for W-V and with 31 features were 71\%, 71\% and 71\% for SVM against 60\%, 55\% and 52\% for W-V. Processing time in ASUS K43U, Process with AMD Dual Core C60 1.0 GHz, 2 x 512 KB of cache memory, 4 GB of RAM. Processing time was 8h and 22h, for SVM with 10 or 31 physicochemical features, respectively. Considering the risk of overfitting the model due to features redundancy, we applied the SVM trained with 10 features to search for ubiquitination-prone proteins in the predicted proteome of {\it M. anisopliae~ isolate E6} (10,775 proteins). The 160,694, 21-amino acids long peptides flanking a central lysine residue extracted from these proteins were represented as a 10 dimensional vector for the training dataset. Forty-four of these proteins with no lysine were automatically excluded from this analysis. The classifier predicted 9,314 proteins as being ubiquitination-prone. The small loss of performance of the SVM after dimensionality reduction is compensated by the significant reduction in processing time. The feature correlations suggest a lower risk of overfitting for the 10-dimensions model. / Metarhizium anisopliae é um fungo entomopatogênico utilizado como inseticida biológico. Este organismo possui proteínas ligadas ao processo de infecção cujos mecanismos de controle ainda são desconhecidos. Muitos destes mecanismos podem ser controlados pelo sistema de ubiquitinação. Neste trabalho, foram utilizados métodos de aprendizado de máquina para classificar sítios de ubiquitinação em proteínas preditas, a partir do genoma do fungo {\it \Manisopliae~} isolado E6.  Cento e cinquenta e um (151) peptídeos ubiquitinados e cento e cinquenta e um (151) peptídeos não-ubiquitinados de {\it S.cereviseae} e {\it H.sapiens} foram utilizados como conjunto de treinamento.\!\footnote{(http://iclab.life.nctu.edu.tw/ubipred/)} Cada um destes peptídeos foi composto por 21 aminoácidos com um resíduo de lisina central. Os peptídeos foram representados como vetores numéricos que correspondem ao valor médio das propriedades físico-químicas dos aminoácidos. O agrupamento hierárquico feito com os peptídeos (dados de treinamento), mostrou evidências de correlação entre várias propriedades físico-químicas, indicando alguma redundância nos atributos. Atributos redundantes podem causar {\it overfitting} do modelo e aumentar o custo computacional. Nós utilizamos o algoritmo {\it WeightedVotingXValidation} para descobrir o conjunto mínimo de atributos que me\-lhor re\-pre\-sen\-tam os peptídeos a serem classificados como ubiquitináveis ou não. O algoritmo {\it WeightedVotingXValidation} apresentou um comportamento semelhante para vetores de 10 e 31 dimensões. A correlação entre os atributos foi confirmada pelo teste de correlação de Pearson (coeficientes que variam de -0,95 a -0,40 e 0,40 a 0,98). Em seguida, comparamos o desempenho dos classificadores W-V e {\it Support Vector Machine} (SVM) com a função {\it kernel} radial para vetores com 10 ou 31 dimensões. Em ambos os casos, os resultados do SVM superou W-V. O resultado de {\it recall}, precisão e acurácia quando utilizamos 10 atributos foram, respectivamente, 67 \%, 65\% e 66\% para SVM, contra 65\%, 55\% e 47\% para W-V. Com o uso de 31 atributos, o resultado para os indicadores de desempenho foi de 71\%, 71\% e 71\% para SVM contra 60\%, 55\%, 52\% para W-V. Os dados foram processados em um {\it notebook} ASUS K43U com AMD Dual Core C60 1.0GHz , 2 x 512 KB de memória cache, 4 GB de RAM. O tempo de processamento foi de 8h e 22h, para SVM com 10 e 31 atributos físico-químicos, respectivamente. Considerando-se o risco de {\it overfitting} do modelo e a redundância dos atributos, nós aplicamos o algoritmo SVM treinado com 10 atributos físico-químicos para classificar possíveis proteínas propensas a ubiquitinação no proteoma de {\it \Manisopliae~} isolado E6 (10.775 proteínas). Os 160.694 peptídeos particionados em 21 aminoácidos contendo um resíduo de lisina na posição central, extraídos a partir de proteínas, foram representados por vetores de 10 dimensões e utilizados como conjunto independente. Das \seqliprot, 9.314 foram classificadas como sendo propensas a ubiquitinação e 1.417 como não-ubiquitináveis. Quarenta e quatro destas proteínas não foram analisadas por não possuírem o aminoácido lisina. A pequena perda de desempenho com a redução de dimensão do espaço de dados é compensada pela redução significativa no tempo de processamento e pelo menor risco de {\it overfitting} utilizando vetores de 10 dimensões.
133

Implantação e análise do protocolo IPv6 com foco na mobilidade

Carvalho, Democlydes Divino Pereira de 02 July 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência Da Computação, 2015. / A Internet tem crescido exponencialmente desde a sua implantação comercial em meados de 1980. A pilha de protocolo TCP / IP foi projetada para permitir a comunicação entre os hosts através de redes. Na sua versão 4, o protocolo IP foi capaz de suportar o crescimento da Internet até ao presente momento, mas o seu endereçamento de 32 bits está esgotado, e não há mais endereços disponíveis para uma redistribuição. Além deste fato, há o conceito de utilização de dispositivos com suporte a mobilidade, uma realidade que requer soluções robustas e acessíveis. Esse assunto é o cerne do desenvolvimento deste trabalho. O problema abordado nesta pesquisa é como implementar o protocolo IPv6 em uma rede corporativa, seguindo as normas, sem interferir com a sua capacidade operacional e fazer uso deste recurso de mobilidade, dando condições para alcançar uma otimização na transmissão de dados entre as Organizações Militares (OM ), distribuídas por todo o país, realizando uma análise a respeito tanto a migração do IPv4 para o IPv6 nas infra-estruturas de rede do Exército Brasileiro, com foco em mobilidade no âmbito deste novo protocolo. Este trabalho pretende alertar os envolvidos nos setores brasileiros de tecnologia do Exército sobre o atraso atual em relação ao resto do mundo na adoção deste protocolo, estreitar o ponto sob conceitos de mobilidade para comunicação, seus laços dando uma atenção especial que com este aplicação, todo o pessoal poderia ser capaz de se conectar em diferentes organizações militares, usando suas credenciais de sua organização, permitindo que um único registro pode ser usado em diferentes pontos sem perda ou restrição de qualquer acesso aos serviços. Através do estudo e análise das normas e requisitos de transição do IPv4 para o IPv6, bem como o uso de IPv6 móvel, este estudo se concentra na identificação configurações físicas e lógicas que podem apoiar ou impedir a sua correta aplicação por meio de um ambiente simulado em uma organização específica exército brasileiro descrito como uma prova de conceito. Este ambiente teve uma análise topológica e verificação das métricas de QoS das aplicações instaladas sobre o meio ambiente e com isso foi possível avaliar a sua viabilidade e impacto sobre os ambientes envolvidos. / The Internet has grown exponentially since its commercial deployment in the middle of 1980's. The stack of TCP / IP protocol was designed to enable communication between hosts over networks. In its version 4, the IP protocol was able to support the growth of the Internet until the present time, but its 32-bit addressability is exhausted, and there is no more addresses available to be redistributed. In addition to this fact there is the concept of using devices with mobility support, a reality that requires robust and affordable solutions. That subject is the core of the development of this work. The problem addressed in this research is how to deploy IPv6 protocol in a corporate network by following the standards, without interfering with its operational capacity and make use of this mobility feature, giving conditions to achieve an optimization in data transmission between the Military Organizations (OM), distributed all over the country, performing an analysis regarding both the migration from IPv4 to IPv6 in the Brazilian Army network infrastructures, focusing on under this new protocol mobility. This work intend to alert those involved in Brazilian Army technology sectors about the current delay in relation to the rest of the world in the adoption of this protocol, narrow the point under concepts of mobility to communication, their ties giving an special attention that with this implementation, all personnel could be able to connect in different military organizations, using their credentials from their organization, allowing a single register can be used in different points without loss or restriction of any access to services. Through the study and analysis of standards and requirements of transition from IPv4 to IPv6, as well as the use of mobile IPv6, this study is focused on identifying physical and logical configurations that may support or prevent the its correct implementation by using an simulated environment in an specific Brazilian Army organization described as a Proof of Concept. This environment had a topological analysis and verification of QoS metrics of applications installed on the environment and with this was possible to assess their feasibility and impact on the involved environments.
134

Comparing restricted propagation grafhs for the similarity flooding algorithm

Peschl, Gabriel January 2015 (has links)
Orientador : Prof. Dr. Marcos Didonet Del Fabro / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 26/05/2015 / Inclui referências : f.51-54 / Resumo: A Engenharia de Software Orientada a Modelos é uma metodologia que utiliza modelos no processo de desenvolvimento de software. Muitas operações sobre esse modelos são necessárias estabelecer links entre modelos distintos, como por exemplo, nas transformação de modelos, nas rastreabilidade de modelos e nas integração de modelos. Neste trabalho, os links são estabelecidos através da operação matching. Com os links estabelecidos é comum calcular os valores de similaridades a eles, além de se indicar um grau de igualdade entre esses links. O Similarity Flooding é um algoritmo bem estabelecido que pode aumentar a similaridade entre os links. O algoritmo é genérico e está provado sua eficiência. Contudo, ele depende de uma estrutura menos genérica para manter a sua eficiência. Neste trabalho, foram codificados 9 métodos distintos de propagações para o Similarity Flooding entre os elementos de metamodelos e modelos. Esses elementos compreendem classes, atributos, referências, instâncias e o tipo dos elementos, por exemplo, Integer, String ou Boolean. Além de verificar a viabilidade desses métodos, 2 casos de estudos são discutidos. No primeiro caso de estudo, foram executados os métodos entre os metamodelos e modelos de Mantis e Bugzilla. Em seguida, foram executados os métodos entre os metamodelos e modelos de AccountOwner e Customer. Por fim, é apresentado um estudo comparativo entre os métodos de propagações codificados com um método genérico, com o objetivo de verificar quais métodos podem ser mais (ou menos) eficiente para o Similarity Flooding, dentre os metamodelos e modelos utilizados. De acordo com os resultados, utilizando técnicas restritas de propagações do SF, as similaridades entre os links melhoraram em relação a execução genérica do algoritmo. Isso porque diminuindo a quantidade de links o SF pode ter um melhor desempenho. / Abstract: In Model-Driven Software Engineering (MDSE), different approaches can be used to establish links between elements of different models for distinct purposes, such as serving as specifications for model transformations. Once the links have been established, it is common to set up a similarity value to indicate equivalence (or lack of) between the elements. Similarity Flooding (SF) is one of the best known algorithms for enhancing the similarity of structurally similar elements. The algorithm is generic and has proven to be efficient. However, it depends on graph-based structure and a less generic encoding. We created nine generic methods to propagate the similarities between links of elements of models. These elements comprise classes, attributes, references, instances and the type of element, e.g., Integer, String or Boolean. In order to verify the viability of these methods, 2 case studies are discussed. In the first case study, we execute our methods between metamodels and models of Mantis and Bugzilla. In the following, the metamodels and models of AccountOwner and Customer are used. At the end, a comparative study of the metamodel-based encoding is presented for the purpose of verifying whether a less generic implementation, involving a lesser number of model elements, based on the metamodel and model structures, might be a viable implementation and adaptation of the SF algorithm. We compare these methods with an implementation comprising all the propagation strutures (non-restricted propagation), which are more similar (though not equivalent) to the original SF implementation. According to the results, using the restricted propagation graphs of the SF, the similarity values between the links has increased in relation to the non-restricted algorithm. This is because reducing the amount of links, will increase the propagation values between the links of elements.
135

Data mining aplicado ao serviço público, extração de conhecimento das ações do Ministério Público Brasileiro

Guimarães, William Sérgio Azevêdo January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-17T20:19:29Z (GMT). No. of bitstreams: 1 194202.pdf: 2045819 bytes, checksum: 09c4f4d78ca4843d88bc1b61687bc359 (MD5)
136

Avaliação de desempenho de aplicações de áudio e vídeo na Rede Metropolitana de Alta Velocidade de Florioanópolis

Xavier, Kenner January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-18T00:54:06Z (GMT). No. of bitstreams: 1 200159.pdf: 688594 bytes, checksum: 02e222f960ef88d5b9d9301c6554ae4c (MD5) / O processo de avaliação de desempenho em redes de computadores, possibilita a comprovação de algumas aplicações assim como a comprovação do desempenho das próprias redes. Neste trabalho, apresenta-se uma metodologia para os procedimentos de avaliação de desempenho em redes de computadores, considerando aplicações de áudio e vídeo em uma rede de alta velocidade, isto foi possível utilizando como estudo de caso o ambiente apresentado pela Rede Metropolitana de Alta Velocidade de Florianópolis. O método adotado utiliza técnicas de simulação, é ilustrado com a utilização de um "software" especifico para esta tarefa, os resultados são comparados com as mensurações obtidas do estudo de caso. As conclusões resultantes deste trabalho sugerem o desenvolvimento de medições em um período de tempo mais amplo e descrevem as limitações que podem comprometer a interpretação dos resultados.
137

Um ambiente operacional para tempo-real baseado no modo virtual 8086 dos processadores 80386 e 80486

Flores, Sidney January 1995 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2012-10-16T09:39:19Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T19:58:34Z : No. of bitstreams: 1 99812.pdf: 3013465 bytes, checksum: 55adb1b04262706b99370dc4dab40d9f (MD5) / Apresenta um panorama dos sistemas operacionais multitarefa para tempo-real com aplicações em automação industrial, descreve as características de sistemas operacionais multitarefas, as necessidades das aplicações em tempo-real, traça um panorama dos processadores 80386 e 80486 da Intel e suas características para apoio à multitarefa e desenvolve um ambiente operacional multitarefa para tempo-real cuja principal característica é ser capaz de executar tarefas desenvolvidas para o ambiente DOS, no modo virtual 8086, com paginação, para evitar a limitação de 640 Kb. O código fonte do sistema desenvolvido está incluído em um disquete.
138

Projeto do sistema de comunicação de um multicomputador

Zeferino, Cesar Albenes January 1996 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2012-10-16T23:17:25Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T21:04:30Z : No. of bitstreams: 1 104651.pdf: 3063349 bytes, checksum: dedb1f92b7a8f37836535d44bfe55de6 (MD5) / A busca por sistemas de computação capazes de atingir elevadas performances de processamento tem levado os pesquisadores e cientistas a propor e desenvolver diferentes modelos de arquiteturas de computadores de alto desempenho. O Projeto Nó// (lê-se nó paralelo), do qual participam grupos de pesquisa das Universidades Federais de Santa Catarina e do Rio Grande do Sul, também insere-se nesse contexto. Esse projeto visa o desenvolvimento de um ambiente completo para programação paralela, incluindo a construção de um multicomputador com rede de interconexão dinâmica. O presente trabalho vem colaborar com a concepção desse multicomputador, através do projeto do sistema de comunicação necessário à interação entre os processadores da máquina.
139

Conceitos de redes ativas em sistemas de objetos distribuídos

Silva, Ivonei Freitas da January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-17T11:01:14Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T17:35:57Z : No. of bitstreams: 1 184842.pdf: 3084838 bytes, checksum: db7da9bf3eeb8425ccf68ad8324a505a (MD5) / A atual infraestrutura de redes de transmissão de dados não suporta adequadamente os novos serviços para aplicações na Internet. Diante deste fato, este trabalho busca um estudo de novas tecnologias como alternativa para o desenvolvimento de novos serviços na infraestrutura de redes existente. Rede Ativa ao Nível da camada da Aplicação do protocolo OSI da ISO, XML e CORBA mostram-se muito valiosas para o desenvolvimento de novos serviços para os sistemas distribuídos.
140

Tractografia em tempo real através de unidades de processamento gráfico

Mittmann, Adiel 24 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2009. / Made available in DSpace on 2012-10-24T14:34:09Z (GMT). No. of bitstreams: 1 273314.pdf: 2266066 bytes, checksum: 83e4bc5c0b960d6d3a72b771d0afd71e (MD5) / A tractografia por propagação de linhas é um método que, com base na ressonância magnética de tensores de difusão (DT-MRI), revela in vivo a disposição dos tratos neurais no cérebro humano. O alto custo computacional da tractografia, porém, implica um tempo de espera significativamente longo para o cálculo e exibição dos resultados. Esse tempo pode ser reduzido executando-se a tractografia de forma paralela, já que as trajetórias encontradas pelo método de propagação de linhas são independentes umas das outras. Uma plataforma atrativa para a execução paralela de programas é oferecida pelas unidades de processamento gráfico (GPUs) das placas de vídeo atuais. Desse modo, este trabalho propõe a execução paralela da tractografia por propagação de linhas em GPUs através da tecnologia CUDA. Experimentos foram conduzidos para avaliar o desempenho da tractografia em um processador central (CPU) e quatro GPUs distintas. Os resultados mostram que as GPUs são, no melhor caso, até 38 vezes mais velozes que a CPU na execução da tractografia, e até 8 vezes mais rápidas no pior caso. A velocidade obtida através das GPUs permite que os resultados tractográficos sejam calculados e exibidos em tempo real para um número de trajetórias superior a 3.000.

Page generated in 0.4127 seconds