Spelling suggestions: "subject:"ciência dda computação"" "subject:"ciência dda omputação""
111 |
Análise comparativa dos métodos de sintetização de vozAlbuquerque, Almir dos Santos January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-18T09:45:38Z (GMT). No. of bitstreams: 1
206429.pdf: 949103 bytes, checksum: 153734885939fdb3c5bf137cf069dc3a (MD5) / Na síntese de voz text-to-speech (TTS), o computador recebe como entrada, um texto digitado ou em memória e devolve, por meio de alto-falantes a leitura em voz alta do mesmo texto. As técnicas utilizadas para a síntese TTS são: concatenação, formantes, LPC e articulatória, sendo as duas primeiras as mais utilizadas. Esta dissertação tem como meta principal realizar uma análise comparativa destes dois métodos, por meio de análises teóricas e comparação de resultados de softwares TTS que seguem estas duas técnicas.
|
112 |
Data warehouseSarkis, Laura Costa January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-18T09:56:17Z (GMT). No. of bitstreams: 1
227423.pdf: 1120477 bytes, checksum: 7d1d28b65b97dcebee88d4e86dfd4087 (MD5) / Este trabalho descreve os conceitos básicos do ambiente do Data Warehouse, abordando em especial o processo de migração de dados. São expostas algumas técnicas e tecnologias mais recentes existentes no mercado com esta finalidade. A partir de um estudo inicial sobre os conceitos de Data Warehouse, delimitou-se o trabalho em função do processo de migração dos dados. Com este propósito, foram estudadas quatro abordagens e elaborada uma análise comparativa na tentativa de determinar qual delas é a mais adequada ao processo. Em um processo de migração de dados é importante garantir também a qualidade dos dados, em decorrência disto, o trabalho contém a descrição de uma abordagem que trata de como é realizado o processo para a qualidade de dados em Data Warehouse. São citadas também algumas ferramentas existentes no mercado que possam possivelmente atender aos processos de migração de dados para o Data Warehouse e qualidade de dados.
|
113 |
ATM e Gigabit Ethernet como suporte de transmissão para aplicações multimídiaVeloso, Raimundo Josedi Ramos January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-18T10:31:03Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T18:27:54Z : No. of bitstreams: 1
189797.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / O presente trabalho apresenta uma avaliação e comparação das tecnologias ATM e Gigabit Ethernet como suporte de transmissão para aplicações multimídia, sob o enfoque de qualidade de serviço, na forma em que cada uma dessas tecnologias aborda o assunto e faz uma proposta de solução. Assim, é necessário conhecer os requisitos das
|
114 |
Uma metodologia para a implantação de sistemas e gerenciamento eletrônico de documentos baseado na experiência de RondôniaDutra, Ângelo Leão January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T04:03:25Z (GMT). No. of bitstreams: 1
190106.pdf: 524884 bytes, checksum: 085b0628aa8824016377b2ba8f1f41a2 (MD5) / O presente trabalho apresenta os resultados de pesquisa sobre a tecnologia de Groupware, caracterizando-se essencialmente pela
|
115 |
Trabalho e aprendizado cooperativo suportado por computador para uma agência de publicidadeLetti, Giovani January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T04:48:15Z (GMT). No. of bitstreams: 1
203174.pdf: 420564 bytes, checksum: 0ff55d39be083928fb62a47e975c7643 (MD5) / Na sociedade atual as mudanças ocorrem em um ritmo extremamente acelerado. Mercados e consumidores não fogem dessa afirmação, havendo como fator dinamizador disso tudo, a tecnologia. Dessa forma, as organizações necessitam estar em constante adaptação, visando atender as modificações da demanda. Segundo vários autores abordados, os dois principais fatores para que uma organização possa evoluir nesse estado de constante mudança seriam justamente as pessoas que fazem parte da empresa e as modernas tecnologias da informação. Dessa forma, buscou-se montar um planejamento que identificasse soluções tecnológicas de baixo custo a serem implementadas em uma pequena empresa, a fim de que ela possa aproveitar da melhor maneira esses dois ativos (o capital humano e tecnológico). A empresa que serviu de objeto para este trabalho foi a agencia de publicidade Macaia de Comunicação, localizada na cidade de Florianópolis. A escolha da empresa foi baseada nos pressupostos teóricos nos quais o trabalho foi baseado, como conceitos sobre as mudanças nas modernas organizações baseadas no conhecimento, bem como questões relativas à autonomia e cooperação entre indivíduos. Tal objeto de estudo serviu para fixar parâmetros da realidade de uma organização. De posse desses dados, apresentou-se um projeto que visou identificar as melhores soluções para que a empresa estudada aproveitasse da melhor forma seus recursos tecnológicos e o seu capital humano e intelectual. Sendo assim, estruturou-se um sistema de tecnologias baratas e de fácil acesso que auxiliassem no trabalho e no aprendizado dos membros, assim como se estruturou procedimentos que facilitassem o uso do sistema, incentivando a autonomia e a cooperação entre os indivíduos.
|
116 |
Formalização da interação colaborativa no âmbito do SIANALCOMeneses, Leide Jane de Sá Araújo January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T10:59:05Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T20:01:29Z : No. of bitstreams: 1
184294.pdf: 20647061 bytes, checksum: 46bd4a27fe9e081240408be9a8c6df79 (MD5) / Este trabalho de pesquisa tem como premissa a teoria de Vygotsky sendo a qual o conhecimento não é adquirido de forma individual, mas decorrente de um processo de interação do indivíduo com o ambiente social (Vygotsky, 1978). Assumimos também, como hipótese, a teoria da cognição distribuída que afirma que a aprendizagem não é apenas derivada da colaboração entre agentes, mas entre agentes e ferramentas colocadas inteligentemente no ambiente (Pea, 1997). As implicações dessas hipóteses nos leva com naturalidade à idéia de que um ambiente interativo de aprendizagem deve possuir as ferramentas necessárias para que o aprendiz possa aprender refletindo sobre o mesmo. Para evitar problemas de aprendizagem é necessário formalizar a interação no ambiente para que o modelo conceitual do ambiente seja igual ao modelo conceitual ou mental do aprendiz (Norman, 1986). Essa pesquisa se baseia nesses princípios teóricos. A partir de um "software" implementado e testado propõe-se um modelo de concepção da interação, formalizando a interação do aprendiz com o companheiro artificial utilizando as ferramentas colaborativas propostas por (Paraguaçu, 1997); ampliando assim o escopo interativo do sistema existente. Este trabalho construiu o modelo conceitual e formalizou o processo de interação no contexto do Sistema de Análise da Alfabetização Colaborativa - SIANALCO, sistema interativo multimídia implementado para Web, objetivando a alfabetização de crianças em idade escolar.
|
117 |
Modelos para estimar custos de softwareMeller, Maristela Corrêa January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciênicia da Computação. / Made available in DSpace on 2012-10-19T14:16:45Z (GMT). No. of bitstreams: 1
184841.pdf: 1225003 bytes, checksum: 1d774bcb59ab2d6c43832476f1a41e8c (MD5) / Este trabalho faz uma análise comparativa entre as principais técnicas (Julgamento Especialista, Analogia e Modelos Algorítmicos) e os principais modelos (Linhas de Código, Modelo de Estimativa de Putnam, COCOMO, Pontos de Função, Pontos de Particularidade, Ciência do Software de Halstead e Número Ciclomático de McCabe) usados para estimativa de custo de software. Realiza estudos multicaso para comparar valores reais e estimados considerando alguns Modelos Algorítmicos. Os softwares avaliados são divididos em três tipos: Comércio Eletrônico (dois casos), Inteligência Artificial (dois casos) e Sistemas de Informação (três casos) com o objetivo de verificar, no estudo de caso, possíveis relações entre estes tipos e os modelos estudados. A partir desta análise são indicados os modelos mais adequados para cada tipo de software avaliado.
|
118 |
A tuning approach based on evolutionary algorithm and data sampling for boosting performance of mapreduce programsKepe, Tiago Rodrigo January 2013 (has links)
Orientador : Prof. Dr. Eduardo C. de Almeida / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 25/08/2014 / Inclui referências / Resumo: O software de processamento de dados Apache Hadoop está introduzido em um ambiente complexo composto de enormes cluster de máquinas, grandes conjuntos de dados e vários programas de processamento. Administrar tal ambiente demanda tempo, é dispendioso e requer usuários experts. Por isso, falta de conhecimento pode ocasionar falhas de configurações degradando a performance do cluster de processamento. Realmente, usuários gastam muito tempo configurando o ambiente em vez de focar na análise dos dados. Para resolver questões de má configuração nós propomos uma solução, cujo objetivo é ajustar parâmetros de desempenho de programas executados sobre o Hadoop em ambientes Big Data. Para alcançar isto, nosso mecanismo de ajuste de desempenho inspira-se em duas ideias-chave: (1) um algoritmo evolucionário para gerar e testar novas configurações de jobs, e (2) amostragem de dados para reduzir o custo do processo de ajuste de desempenho. A partir dessas ideias desenvolvemos um framework para testar configurações usuais de programas e obter uma nova configuração mais ajustada ao estado atual do ambiente. Resultados experimentais mostram ganho na performance de jobs comparado com as configurações padrão e _regras de ouro_ do Hadoop. Além disso, os experimentos comprovam a acurácia da nossa solução no que se refere ao custo para obter uma melhor configuração e a qualidade da configuração alcançada. Palavras chaves: Big Data, MapReduce, Hadoop, Ajuste / Abstract: The Apache Hadoop data processing software is immersed in a complex environment
composed of huge machine clusters, large data sets, and several processing jobs. Managing
a Hadoop environment is time consuming, toilsome and requires expert users. Thus, lack
of knowledge may entail miscongurations degrading the cluster performance. Indeed,
users spend a lot of time tuning the system instead of focusing on data analysis. To
address misconguration issues we propose a solution implemented on top of Hadoop.
The goal is presenting a tuning mechanism for Hadoop jobs on Big Data environments.
To achieve this, our tuning mechanism is inspired by two key ideas: (1) an evolutionary
algorithm to generate and test new job congurations, and (2) data sampling to reduce
the cost of the tuning process. From these ideas we developed a framework for testing
usual job congurations and get a new conguration suitable to the current state of the
environment. Experimental results show gains in job performance against the Hadoop's
default conguration and the rules of thumb. Besides, the experiments prove the accuracy
of our solution which is the relation between the cost to obtain a better conguration and
the quality of the conguration reached.
Keywords: Big Data, MapReduce, Hadoop, Tuning
|
119 |
Performability analysis of web cache server clusters applied to server virtualizationGUEDES, Erico Augusto Cavalcanti 27 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-19T16:22:00Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
eacg-dsc.pdf: 4249371 bytes, checksum: 7cbbdc0fdb05a728990aa045f3c2107a (MD5) / Made available in DSpace on 2016-01-19T16:22:00Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
eacg-dsc.pdf: 4249371 bytes, checksum: 7cbbdc0fdb05a728990aa045f3c2107a (MD5)
Previous issue date: 2015-02-27 / CNPq / The growth of computers processing power have been renewing the interest in virtualization area. Through virtualization technique, a single server has its resources partitioned into multiple separated execution environments, increasing computer resources usage efficiency. To apply server virtualization, it is necessary to select a virtualization approach, which may differ from complete emulation of entire underlying hardware, as full virtualization, to lightweight alternatives, such as container-based virtualization, that partitions the physical machine resources into multiple isolated user-space instances. Regardless of virtualization approach, application of server virtualization drives to increase of system overhead. So, aforementioned efficiency improvement has led to a new challenge: even with additional overhead of virtualization, is it possible to provide a service on virtualized environment with similar, or even better, performance of non-virtualized infrastructures? This dissertation proposes a measurement performance evaluation to quantitatively investigate the behavior of web cache server clusters on virtualized and non-virtualized environments. First analyzed results not only endorsed impact over performance, but also revealed availability degradation on providing virtualized web cache server clusters. To tackle this issue, proposed methodology focused on overhead reduction to reach five 9’s of availability when providing web cache server cluster on virtualized infrastructure. Additionally, applying screening fractional factorial experiment technique resulted in favorable performance metrics on virtualized environments. Results of executed use cases enable to identify scenarios in which virtualized web cache server clusters perform better in comparison with non-virtualized ones, producing recommendations about optimized usage of investigated virtualized clusters. / O crescimento do poder de processamento dos computadores tem renovado o interesse na área de virtualização. Através da técnica de virtualização, um único servidor tem seus recursos particionados em diversos ambientes de execução separados, aumentando a eficiência no uso dos recursos computacionais. Para aplicar virtualização de servidores, é preciso selecionar uma abordagem de virtualização, que pode variar desde a completa emulação do hardware, como a técnica de virtualização total, até alternativas mais leves, como a virtualização baseada em contêineres, que particiona os recursos físicos de um servidor em múltiplas instâncias isoladas de processamento. Independentemente da abordagem de virtualização, a aplicação de virtualização de servidores leva a um aumento da sobrecarga do sistema. Desta forma, a melhoria da eficiência supracitada tem gerado um novo desafio: mesmo com a sobrecarga adicional proveniente da virtualização, é possível fornecer um serviço em ambiente virtualizado com desempenho similar, ou até mesmo superior, ao de infraestruturas não virtualizadas? Esta dissertação propõe uma avaliação de desempenho baseada em medições para investigar quantitativamente o comportamento de um agrupamento de servidores web cache em ambientes virtualizados e não virtualizados. Os primeiros resultados analisados não somente endorsaram o impacto sobre o desempenho, mas também revelaram uma degradação da disponibilidade no fornecimento do serviço web cache em agrupamentos virtualizados. Para combater esse problema, a metodologia proposta aplica redução de sobrecarga com o objetivo de alcançar 5 noves de disponibilidade para o fornecimento do serviço web cache em ambientes virtualizados. Além disso, a aplicação da técnica de experimentos fatoriais fracionados resultou em métricas de desempenho favoráveis em ambientes virtualizados. Os resultados dos estudos de caso que foram conduzidos permitiram identificar cenários nos quais os agrupamentos de servidores web cache virtualizados se comportaram de maneira favorável em comparação com os não virtualizados, produzindo recomendações sobre o uso otimizado dos agrupamentos virtuais investigados.
|
120 |
Reflex: a graph-based model for declarative business processesCARVALHO, Renata Medeiros de 13 March 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-19T16:53:05Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese Renata medeiros.pdf: 1872679 bytes, checksum: 3fce0bb9b510de65d967fa12ff61f596 (MD5) / Made available in DSpace on 2016-01-19T16:53:05Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese Renata medeiros.pdf: 1872679 bytes, checksum: 3fce0bb9b510de65d967fa12ff61f596 (MD5)
Previous issue date: 2015-03-13 / CNPq / Processos de Negócio Declarativos oferecem mais flexibilidade a processos de negócios
pelo uso de regras. Tais regras de negócio descrevem o que deve ou não ser feito durante
a execução do processo, mas não especifica como. Para experimentar os benefícios desta
abordagem de modelagem, as empresas precisam utilizar uma engine de regras capaz de checar
as regras e guiar o usuário durante a execução do processo. As engines de regras disponíveis
apresentam várias limitações que impedem seu uso para esta aplicação. Em especial, a conhecida
abordagem que emprega Lógica Temporal (Linear Temporal Logic - LTL) tem a desvantagem do
problema de explosão do espaço de estados à medida que o modelo do processo cresce.
Este trabalho propõe uma nova modelagem de regras baseada em grafos, chamada
REFlex, que não compartilha os problemas apresentados pelos outros trabalhos, sendo mais
adequada para modelar processos de negócios declarativos do que as técnicas atualmente utilizadas.
Para complementar a notação existente que representa atividades e regras no REFlex, foi
introduzida a ideia de condições de existência, que permite a definição de regras dependente de
dados. Isso não altera o fluxo semântico ou a abordagem sintática da modelagem. Tais condições
de existência provêm poder expressivo para processos de negócio declarativos.
Neste trabalho, é apresentado o modelo de especificação formal do REFlex utilizando
a linguagem Alloy, descrevendo como ela representa o processo de negócio como um grafo
e como esse grafo é modelado e atualizado. É introduzido um mecanisno de vivacidade do
processo. A conceitualização desse mecanismo foi possível devido à habilidade do Alloy de
prover não apenas as situações de impasse mas também o caminho descrevendo como essas
situações foram atingidas. Então, esse mecanismo de vivacidade cria as condições necessárias
para guiar/controlar as escolhas do usuário, previnindo-o de guiar o processo erroneamente para
tais situações de impasse. / Declarative Business Processes offer more flexibility to business processes by the use
of business rules. Such business rules describe what must or must not be done during the
process execution, but do not prescribe how. To fully experience the benefits of this modeling
approach, companies need a rule engine capable of checking the rules and guiding the user
through the execution of the process. The rule engines available today present several limitations
that impair their use to this application. In particular, the well-known approach that employs
Linear Temporal Logic (LTL) has the drawback of the state space explosion as the process model
grows.
This work proposes a novel graph-based modeling, called REFlex, that does not share the
problems presented by other works, being better suited to model declarative business processes
than the techniques currently in use. To complement the existing notation that represents activities
and rules in REFlex we introduce the idea of existence conditions, which allows the definition of
data-aware rules. This does not alter the semantic flow or syntactic approach to the precedent
modeling. Such existence conditions provide expressive power to declarative business processes.
Herein, we present the formal specification model of the REFlex using the Alloy language,
describing how it represents the business process as a graph and how this graph is modeled
and updated. We introduce a liveness-enforcing mechanism. The conceptualization of this
mechanism was possible due to the ability of Alloy to provide not only the activities in deadlock
but also the trace describing how these situations were achieved. Hence, the liveness-enforcing
mechanism creates the necessary conditions to guide/control the choices taken by the user
preventing him from mistakenly driving the process into such deadlock situations.
|
Page generated in 0.0512 seconds