• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 17
  • 15
  • 15
  • 15
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 1
  • Tagged with
  • 315
  • 315
  • 76
  • 57
  • 56
  • 55
  • 53
  • 45
  • 35
  • 35
  • 30
  • 30
  • 29
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Tradução, tecnologia, filosofia

Leal, Luis Carlos Binotto January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Comunicação e Expressão, Programa de Pós-Graduação em Estudos da Tradução, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:49:47Z (GMT). No. of bitstreams: 1 325241.pdf: 357232 bytes, checksum: 8c94f7cc00c4b7c5148fca25cb990276 (MD5) Previous issue date: 2013 / Abstract : This paper presents an analysis of the evolution of the function of thetranslator and translation tools, as well as the gradual replacement ofhuman participation in technical translations either in the languagedeveloped English (F1) for the Portuguese Language (F2) or PortugueseLanguage (F1) for the language English (F2), by using database;thereby, providing the semantic technical automation of these texts, i.e.,the adaptation of a passage to the meaning of reasoning. The researchaimed to analyze and clarify the use of Database in text translations oftechnical areas, demonstrating how much these bases can offer to thosewho use it, as well as validate the necessity of a translator, the humanbeing, in the area of translations philosophy. In this sense, describesdatabases, tools and other resources of automatic translators and analysissuccesses and failures related to the text to be translated in the areas ofEngineering and Philosophy. As a methodological instrument, we choseto analyze three paragraphs of works of the Engineering, aiming todemonstrate the almost perfect translations of using databases and threedifferent paragraphs of works in the field of architecture, demonstratingthe difficulties in translation without human intervention and alsodiscuss the concept commonly used as a category for the quality of workof translation / interpretation: the 'fidelity'. For this purpose, we will usea more philosophical discussion of a Brazilian researcher RosemaryArrojo (1986), that from the end of the 80s, accurately and outstandinghave problematized the concept of fidelity as well as argue aboutmethodology in transkation. The translated parts were removed from theworks of Engineering Numerical Optimization (NACEDAL &WRIGHT, 2006), Pattern Recognition and Machine Learning (Bishop,2006); Hyperspectral Subspace Identification (BIOUCAS &NASCIMENTO, 2008). In the field of philosophy, the three parts of thework were extracted from Architecture and Philosophy (PULS, 2006).The results show that, with the undoubted advances and technologicalimprovements, automatic translators, operating from databases,rhythmic with technological development, apart from philosophicaltranslation, cemented the acceptance of the concept that the use oftechnology not only manifests itself as a powerful enlightening of themasses as to the use of this technology is not only negative.
82

A influência da Tradução Automática (TA) na produtividade do tradutor: um experimento prático com uma ferramenta gratuita online

Graziuso, Luciana Alves January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Comunicação e Expressão, Programa de Pós-Graduação em Estudos da Tradução, Florianópolis, 2014. / Made available in DSpace on 2014-08-06T17:58:00Z (GMT). No. of bitstreams: 1 327434.pdf: 1257259 bytes, checksum: 72cd5e3086d158ec737021c0e4c4cb85 (MD5) Previous issue date: 2014 / A profissão de tradutor tem sofrido mudanças drásticas pela digitalização das tarefas e pelo aumento no volume de trabalho. Informações sobre os efeitos dessas mudanças no processo tradutório, principalmente em relação ao aumento na produtividade obtido pela integração de tradução automática nos programas de memória de tradução, ainda são insuficientes ou inconclusivas. Esta pesquisa procura investigar esse aumento na produtividade por meio de um experimento prático utilizando uma ferramenta de tradução online e gratuita. O objetivo principal deste estudo é determinar a influência que a sugestão de tradução automática tem na produtividade do tradutor profissional. Também procuro estabelecer se a mesma influencia a qualidade da tradução. Para tanto, foram conduzidos experimentos com nove tradutoras profissionais. Utilizando o Wordfast Anywhere, elas traduziram dois trechos de um mesmo texto, o primeiro sem nenhuma sugestão e o segundo com a sugestão de tradução automática fornecida pela Microsoft. A imagem da tela do computador foi capturada enquanto as participantes realizavam as tarefas e, posteriormente, assisti aos vídeos e anotei o tempo gasto em cada trecho e segmento. Esses resultados foram analisados estatisticamente, e as traduções também foram avaliadas por um revisor independente. Os resultados sugerem que houve um aumento significativo na produtividade dessas profissionais, embora não tenha sido observada melhora em relação à qualidade.<br>
83

Tradução e adaptação de software para o auxílio na identificação de maus tratos em crianças e adolescentes

Calza, Tiago Zanatta January 2014 (has links)
O objetivo deste trabalho foi fazer a tradução e a adaptação do conteúdo do software “Módulo de Apoyo a la Gestión del Riesgo Social en la Infancia y la Adolescencia (MSGR)” para o contexto brasileiro. Por sua vez, o software visa auxiliar profissionais de diversas áreas a identificar e a como proceder diante de casos de suspeitas de maus tratos contra crianças e adolescentes. Foram realizados dois estudos empíricos. O primeiro estudo refere-se à tradução e à adaptação dos itens presentes no software, divididos em duas fases: (1) tradução dos itens, através do método backtranslation; e (2) validação por juízes, a fim de avaliar o nível de adequação dos itens originais, e grupos de discussão, para discutir os itens que não tiveram concordância igual ou superior a 80% entre os juízes e propor uma ação recomendada para cada tipo de gravidade. Participaram como juízes cinco profissionais especialistas na temática de maus tratos. Nos grupos de discussão participaram quatro profissionais que têm experiência no atendimento a crianças e adolescentes vítimas de violência. Os resultados da avaliação dos juízes apontaram 40 itens do software como não tendo o índice de concordância mínimo de 80% esperado. O grupo de discussão, por sua vez, decidiu o formato final de tais itens. Além disso, sugeriu a troca de nomenclaturas, além de propor o acionamento de diversos serviços de proteção para cada gravidade detectada. Discutem-se as mudanças realizadas, os diferentes serviços da rede de proteção, assim como o Estatuto da Criança e do Adolescente. O segundo estudo foi a aplicação piloto do software, já traduzido e adaptado. Participaram desta etapa 16 adultos, selecionados por conveniência,com idades entre 22 e 55 anos. Estes foram instruídos a responder a três estudos de caso fictícios, apontando as dúvidas de compreensão dos itens, além de suas opiniões quanto ao manejo e a utilidade do software. Os resultados indicaram dificuldades de compreensão de algumas palavras, especialmente entre os participantes que tinham somente o Ensino Médio completo. Também houve dúvidas quanto à ambiguidade de itens, além de tentativas de indução de respostas, mesmo quando as observações correspondentes não estavam contempladas no estudo de caso. Discutem-se aspectos relativos a facilitar o entendimento das questões e ao uso do software, além da importância deste para o auxílio na notificação das suspeitas. Por fim, ressalta-se a relevância da divulgação dos conhecimentos científicos acerca da identificação de maus tratos para a população, assim como o desenvolvimento de novas ferramentas para a utilização na proteção dos direitos da infância e adolescência. / The aim of this work was to translate and adapt to the Brazilian context the content of the software “Módulo de Apoyo a la Gestión del Riesgo Social en la Infancia y la Adolescencia (MSGR)”. This software aims to help professionals of many fields to identify and proceed when facing cases that involve suspicion of child and adolescent abuse. Two empirical studies were performed: The first study concerns the translation and adaptation of the software’s items in two stages: (1) translation of the items through the backtranslation method; and (2) validation from the judges to evaluate the level of adequacy of the original items, and discussion groups to discuss the items which did not reach 80% or more of agreement among the judges and to propose recommended actions for each severity level. Five professionals who are experts in this subject participated as judges. Four professionals who have experience in care service for children and adolescents who have been victims of abuse were part of the discussion groups. The results of the judges’ evaluation point 40 software items which have not achieved the expected minimum of 80%. The discussion group, in turn, made decisions about the final arrangement of those items. Besides that, the group suggested terminology changes, and the activation of several protection services for each level of severity detected. It discussed the changes, the child protection network’s different services, and also the Child and Adolescent Statute. The second study was the pilot application of the software after it had been translated and adapted. Sixteen adults participated in this stage. The selection criterion was convenience, and their ages ranged from 22 to 55 years old. They were instructed to answer three fictitious case studies, pointing doubts regarding the items and voicing their opinions regarding the handling and the utility of the software. The results show the difficulties to understand certain words, especially among participants who had only finished secondary school. There were also doubts regarding the ambiguity of some items, and some attempts to induce answers even when the corresponding observations were not considered by the case study. Aspects related to helping understand the issues raised and to the use of the software were discussed, as well as the importance of the software for notifying suspicion. Finally, we highlight the relevance of disseminating scientific knowledge related to the identification of abuse, as well as the development of new tools for protecting the rights of children and adolescents.
84

Ferramentas de desenvolvimento para microcomputadores dedicados baseados em processadores 80386/80486

Benchimol, Isaac Benjamim January 1995 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T19:34:45Z (GMT). No. of bitstreams: 1 99802.pdf: 2570350 bytes, checksum: d5cd4ff545ad452df301395ebf82b8ea (MD5) Previous issue date: 1995 / Foi desenvolvido um conjunto de ferramentas que objetivam auxiliar o desenvolvimento, teste e depuração de softwares para microcomputadores dedicados que utilizam os recursos da arquitetura dos processadores Intel 80386/80486 disponíveis no modo protegido. As ferramentas implementadas permitem a utilização de um PC 386/486 compatível como ambiente de desenvolvimento, além dos compiladores mais populares para as linguagens de programação Assembly e C.
85

Tomografia ultrassônica em concreto e madeira

Perlin, Lourenço Panosso January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Civil, Florianópolis, 2015 / Made available in DSpace on 2016-02-09T03:13:15Z (GMT). No. of bitstreams: 1 337478.pdf: 14260207 bytes, checksum: 2d17c4effaa380cc7a6b68e56a497c89 (MD5) Previous issue date: 2015 / As edificações estão expostas a diversos tipos de ações degradativas, requerendo que inspeções periódicas sejam executadas. Para auxiliar estas inspeções, diferentes ensaios não destrutivos podem ser empregados, entre eles, o ultrassônico. Esta tese pesquisou a teoria tomográfica e demonstrou como a mesma pode ser utilizada para melhorar consideravelmente o resultado do ensaio ultrassônico, permitindo a visualização interna de seções transversais de elementos estruturais de concreto e madeira. Para isso, é descrito a implementação do programa computacional tomográfico TUCOM, responsável pela obtenção de tomogramas. A teoria empregada possibilita o cálculo de um caminho não retilíneo do pulso ultrassônico, contornando não homogeneidades e regiões de baixa velocidade. Além disso, através das equações de Christoffel e Hankinson, e pela discretização dos anéis de crescimento da madeira, foi possível incorporar a natureza anisotrópica das peças de madeira dentro do processamento tomográfico. Simulações numéricas e ensaios experimentais foram executados e utilizados no TUCOM, que emitiu tomogramas onde foi possível visualizar as diferentes formas de não homogeneidades conhecidas, demonstrando então as capacidades do método. Esta pesquisa confirmou que a tomografia ultrassônica é uma importante ferramenta na avaliação de possíveis patologias presentes em elementos estruturais de concreto e madeira. <br> / Abstract : The buildings are exposed to several types of degradative actions, requiring the execution of periodic inspections. In order to help in these inspections, different non-destructive test methods can be used, with the ultrasonic pulse velocity being one of them. This thesis presents a research on the tomographic theory and its application to concrete and wood structural elements. It is demonstrated how tomography can be used to greatly improve the outcome of ultrasonic testing, allowing to visualize the internal cross-sections of concrete and wood structural elements. The implementation of tomographic software TUCOM, which supplies tomograms is described. Non-straight paths of the ultrasonic pulse were implemented, which avoid internal flaws and low density regions. Furthermore, using Christoffel and Hankinson equations, and the discretization of the wood growth rings, it was possible to incorporate the anisotropic nature of wood species in the tomographic processing. Numerical simulations and experimental tests were performed with TUCOM. In the generated tomograms it was possible to visualize the different shapes of known internal flaws, thus demonstrating the capabilities of the method. This research confirmed that the ultrasonic tomographic is an important tool in the evaluation of possible pathologies present in concrete and wood structural elements.
86

Aceleradores e multiprocessadores em chip

Freitas, Leandro da Silva January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2012 / Made available in DSpace on 2013-06-25T18:37:00Z (GMT). No. of bitstreams: 1 312070.pdf: 869350 bytes, checksum: 7c9faae8b5533abbd9b63ba136b44e99 (MD5) / Este trabalho aborda duas classes de problemas enfrentados na verificação de projetos que exibem comportamentos fora de ordem, especificamente a verificação funcional de aceleradores em hardware e a verificação de consistência em sistemas de memória compartilhada. Comportamentos fora de ordem surgem quando relaxam-se restrições de precedência para aumentar a taxa de uso de componentes de hardware concorrentes e, portanto, aumentar o desempenho. Entretanto, o projeto de um sistema que apresenta comportamentos fora de ordem é suscetível a erros pelo fato de o relaxamento de ordem requerer controle sofisticado. Este trabalho compara as garantias de verificação de três classes de checkers dinâmicos para módulos com suporte a eventos fora de ordem. Comprovadamente, scoreboards relaxados podem ser construídos com plenas garantias de verificação contanto que utilizem regras de atualização baseadas na remoção de dominadores. Resultados experimentais mostram que um scoreboard relaxado assim projetado requer aproximadamente 1/2 do esforço exigido por um scoreboard convencional. Verificar a conformidade do hardware com um modelo de consistência é um problema relevante cuja complexidade depende da observabilidade dos eventos de memória. Este trabalho também descreve uma nova técnica de verificação de consistência de memória on-the-fly a partir de uma representação executável de um sistema multi-core. Para aumentar a eficiência sem afetar as garantias de verificação, são monitorados três pontos por núcleo, ao invés de um ou dois, como proposto em trabalhos correlatos anteriores. Os três pontos foram selecionados para serem altamente independentes da microarquitetura do core. A técnica usa scoreboards relaxados concorrentes para detectar violações em cada core. Para detectar violações globais, utiliza-se a ordem linear de eventos induzida por um caso de teste. Comprovadamente, a técnica não induz falsos positivos nem falsos negativos quando o caso de teste expõe um erro que afeta as sequências monitoradas, tornando-se o primeiro checker on-the-fly com plenas garantias de verificação. Resultados experimentais mostram que ele requer aproximadamente 1/4 a 3/4 do esforço global exigido por um checker post-mortem que monitora duas sequências por processador. A técnica é pelo menos 100 vezes mais rápida do que um checker que monitora uma única sequência por processador.<br> / Abstract : This work addresses two classes of problems faced when verifying designs exhibiting out-of-order behaviors, namely the functional verification of hardware accelerators and the verification of consistency in shared-memory systems. Out-of-order behaviors result from relaxing precedence constraints to increase the usage rate of concurrent hardware components and, therefore, lead to a performance improvement. However, the design of a system handling out-of-order behaviors is error prone, since order relaxation asks for sophisticated control. This work compares the verification guarantees of three classes of dynamic checkers for modules handling out-of-order behaviors. Provenly, relaxed scoreboards can be built with full verification guarantees, as far as they employ an update rule based on the removal of dominators. Experimental results show that such a relaxed scoreboard needs approximately 1/2 of the effort required by a conventional one. Verifying the hardware compliance with a consistency model is a relevant problem, whose complexity depends on the observability of memory events. This work also describes a novel on-the-fly technique for verifying memory consistency from an executable representation of a multi-core system. To increase efficiency without hampering verification guarantees, three points are monitored per core, instead of one or two, as proposed in previous related works. The points were selected to be largely independent from the core#s microarchitecture. The technique relies on concurrent relaxed scoreboards to check for consistency violations in each core. To check for global violations, it employs a linear order of events induced by a given test case. Provenly, the technique neither indicates false negatives nor false positives when the test case exposes an error that affects the sampled sequences, making it the first on-the-fly checker with full guarantees. Experimental results show that it needs approximately 1/4 to 3/4 of the overall verification effort required by a post-mortem checker sampling two sequences per processor. The technique is at least 100 times faster than a checker sampling a single sequence per processor.
87

Crimes contra a propriedade intelectual

Ferreira, Érica Lourenço de Lima 05 December 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Jurídicas, Programa de Pós-Graduação em Direito, Florianópolis, 2009. / Made available in DSpace on 2013-12-05T21:54:59Z (GMT). No. of bitstreams: 1 275852.pdf: 1196926 bytes, checksum: d3bb840b91750692d5bb7fec6a13987c (MD5) / Nesta dissertação tratamos da função do direito penal frente a violação de direitos de autor do programa de computador, questionando a necessidade da proteção penal e a eficácia dos demais mecanismos legais. Inicia-se com o resgate da estrutura teórica do direito penal, destacando a teoria do delito de Hans Welzel e a finalidade da pena com base nas teorias mais modernas, tendo como referencial do bem jurídico. As regras da propriedade intelectual são analisadas em três bases: sob a ótica social, no que diz respeito ao domínio público, no plano econômico, para assegurar a permanência da exclusividade comercial de certos agentes e, no aspecto político, a ingerência direta da OMC, por meio do Acordo TRIPS. O direito penal entra no aspecto da natureza jurídica dos crimes contra a propriedade intelectual, que ao contrário do direito de propriedade latu sensu, tem-se um direito de exclusiva, com regras próprias do mercado. Também, algumas figuras típicas merecem destaque, seja pela previsão legal (plágio), seja pelo direito consuetudinário (pirataria). Se transpôs o termo "pirataria" às condutas hoje praticadas em violação à propriedade intelectual. No meio jurídico ainda não há preocupação em estudar as origens, determinar conceito, bem jurídico, referentes as condutas socialmente reconhecidas como pirataria, somente existem condutas tipificadas, que muitas vezes se confundem com outras similares, exatamente pela ausência de doutrinas jurídicas especificas sobre o termo. O programa de computador foi escolhido como referencial no estudo do tema, que resgatou a teoria do crime, as normas internacionais de propriedade intelectual e a globalização da criminalidade. As regras processuais penais e as excludentes penais são analisadas sob todas estas óticas, para finalmente se verificar a possibilidade de descriminalização, desregularização e criminalização de condutas. Condutas estas comumente praticadas por qualquer um, a qualquer hora e em qualquer ponto do globo terrestre, decorrente das facilidades providas pelo avanço tecnológico e que afetam a propriedade intelectual.
88

Uma metodologia e um ambiente MDE para a verificação de aplicações hipermídia

Picinin Júnior, Delcino January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2016 / Made available in DSpace on 2016-10-19T13:26:04Z (GMT). No. of bitstreams: 0 Previous issue date: 2016Bitstream added on 2016-10-25T03:12:29Z : No. of bitstreams: 1 342327.pdf: 10243259 bytes, checksum: 34c08009c7f6079999c9bc018cac313f (MD5) / No desenvolvimento de aplicações hipermídia, o projetista pode erroneamente inserir comportamentos indesejados. Metodologias baseadas em teste ou análise de linha temporal para verificar a corretude de aplicações são limitadas, por não serem exaustivas e serem consumidoras de tempo. Outra alternativa é a utilização de metodologias baseadas em verificação formal, que permitem uma análise exaustiva e mais rápida da aplicação. A verificação formal requer que a aplicação e os comportamentos a serem verificados estejam representados em linguagens formais, de difícil aprendizagem por um projetista de aplicação hipermídia. O presente trabalho propõe uma metodologia baseada no uso de verificação formal por model-checking, a partir de uma representação da aplicação, das propriedades a serem verificadas e do diagnostico de eventuais erros, ambos em linguagens e representações de fácil uso e entendimento para o projetista destas aplicações. Essa metodologia é dividida em quatro fases: Modelagem, Transformação, Verificação e Diagnóstico/Correção. Inicialmente, o projetista codifica sua aplicação em alguma linguagem de domínio específico (por exemplo, NCL ou SMIL), e especifica os comportamentos desejados a serem verificados numa linguagem de descrição simples, proposta neste trabalho. A seguir, essas descrições das aplicações e comportamentos são transformadas, seguindo a abordagem MDE (Model Driven Engineering), nos modelos formais utilizados na verificação. Em caso de algum comportamento desejado não ser satisfeito, a ferramenta de model-checking oferece um contraexemplo que, após transformação, é apresentado na forma de uma linha de tempo, permitindo diagnosticar a origem do erro e fornecer informações para a sua correção. Para apoiar a metodologia proposta, foi construído um protótipo de um ambiente de desenvolvimento, no qual o projetista pode verificar o comportamento de sua aplicação. As avaliações da metodologia e de seu ambiente, realizadas em diversas aplicações hipermídia mostram suas potencialidades de uso para aplicações mais complexas e no caso de edição "ao vivo".<br> / Abstract : In the development of hypermedia applications, the designer can mistakenly insert undesirable behaviors. Methodologies based on tests or timeline analysis to verify the correctness of applications are limited because they are not exhaustive and are time consuming. Another alternative is the use of methodologies based on formal verification, allowing an exhaustive and more fast analysis of the application. Formal verification requires that the application and behavior to be verified are represented in formal languages, which are difficult to learn by a hypermedia application designer. This work proposes a methodology based on the use of formal verification by model-checking, from an application representation, the properties to be verified and the diagnosis of errors, both in languages and representations of easy use and understanding by designer of these applications. This methodology is divided into four phases: Modeling, Transformation, Verification and Diagnosis/Correction. Initially, the designer encodes his application in any domain specific language (eg, NCL or SMIL), and specifies the desired behaviors to be checked in a simple description language proposed in this work. Then these descriptions of applications and behaviors are transformed, following the MDE approach (Model Driven Engineering), in formal models used for verification. If some desired behavior is not satisfied, the model-checking tool provides a counterexample that, after processing, is presented as a timeline, allowing to diagnose the source of the error and provide information for its correction. To support the proposed methodology, a prototype development environment was built, in which the designer can verify the behavior of your application. Evaluations of the methodology and its environment, performed in several hypermedia applications, showed their potential of use for more complex applications and in the case of editing "live".
89

Avaliação de um sistema com base em corpus para a pesquisa, ensino e prática da tradução sob as perspectivas da ergonomia e usabilidade

Silva, Rossana da Cunha January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Comunicação e Expressão, Programa de Pós-Graduação em Estudos de Tradução, Florianópolis, 2016. / Made available in DSpace on 2017-01-24T03:18:18Z (GMT). No. of bitstreams: 1 343628.pdf: 4462871 bytes, checksum: a54f192bc3dca3c5ac1a0004cc22b624 (MD5) Previous issue date: 2016 / Este trabalho tem por objetivo principal avaliar um sistema de tradução com base em corpus, denominado COPA-TRAD, sob a perspectiva do usuário (pesquisador, tradutor, estudante ? da área de tradução), considerando características de usabilidade e ergonomia cognitiva. A intenção é compreender como se dá a interação dos usuários com o software investigado, visto o crescimento em nível de complexidade e diversidade das tecnologias de tradução com base em corpus, e a pouca atenção empregada às recomendações da área de interação humano-computador (IHC). A pesquisa foi dividida em etapas distintas: primeiramente as conversas informais com os participantes da pesquisa, e seguidas pela aplicação de um questionário de usabilidade. Ademais, foram conduzidas a avaliação heurística; a inspeção ergonômica por meio de listas de verificação; e, por último, a avaliação comparativa entre sistemas. A partir da análise dos resultados, constatou-se que apesar da preocupação com a experiência do usuário, o sistema investigado apresentou alguns problemas relacionados à usabilidade, sendo que não fez uso de métodos de usabilidade e ergonomia conhecidos, seja durante o desenvolvimento ou após a conclusão do software. Por fim, o estudo apontou direções em que um sistema de análise de corpus possa ser adaptado às necessidades do usuário, e ainda identificou alguns dos itens que requerem melhorias. Acredita-se que a contribuição metodológica venha a fomentar um melhor desenvolvimento de sistemas e/ou ferramentas para pesquisa, ensino e prática de tradução, assim como promover mais discussões sobre o tema.<br> / Abstract : This study evaluates a corpus-based translation system, called COPA-TRAD, from the user's perspective (Translation Studies researcher, translator or student), addressing usability and cognitive ergonomics characteristics. We expect to get a better understanding of the interaction between the user and the analyzed software, due to the growing complexity and diversity of corpus-based translation technologies that do not take into consideration human-computer interaction (HCI) recommendations yet. The proposed study is composed of distinct stages: first, informal conversations with the participants, second, administration of a usability questionnaire to all parties, third, a heuristic evaluation; ergonomics checklist inspection; and, finally, a comparative analysis. Data analysis has shown that despite the explicit concern on user experience, the analyzed system presented some issues related to usability, and had not made use of known ergonomics and usability methods, either during development or after software delivery. Lastly, the study points out directions on which a corpus analysis system can be adapted to user needs, and indicates some features that require improvement. We believe that the methodological contribution will foster a better development of systems and tools for research, teaching, and practice of translation, as well as, promote further discussion on the topic.
90

Aspectos teórico-numéricos dos métodos SPH e MPS

Takata, Adriano Sueke [UNESP] 10 March 2015 (has links) (PDF)
Made available in DSpace on 2015-10-06T13:03:39Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-03-10. Added 1 bitstream(s) on 2015-10-06T13:18:15Z : No. of bitstreams: 1 000848940.pdf: 4985364 bytes, checksum: 5b8016285090b64d483414e2f84d7aa1 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Atualmente, devido ao grande avanço tecnológico o uso dos métodos de partículas vêm ganhando espaço nas simulações de escoamento de fluido. O primeiro método de partículas a ser desenvolvido foi o Smoothed Particle Hydrodynamics (SPH) que se mostrou bastante eficiente para problemas de escoamento compressível, mas ineficiente para escoamento incompressível. Desta forma, surgiu algumas estratégias para resolver problemas de escoamento incompressível como o Incompressible Smoothed Particle Hydrodynamics (ISPH) e o Moving Particle Semi-Implicit (MPS); em ambos os métodos a pressão é atualizada por um equação de Poisson. Portanto para obter uma boa aproximação das equações de Navier-Stokes é necessário antes ter uma boa aproximação da equação de Poisson. Neste trabalho são abordados os métodos de partículas Smoothed Particle Hydrodynamics (SPH) e Moving Particle Semi-Implicit (MPS). A discretização dos operadores diferenciais por esses métodos é feita por meio da aproximação do núcleo e também por partículas. Um estudo comparativo entre discretização foram efetuadas. Afim de saber se os parâmetros utilizados na literatura dos métodos de partículas SPH e MPS dão uma boa solução para equação de Poisson foram realizados vários testes variando os parâmetros com e sem o tratamento de fronteira. Neste trabalho também foi proposta uma estratégia para resolver o problema de oscilação na solução da equação de advecção com descontinuidade nas condições iniciais e os resultados foram bem satisfatório / Currently, due to the technological advances the use of particle methods is gaining ground in the simulations of fluid flow. The first particle method to be developed was the Smoothed Particle Hydrodynamics (SPH) that was very efficient for compressible flow problems, but inefficient for incompressible ones. Thus, there was some strategy to solve incompressible flow problems as the incompressible Smoothed Particle Hydrodynamics (ISPH) and the Moving Particle Semi-Implicit (MPS); in both methods the pressure is updated by a Poisson equation. For an approximation of the Navier-Stokes equations it is first needed a good approximation for the Poisson equation. This paper discusses the following particles methods: Smoothed Particle Hydrodynamics (SPH) and Moving Particle Semi-Implicit (MPS). The discretization of differential operators by these methods is done through the approximation of the kernel and also by particles. A comparative study of different discretizations were made. In order to know if the parameters used in the literature for the SPH and MPS methods provide a good solution for Poisson equation, have been performed several tests by varying the parameters with and without the borders treatment. This work also proposed a strategy to solve the oscillation problem in advection equation with discontinuity in the initial conditions and the results were very satisfactory

Page generated in 0.4682 seconds