• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 881
  • 128
  • 7
  • 6
  • 6
  • 6
  • 6
  • 2
  • Tagged with
  • 1020
  • 364
  • 295
  • 264
  • 243
  • 170
  • 161
  • 117
  • 113
  • 111
  • 108
  • 107
  • 98
  • 96
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Dimensionamento de defeitos em blocos de aço carbono através da técnica TOFD

Souza, Ricson Rocha de January 2009 (has links)
A possibilidade da utilização de sistemas eficientes para inspeção tem despertado o interesse da indústria. Isto porque descontinuidades com diferentes geometrias e orientações podem surgir em um componente durante sua fabricação ou durante seu funcionamento, podendo ocasionar uma falha catastrófica no material, gerando prejuízos à empresa. Métodos tradicionais como o ensaio radiográfico e o ensaio manual por ultra-som não garantem uma inspeção totalmente confiável, devido a suas limitações, principalmente, na monitoração e no dimensionamento destes defeitos. Assim, este trabalho apresenta a técnica TOFD como uma ferramenta eficiente na determinação da profundidade de refletores artificiais usinados em blocos de aço SAE 1022. Visando o desenvolvimento de metodologias que facilitem a compreensão da técnica, este trabalho serve de referência para aplicações mais avançadas, como por exemplo, o monitoramento do crescimento de trincas em serviço e a inspeção de materiais soldados. Quatro corpos de provas com espessuras de, aproximadamente, 25mm, apresentando diferentes geometrias e profundidades de entalhes, foram confeccionados. Fatores como o ângulo da sapata, freqüência e separação dos cabeçotes são determinantes para se alcançar a variação ideal para cada tipo de defeito. Os resultados mostram que tanto para defeitos aflorando na superfície de varredura quanto para defeitos aflorando na superfície oposta, o dimensionamento pode ser bem preciso, se a variação adequada para cada caso for selecionada. Além disso, para a análise de defeitos esféricos internos, é possível obter um erro experimental dentro do tolerável para todas as profundidades dimensionadas. / The possibility of the use of efficient systems for inspection has attracted the interest of industry. This is because discontinuities with different geometries and orientations may arise in a component during its manufacture or in service and may cause a catastrophic failure in the material, generating damage to the company. Traditionals methods as radiographic test and ultrasound manual test does not guarantee an inspection totally reliable, because of theirs limitations, mainly, in the monitoring and in the sizing of this defects. Then, this work to present TOFD technique as an efficient tool to determine the height of artificials reflectors machined in samples of SAE 1022 steel. To develop methodologies to facilitate the understanding of the technique, this work serves as a reference for more advanced applications, for example, the monitoring of cracks growth in service and the inspection of welded materials. Four samples with thickness around 25mm, having different notches geometries and heights were made. Factors as shoe angle, frequency and probe separation are determinants to reach ideal variation for each defect type. Results show that as for notches breaking in the surface inspected as for notches breaking in the inside surface, opposite the scanned surface, sizing can be precise, if the correct variation was chosen. Besides, for spherical defects inside the material it is possible to obtain an experimental error tolerable for all heights sized.
102

Exploring the use of multiple modular redundancies for masking accumulated faults in SRAM-based FPGAs / Explorando redundância modular múltipla para mascarar falhas acumuladas em FPGAs baseados em SRAM

Olano, Jimmy Fernando Tarrillo January 2014 (has links)
Os erros transientes nos bits de memória de configuração dos FPGAs baseados em SRAM são um tema importante devido ao efeito de persistência e a possibilidade de gerar falhas de funcionamento no circuito implementado. Sempre que um bit de memória de configuração é invertido, o erro transiente será corrigido apenas recarregando o bitstream correto da memória de configuração. Se o bitstream correto não for recarregando, erros transientes persistentes podem se acumular nos bits de memória de configuração provocando uma falha funcional do sistema, o que consequentemente, pode causar uma situação catastrófica. Este cenário se agrava no caso de falhas múltiplas, cuja probabilidade de ocorrência é cada vez maior em novas tecnologias nano-métricas. As estratégias tradicionais para lidar com erros transientes na memória de configuração são baseadas no uso de redundância modular tripla (TMR), e na limpeza da memória (scrubbing) para reparar e evitar a acumulação de erros. A alta eficiência desta técnica para mascarar perturbações tem sido demonstrada em vários estudos, no entanto o TMR visa apenas mascarar falhas individuais. Porém, a tendência tecnológica conduz à redução das dimensões dos transistores o que causa o aumento da susceptibilidade a falhos. Neste novo cenário, as falhas multiplas são mais comuns que as falhas individuais e consequentemente o uso de TMR pode ser inapropriado para ser usado em aplicações de alta confiabilidade. Além disso, sendo que a taxa de falhas está aumentando, é necessário usar altas taxas de reconfiguração o que implica em um elevado custo no consumo de potência. Com o objetivo de lidar com falhas massivas acontecidas na mem[oria de configuração, este trabalho propõe a utilização de um sistema de redundância múltipla composto de n módulos idênticos que operam em conjunto, conhecido como (nMR), e um inovador votador auto-adaptativo que permite mascarar múltiplas falhas no sistema. A principal desvantagem do uso de redundância modular é o seu elevado custo em termos de área e o consumo de energia. No entanto, o problema da sobrecarga em área é cada vez menor devido à maior densidade de componentes em novas tecnologias. Por outro lado, o alto consumo de energia sempre foi um problema nos dispositivos FPGA. Neste trabalho também propõe-se um modelo para prever a sobrecarga de potência causada pelo uso de redundância múltipla em FPGAs baseados em SRAM. A capacidade de tolerar múltiplas falhas pela técnica proposta tem sido avaliada através de experimentos de radiação e campanhas de injeção de falhas de circuitos para um estudo de caso implementado em um FPGA comercial de tecnologia de 65nm. Finalmente, é demostrado que o uso de nMR em FPGAs é uma atrativa e possível solução em termos de potencia, área e confiabilidade medida em unidades de FIT e Mean Time between Failures (MTBF). / Soft errors in the configuration memory bits of SRAM-based FPGAs are an important issue due to the persistence effect and its possibility of generating functional failures in the implemented circuit. Whenever a configuration memory bit cell is flipped, the soft error will be corrected only by reloading the correct configuration memory bitstream. If the correct bitstream is not loaded, persistent soft errors can accumulate in the configuration memory bits provoking a system functional failure in the user’s design, and consequently can cause a catastrophic situation. This scenario gets worse in the event of multi-bit upset, whose probability of occurrence is increasing in new nano-metric technologies. Traditional strategies to deal with soft errors in configuration memory are based on the use of any type of triple modular redundancy (TMR) and the scrubbing of the memory to repair and avoid the accumulation of faults. The high reliability of this technique has been demonstrated in many studies, however TMR is aimed at masking single faults. The technology trend makes lower the dimensions of the transistors, and this leads to increased susceptibility to faults. In this new scenario, it is commoner to have multiple to single faults in the configuration memory of the FPGA, so that the use of TMR is inappropriate in high reliability applications. Furthermore, since the fault rate is increasing, scrubbing rate also needs to be incremented, leading to the increase in power consumption. Aiming at coping with massive upsets between sparse scrubbing, this work proposes the use of a multiple redundancy system composed of n identical modules, known as nmodular redundancy (nMR), operating in tandem and an innovative self-adaptive voter to be able to mask multiple upsets in the system. The main drawback of using modular redundancy is its high cost in terms of area and power consumption. However, area overhead is less and less problem due the higher density in new technologies. On the other hand, the high power consumption has always been a handicap of FPGAs. In this work we also propose a model to prevent power overhead caused by the use of multiple redundancy in SRAM-based FPGAs. The capacity of the proposal to tolerate multiple faults has been evaluated by radiation experiments and fault injection campaigns of study case circuits implemented in a 65nm technology commercial FPGA. Finally we demonstrate that the power overhead generated by the use of nMR in FPGAs is much lower than it is discussed in the literature.
103

Uso do network simulator-NS para simulação de sistemas distribuídos em cenários com defeitos

Trindade, Renata de Moraes January 2003 (has links)
O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.
104

Avaliação de abordagens para captura de informações da aplicação

Fontoura, Adriano Brum January 2002 (has links)
Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.
105

Avaliação de dependabilidade de sistemas com mecanismos tolerantes a falha: desenvolvimento de um método híbrido baseado em EDSPN e diagrama de blocos

FERNANDES, Sérgio Murilo Maciel January 2007 (has links)
Made available in DSpace on 2014-06-12T15:54:03Z (GMT). No. of bitstreams: 2 arquivo6424_1.pdf: 13803031 bytes, checksum: 6040cdc1997e59c9d7710625c1551127 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Nos dias atuais, observamos o vertiginoso avanço da tecnologia e a dependência cada vez maior da sociedade nos sistemas de computação. O uso massivo de dispositivos computadorizados, fixos e móveis, dentro de um conceito de computação ubíqua, e a crescente pervasividade das redes de computadores e serviços, têm tornado os sistemas extremamente complexos e dinâmicos. Esta complexidade vem aumentando a cada dia, a medida que os computadores têm se tornado menores, mais baratos e com maior capacidade de processamento. Hoje eles estão presentes não apenas em grande parte dos objetos da vida diária, como aparelhos celulares, laptops e desktops, como também nos sistemas de telecomunicações, nos meios de transporte, nos equipamentos hospitalares, e na maior parte das atividades. Enquanto razões econômicas forçam o desenvolvimento de novos sistemas computacionais, com um número cada vez maior de facilidades, razões de qualidade impõem a necessidade de que sejam evitados maus funcionamentos desses sistemas. As conseqüências das paralisações dos sistemas computacionais podem variar desde simples inconveniências, a perda de vidas humanas ou prejuízos materiais, o que motiva o desenvolvimento de metodologias para a avaliação da dependabilidade, ou segurança de funcionamento, desses sistemas. Devido ao comportamento aleatório de grande parte das falhas, técnicas de modelagem de dependabilidade por meio de avaliação analítica ou simulação estocástica têm provado ser uma solução útil e versátil em todas as fases do ciclo de vida de um sistema, desde a fase de projeto, na escolha da solução que melhor satisfaça aos requisitos de dependabilidade propostos, até a fase operacional, na detecção de gargalos que impeçam os sistemas de atingir tais requisitos. Esta Tese propõe o desenvolvimento de uma metodologia que possibilite a modelagem, o refinamento e a avaliação de sistemas dependáveis com a utilização de mecanismos de tolerância a falhas, através de um método híbrido baseado em redes de Petri estocásticas determinísticas estendidas (EDSPN) e diagramas de blocos, de um modo flexível, expansível e passível de automação. A metodologia proposta é executada em 5 diferentes níveis hierárquicos. Os dois primeiros níveis hierárquicos lidam com os diagramas de blocos e com os mecanismos de tolerância a falhas a serem introduzidos. O terceiro nível hierárquico, formado por redes de Petri de alto nível, define como será a interligação das redes de Petri, que representa a configuração dos blocos no diagrama de sistema dependável, na configuração final. No quarto nível hierárquico, o comportamento de cada bloco é modelado por meio de EDSPN, o qual gera expressões numéricas ou analíticas dos atributos de confiabilidade, disponibilidade e segurança. Finalmente, as expressões obtidas são utilizadas em um modelo dependável e parametrizado (MDP), de acordo com a configuração definida no terceiro nível, para obtenção das estimativas de dependabilidade do sistema como um todo. A metodologia proposta, além de ser passível de automação, objetiva ocultar a complexidade matemática envolvida e reduzir a possibilidade de explosão de estados. Para tornar os modelos EDSPN e MDP mais eficientes, uma biblioteca de modelos foi criada. Um mesmo modelo, com o auxílio de diferentes parâmetros de configuração, pode assumir diferentes mecanismos de tolerância a falhas, o que torna a metodologia flexível, assim como, um mesmo modelo, com o auxílio de parâmetros estruturais, pode assumir diferentes níveis de redundância em um mesmo mecanismo tolerante a falhas, o que torna a metodologia expansível
106

Um modelo híbrido e adaptativo para sistemas distribuídos tolerantes a falhas

Gorender, Sérgio January 2005 (has links)
Made available in DSpace on 2014-06-12T15:54:42Z (GMT). No. of bitstreams: 2 arquivo7293_1.pdf: 1302559 bytes, checksum: 5c29fcb5cfb2253f5a91930260887780 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Um sistema distribuído pode ser definido como um conjunto de processos que se comunicam através de canais de comunicação. Modelos para sistemas distribuídos determinam características do funcionamento destes sistemas, em especial com relação a aspectos temporais e de confiabilidade. O resultado da impossibilidade de se obter o consenso nos sistemas distribuídos assíncronos (modelo assíncrono), tolerando falhas, mesmo que apenas um processo possa falhar de forma silenciosa, estimulou o desenvolvimento de diversos modelos parcialmente síncronos de sistemas distribuídos. Estes modelos assumem algumas características síncronas, com o objetivo de evitar esta impossibilidade. Por outro lado, as novas arquiteturas para prover extit{QoS} são utilizadas para construir ambientes de execução híbridos, nos quais é possível fornecer serviços de comunicação com características síncronas para alguns canais de comunicação. O desafio que se apresenta é o de desenvolver um modelo para sistemas distribuídos adequado a executar em um ambiente equipado com arquiteturas para prover extit{QoS}. Este modelo deve considerar os aspectos síncronos e assíncronos do ambiente de execução, e ser adaptável às alterações dinâmicas que são características de arquiteturas para prover extit{QoS}. Nós respondemos a este desafio apresentando um novo modelo híbrido e adaptativo para sistemas distribuídos parcialmente síncronos, que é adaptável a alterações no estado do ambiente de execução, comuns em ambientes de execução com extit{QoS} cite{modelo,dsn2002,wtdladc2003,wtf2004,tecreportmodelo,sbrc2005}. Este modelo é híbrido ao assumir a coexistência de processos com características síncronas e assíncronas. O modelo apresentado também permite que os processos alterem o seu estado dinamicamente, sem prejuízo para a consistência dos sistemas em execução. Foi desenvolvida uma implementação do modelo proposto baseada em um ambiente de execução com extit{QoS}. Para viabilizar a execução desta implementação, foi desenvolvida uma infra-estrutura de comunicação, a qual denominamos QoS Provider, (QoSP), cujo objetivo principal é gerar uma interface padrão entre o nosso modelo e arquiteturas para prover extit{QoS} existentes. Um novo protocolo de consenso para o modelo de sistemas distribuídos proposto é apresentado nesta tese. Este protocolo de consenso apresenta resultados ótimos com relação à tolerância a falhas em sistemas parcialmente síncronos (tolera $f < n$ falhas de processos em algumas situações), e a complexidade (apresenta um limite inferior de dois passos de comunicação, resultado mínimo para o consenso em sistemas parcialmente síncronos). Foram realizados experimentos com o consenso, que comprovaram o bom desempenho deste protocolo, associado a uma tolerância a falhas ajustada ao nível de sincronismo representado no modelo
107

Inserção automática de mecanismos de tolerância e falhas em descrições VHDL

SANTOS, Ana Carla dos Oliveira January 2002 (has links)
Made available in DSpace on 2014-06-12T15:59:14Z (GMT). No. of bitstreams: 2 arquivo4981_1.pdf: 2017051 bytes, checksum: 7e487a5678737f75d7545527f97ee473 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2002 / Sistemas de computação vêm sendo mais empregados a cada dia, atingindo um maior número de usuários, que passam a depender mais fortemente do desempenho desses sistemas. À medida que mais pessoas são beneficiadas pelas máquinas, maior pode ser o prejuízo causado por problemas ocorridos no funcionamento destas. Dessa forma, torna-se necessária a utilização de mecanismos para lidar com os problemas que potencialmente possam afetar o bom funcionamento dos sistemas. Tolerância a falhas é um desses mecanismos. Assim como os computadores pessoais, os sistemas embutidos também têm se tornado mais utilizados nos últimos anos, afetando cada vez mais pessoas. Desde terminais bancários de caixas eletrônicos a aparelhos eletrodomésticos, diariamente as pessoas são beneficiadas pelos serviços que esse tipo de sistema oferece. Desse modo, os sistemas embutidos devem oferecer confiabilidade no seu funcionamento, evitando o prejuízo das pessoas que utilizam os sistemas e dependem deles. Apesar de metodologias para projeto de sistemas embutidos estarem sendo desenvolvidas, nota-se que a aplicação de tolerância a falhas nos sistemas ainda é realizada de forma intuitiva e manual. Com o avanço e a fundamentação das técnicas de tolerância a falhas, essa aplicação tem a tendência de se tornar também mais automatizada e sistemática. O trabalho tem como objetivo apresentar um método de auxílio no desenvolvimento de sistemas embutidos tolerantes a falhas. A abordagem escolhida foi a implementação da ferramenta ToleranSE - Tolerância a Falhas em Sistemas Embutidos - que visa a inserção automática de técnicas de tolerância a falhas na especificação desses sistemas. Com isso, pretende-se mostrar a viabilidade de utilização de métodos automatizados na implementação de mecanismos de tolerância a falhas no desenvolvimento de sistemas embutidos
108

Avaliação petrográfica e experimental de agregados graúdos afetados por deformação tectônica, desenvolvimento de minerais de alteração e texturas de exsolução

Gomes do Prado, Adelson 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T17:35:24Z (GMT). No. of bitstreams: 2 arquivo3324_1.pdf: 1990261 bytes, checksum: efd4e48bbf4c5cf81fd8a901e422ac80 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A deterioração do concreto devido à reação álcali-agregado (RAA) é um problema observado no mundo inteiro. Estruturas geológicas apresentando zonas de falhas são originadas devido a movimentos tectônicos em regimes deformacionais compressivos, distensivos e cisalhantes. Rochas próximas a zonas de falha geralmente exibem características mineralógicas inadequadas ao uso como agregado para concreto. Esta pesquisa avaliou as características microestruturais de seis amostras de rocha de pedreiras próximas a zonas de cisalhamento e falhas da região leste do estado de Pernambuco situada na Província da Borborema. O objetivo deste estudo é avaliar petrograficamente e experimentalmente agregados graúdos afetados por deformação tectônica, especialmente no que se referem aos diferentes padrões texturais e mineralógicos. A mineralogia principal, presença de minerais de alteração secundária e as texturas de exsolução foram observadas para tentar descobrir seu efeito na RAA. Os métodos aplicados foram análises petrográficas e ensaios laboratoriais de reatividade para medição da expansão linear de corpos-de-prova. As análises petrográficas foram realizadas usando microscópio ótico através de lâminas delgadas. Das seis amostras analisadas, as ocorrências que evidenciaram maior reatividade aos álcalis foram a presença de quartzo microcristalino proveniente da recristalização dinâmica. Essas amostras foram as que estavam situadas mais próximas a zonas de falhas. Também foi verificado o importante papel do quartzo com desenvolvimento de subgrão na reatividade, e em menor grau o quartzo com extinção ondulante. As texturas mirmequíticas e pertíticas não evidenciaram influência no aumento da reatividade das rochas analisadas neste estudo. Adicionalmente, os ensaios de expansão, de um modo geral, foram coerentes com as observações mineralógicas encontradas. Finalmente, foi observada, através de imagens microscópicas pela técnica de MEV acoplado a WDS, a presença do gel sílico-alcalino da reação recobrindo a superfície de poros e agregados
109

Diagnósticos de Falhas em Processos Industriais Via Causalidade de Granger

ZUQUI JUNIOR, G. C. 12 August 2015 (has links)
Made available in DSpace on 2018-08-02T00:01:03Z (GMT). No. of bitstreams: 1 tese_6869_Dissertacao_GercilioZuqui_Revisao_Final.pdf: 2365617 bytes, checksum: 7365f16eff21c012d5d09f29db16c523 (MD5) Previous issue date: 2015-08-12 / Falhas que se propagam por plantas industriais podem levar muitas malhas de controle a operar fora de faixas de segurança e de maiores ganhos econômicos. Neste contexto o diagnóstico de falhas em ambientes industriais é de fundamental importância para a competitividade de uma empresa. Neste trabalho é apresentado um estudo na área de detecção, identificação e diagnóstico de falhas. Uma revisão bibliográfica é realizada nas técnicas existentes e um método para indicar a fonte de falhas diretamente a partir de dados de operação é apresentado. As malhas de controle afetadas pela falha são identificadas baseando-se na análise por cartas de controle, componentes principais e estatística T 2 de Hotelling e, as relações de causalidade entre as mesmas é detectada via causalidade de Granger. A metodologia foi aplicada em dois estudos de caso: uma central termelétrica muito sujeita a distúrbios devido à troca dos combustíveis usados para gerar energia; e em um forno de pelotização, que possui um grande nível de interação entre malhas de controle devido ao reaproveitamento de energia. O algoritmo proposto indicou corretamente as fontes das falhas propagadas pelas malhas de controle.
110

O Efeito da terceirização de call centers na avaliação da justiça e satisfação pós-tratamento de reclamações

MORAES, Andre Ponce Leon 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:03:57Z (GMT). No. of bitstreams: 2 arquivo1091_1.pdf: 1266421 bytes, checksum: a9636f447c133f3ee1f5221b5a333eb1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / A relação entre a teoria da justiça e a satisfação pós-tramento de reclamações é uma temática de profunda relevância no estudo das relações de serviços. Outro assunto em plena ebulição nas organizações empresariais atuais é a necessidade de terceirização de atividades, inclusive de atendimento ao cliente. O objetivo principal desta dissertação é verificar o efeito da terceirização de call centers na avaliação da justiça percebida e satisfação pós-tratamento de reclamações. Para o alcance dos objetivos, foi desenvolvido um modelo teórico e aplicado um questionário a 369 clientes reclamantes reais selecionados aleatoriamente de uma grande empresa de telefonia celular atendidos em call centers terceirizados e próprios. Com base na construção teórica realizada, juntamente com resultados estatísticos obtidos por técnicas multivariadas (modelagem de equações estruturais), concluiu-se que a satisfação pós-tratamento de reclamações é afetada significativamente apenas pela percepção de justiça distributiva. A percepção de justiça interpessoal e a percepção de justiça processual não apresentaram efeito direto sobre a satisfação pós-tratamento de reclamações. Entretanto, não se pode afirmar que essas percepções não são importantes, visto que as mesmas influenciam as percepções de justiça distributiva dos reclamantes. A principal contribuição acadêmica deste estudo foi a não confirmação do efeito da terceirização na avaliação de justiça e na satisfação pós-tratamento de reclamação. Ou seja, não houve diferenças significativas na percepção de justiça e satisfação pós-tratamento de reclamações entre clientes atendidos por call centers terceirizados ou próprios

Page generated in 0.0389 seconds