Spelling suggestions: "subject:"processamento eletrônico dde dados"" "subject:"processamento eletrônico dee dados""
11 |
Um gerenciador de projetos de engenharia de softwareVargas, Jose Evandro Motta 12 October 1990 (has links)
Orientador: Mario Jino / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-13T21:52:57Z (GMT). No. of bitstreams: 1
Vargas_JoseEvandroMotta_M.pdf: 9207008 bytes, checksum: 34ca615b6dc0875b2a1ffd3fde18f49d (MD5)
Previous issue date: 1990 / Resumo: Neste trabalho são apresentados alguns modelos e ferramentas automatizadas para o gerenclamento de projetos; seguindo o modelo clássico de gerenclamento de projetos, é proposto um modelo genérico de Gerenciamento de Projetos de Engenharia de Software criado através da união de dois conjuntos de Informações. O primeiro conjunto é formado por um sub-conjunto das informações existentes em um ambiente de engenharia de software , contendo os modelos de cicios de vida, as metodologlas e seus produtos associados, Juntamente com as informações sobre os recursos materiais e humanos disponíveis para o desenvolvimento dos projetos de engenharia de software . Denominamos este primeiro conjunto de Informações de .ambiente de gerenciamento. O segundo conjunto é constituido pelas informações pertinentes aos projetos de engenharia de software que serão gerenciados Denominamos este segundo conjunto de "ambiente de projetos". Baseando-se nesse modelo proposto, é apresentado o protótipo uma ferramenta que automatiza o gerenciamento dos projetos engenharia de software / Abstract: A description of models of Project Management and of automated tools to support Project Management is presented . A software Engineering Project Management Model , based on the Glassical Model of Project Management, is proposed . The model proposed is created through the union of two sets of information . One set is that composed by information obtained from a typical Software Engineering Environment - Iife cycles, methodologies, products - plus information on resources available for development of Software Engineering Projects ( human and material resources ).
The other set is composed of information concerning the Engineering Projects themselves. A prototype of an automated tool to support Software Project Management, according to the proposed implemented and is described / Mestrado / Automação / Mestre em Engenharia Elétrica
|
12 |
Metodos frequencia para ajuste de controladores PIDAlmeida, Otacilio da Mota 30 August 1990 (has links)
Orientador : Wagner Caradori do Amaral / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-13T21:53:45Z (GMT). No. of bitstreams: 1
Almeida_OtaciliodaMota_M.pdf: 6453894 bytes, checksum: 9fd9e0ac95aedc722f0900f663d2cb20 (MD5)
Previous issue date: 1990 / Resumo: Neste Trabalho desenvolvem-se e comparam-se quatro métodos para o auto-ajuste de controladores PID. Em dois métodos realiza-se uma identificação em freqüência do processo e especifica-se: i,) a fase e o ganho para o sistema compensado. ii') os pólos dominantes do sistema em malha fechada. Descreve-se também o método de ajuste de Ziegler-Nichols e um método de posicionamento dos pólos do sistema em malha fechada a partir de uma identificação temporal do modelo do processo. O controlador auto-ajustável obtido a partir dos método freqüênciais constitui-se de duas etapas: i,) de identificação e cálculo dos parâmetros do controlador. i i,) de controle. Na etapa de identificação o processo é realimentado através de uma não linearidade tipo relé. Nesta fase estima-se a função de transferência do processo e calculam-se os ganhos do controlador. Na etapa seguinte o processo é controlado através do PID com ganhos obtidos na fase anterior. Finalizando são realizadas simulações com cinco processos de características distintas, citados na literatura, para teste e comparação dos algoritmos obtidos / Mestrado / Mestre em Engenharia Elétrica
|
13 |
Nucleo multiprocessado para aplicações em tempo-realHexsel, Roberto Andre 19 September 1988 (has links)
Orientador: Rogerio Drummond / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-17T23:29:28Z (GMT). No. of bitstreams: 1
Hexsel_RobertoAndre_M.pdf: 2603589 bytes, checksum: 63a5073b316e9b7dd4121ccfbde1245d (MD5)
Previous issue date: 1988 / Resumo: Esta Dissertação descreve o núcleo de tempo-real do Multiprocessador para Sistemas de Controle (MSC). O MSC foi desenvolvido no Instituto de Automação do Centro Tecnológico para Informática e possui características que o tornam adequado a aplicações em controle de processos e automação industrial. Estas aplicações exigem respostas rápidas a eventos externos e grande capacidade de processamento. O MSC pode ser configurado para satisfazer as mais diversas aplicações e diferentes níveis de desempenho, desde controladores de robô até gerenciadores de sistemas integrados de manufatura. O MSC é baseado no barramento VME e pode conter um ou mais processadores MC 68000 e zero ou mais processadores Z80. O barramento VME suporta a comunicação de baixo nível entre os programas executados em paralelo pelos processadores. Cada processador (MC 68000) executa o código (aplicativos e NÚCLEO) armazenado em sua memória local, à qual é conectado por um barramento privativo (padrão VMX). A sincronização e comunicação de alto nível entre os programas ocorre através da memória global, a que os processadores tem acesso pelo barramento VME. Os processadores de Entrada/Saída (PE/S) são escravos dos demais processadores. Os PE/S são interligados ao VME por memória dual-port: uma das portas é mapeada como memória global (no VME) e a outra é ligada ao barramento interno do PE/S. O NÚCLEO do MSC é estruturado segundo o modelo estratificado. A unidade lógica de computação é o processo. O mecanismo de sincronização interprocessos é uma extensão de semáforos para uso no ambiente multiprocessado do MSC. O mecanismo de comunicação interprocessos é a troca de mensagens através de caixas postais. A localização (em memória global ou local) dos objetos suportados pelo NÚCLEO é especificada somente na sua criação. Todas as outras operações referenciam apenas aos identificadores dos objetos (números inteiros). Chamamos esta caraçterística de Transparência de Multiprocessamento. Graças a ela, a programação do MSC, um multiprocessador, oferece um grau de dificuldade não maior que aquele apresentado por sistemas multitarefa convencionais. Além disso, se todos os objetos necessários à execução de um programa forem criados num mesmo processo, um aplicativo pode ser transportado para uma máquina com um número diferente de processadores sem alterações no seu código (exceto nos locais onde os objetos/recursos são criados). O NÚCLEO oferece primitivas para a criação e destruição de processos (locais e remotos), operações P e V sobre semáforos, operações sobre conjuntos de armazenadores e troca de mensagens através de caixas postais. Os semáforos possibilitam soluções simples e eficientes para problemas de exclusão mútua e sincronização condicional. As caixas postais permitem a implementação de vários paradigmas de comunicação interprocessos, tais como comunicação síncrona ou assíncrona, "pipes" e "rendezvous". / Abstract: This dissertation describes the real-time kernel for a Multiprocessor aimed at Control Systems Applications (MSC for short). The MSC multiprocessor was developed at Instituto de Automação, Centro Tecnológico para Informática. It has features that make it suitable for applications in industrial process control. These applications demand high throughput and prompt response to external events. The MSC can be configured to solve a wide variety of problems in control and automation, from robot controllers up to supervising chores in flexible manufacturing systems. The MSC is built around a VME bus and may have one or more MC 68000 based processors and zero or more Z80 based I/O processors. The VME bus supports the low leveI communication between the processors. Each processor (MC 68000) executes the code (application and KERNEL) stored in its local memory, to which it is connected, by a private bus (VMX bus). The high leveI synchronization and communication between the programs occurs through the global memory, which is accessed by the processors via the VME bus. The I/O processors interface to the VME bus is a dual ported memory: one port is connected to the global bus (mapped as global memory) and the other is connected to the I/O processor's internal bus. The MSC's KERNEL was designed as a layered structure. The logical unit of computation is the process. The interprocess syhchronization mecanism is an extension to semaphores so they can be used in the distribuited MSC's environrnent. The interprocess communication mecanism is message exchange through mailboxes. The loci (in either global or local memory) of the objects supported by the KERNEL is specified only at its creation. All the other operations upon them refer just to their identifiers (which are integers). We call this feature Multiprocessing Transparency. Thanks to it, the MSC's (a multiprocessor) programming presents no more difficulty than that of conventional multitasking systems. Furthermore, if alI the objects needed to a program's execution are created on one process, this program may be ported to a machine with a different number of processors without any changes to its code (except, of course, to the places where the objects are created). The KERNEL supports primitives for the creation and killing of processes (local and remote ones), P and V operations on semaphores, operations on buffer pools (get, release) and message exchange through mailboxes. The semaphores provide simple and effident solutions to mutual exclusion and condition synchronization problems. The mailboxes allow the implementation of many interprocess communication paradigms, such as synchronous and assynchronous communication, pipes and rendezvous. / Mestrado / Mestre em Ciência da Computação
|
14 |
Um sistema para processamento distribuido multimidiaPerazolo, Marcelo 20 July 2018 (has links)
Orientador: Edson Moschim / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-20T06:04:33Z (GMT). No. of bitstreams: 1
Perazolo_Marcelo_M.pdf: 4645035 bytes, checksum: 1406c2aed25ccbd5b18e37a83cee5b85 (MD5)
Previous issue date: 1994 / Resumo: Atualmente os sistemas computacionais são cada vez mais personalizados e integrados na vida das pessoas. Com isso surge a necessidade de diversificar as formas de processamento de informações existentes. As necessidades correntes da sociedade implicam em um grande e diversificado volume de informações de Mídias diferentes, tais como áudio, vídeo, gráficos, textos, animação, etc. Por outro lado, computadores são cada vez mais interligados, visando facilitar a comunicação. Redes de computadores surgem como uma solução para a distribuição de recursos, mas com isso surgem dificuldades decorrentes da grande heterogeneidade de máquinas e programas. Existem diversas soluções envolvendo recursos tecnológicos de grande complexidade. Sistemas verdadeiramente distribuídos são aplicados atualmente em diversos setores da informática. Este trabalho propõe a aplicação de tecnologias de sistemas distribuídos na solução de problemas relacionados ao processamento de diversos tipos de informação, ou seja, processamento Multimídia. Para tanto serão aplicados conceitos já existentes de tecnologia de redes e desenvolvidos conceitos que proporcionem isso, tais como Protocolos de comunicação, Servidor e Cliente Multimídia, registro de Serviços Multimídia, entre outros. Finalmente serão apresentadas conclusões sobre a utilidade do sistema baseadas em resultados práticos / Abstract: Not informed. / Mestrado / Mestre em Engenharia Elétrica
|
15 |
Sumarização de dados no nodo por parâmetros : fusão de dados local em ambiente internet das coisas /Maschi, Luis Fernando Castilho. January 2018 (has links)
Orientador: Alexandro José Baldassin / Coorientador: Alex Sandro Roschildt Pinto / Banca: Kalinka Regina Lucas Jaquie Castelo Branco / Banca: Ivan Rizzo Guilherme / Resumo: Com o surgimento da Internet das Coisas, por meio de bilhões de objetos ou dispositivos inseridos na Internet, gerando um volume de dados nunca antes imaginado. Este trabalho propõe uma maneira de coletar e processar dados locais através da tecnologia de fusão de dados chamada de sumarização de dados. A principal característica desta proposta é a fusão local de dados, através de parâmetros fornecidos pela aplicação e/ou base de dados, garantindo a qualidade dos dados coletados pelo nodo do sensor. Nos testes, um nodo sensor com a técnica proposta, aqui identificada como Sumarização de Dados no Nodo por Parâmetros (SDNP), realiza a sumarização de dados e posteriormente é comparado com outro nodo que realizou uma gravação contínua dos dados coletados. Foram criados dois conjuntos de nós para estes testes, um com um nodo de sensor que analisou a luminosidade de salas de aula, que neste caso obteve uma redução de 97% no volume de dados gerados, e outro conjunto que analisou a temperatura dessas salas, obtendo uma redução de 80% no volume de dados. Através desses testes, verificou-se que a sumarização de dados local no nodo pode ser usada para reduzir o volume de dados gerados, diminuindo assim o volume de mensagens geradas pelos ambientes IoT / Abstract: With the advent of the Internet of Things, billions of objects or devices are inserted into the global computer network, generating and processing data in a volume never before imagined. This work proposes a way to collect and process local data through the data fusion technique called summarization. The main feature of the proposal is the local data fusion through parameters provided by the application, ensuring the quality of data collected by the sensor node. In the tests, the sensor node was compared when performing the data summary with another that performed a continuous recording of the collected data. Two sets of nodes were created, one with a sensor node that analyzed the luminosity of the room, which in this case obtained a reduction of 97% in the volume of data generated, and another set that analyzed the temperature of the room, obtaining a reduction of 80 % in the data volume. Through these tests, it has been verified that the local data fusion at the node can be used to reduce the volume of data generated, consequently decreasing the volume of messages generated by IoT environments / Mestre
|
16 |
Um Serviço para Flexibilização da Tarifação em Nuvens de Infraestrutura / A Service for Easing Charging Infrastructure in CloudsViana, Nayane Ponte January 2013 (has links)
VIANA, N. P. Um Serviço para Flexibilização da Tarifação em Nuvens de Infraestrutura. 2013. 106 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T20:48:19Z
No. of bitstreams: 1
2013_dis_npviana.pdf: 3553603 bytes, checksum: 0e999b6df08351daaf88cb5e72f73163 (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-09-23T16:30:28Z (GMT) No. of bitstreams: 1
2013_dis_npviana.pdf: 3553603 bytes, checksum: 0e999b6df08351daaf88cb5e72f73163 (MD5) / Made available in DSpace on 2015-09-23T16:30:28Z (GMT). No. of bitstreams: 1
2013_dis_npviana.pdf: 3553603 bytes, checksum: 0e999b6df08351daaf88cb5e72f73163 (MD5)
Previous issue date: 2013 / Cloud computing has emerged in 2006 with the idea to make the utility computing service. This new paradigm is based on several mature technologies that have come to the right time, such as grid computing, distributed systems and virtualization. However, cloud computing has its peculiar features, like customization, elasticity and pay-per-use service and, moreover, to be a new paradigm, has many open questions that needs to be mature, such as security, availability and charging. The pricing is a key feature of cloud computing. In this approach the customer pay for your use, model known as pey per use. Then, perform the monitoring of the resources use is needed in order to pricing. In cloud services infrastructure case, monitoring the hardware resources use is necessary. However, many academic studies show that the form of charging by cloud providers do not take into account important requirements for the customers invoice calculation. Based on this, this work aims to improve the flexibility of charging for infrastructure clouds. For this, an academic and industry study was made to collect and sort the requirements for flexible charging services in cloud computing. Thus, an architecture and service charges, the aCCountS (a Cloud Accounting Service) and a domain specific language (DSL) for defining pricing policies in clouds, called Accounts-DSL, was proposed. In this study are defined: (i) the service architecture and the description of its key parts, (ii) the accounting service proposed and how it was developed, and (iii) the charging language and its requirements and grammar. Finally, the experimental evaluation performed to test the correctness of the service and the language proposed are described. For this, real test was made with the service deployment in commercial clouds in order to test the aCCountS and aCCountS-DSL features. / A computação em nuvem surgiu em 2006 com a ideia de transformar a computação em um serviço utilitário. Esse novo paradigma é baseado em várias tecnologias que vieram amadurecendo ao longo dos tempos, como o sistema distribuído, a computação em grade e a virtualização. Além disso, a computação em nuvem tem suas características peculiares, como a customização, a elasticidade e o pagamento por uso do serviço. Portanto, por ser um paradigma novo, a nuvem possui muitas questões em aberto que precisam ser amadurecidas, como a segurança, a disponibilidade e a tarifação. A tarifação é uma das principais características da computação em nuvem. Nesse paradigma, o cliente paga pelo que utiliza, modelo conhecido como pey per use. Para isso, é preciso realizar o monitoramento do uso dos recursos a fim de tarifar de acordo com sua utilização. As provedoras de nuvem disponibilizam diferentes tipos de serviços aos seus usuários, os principais são:(i) Software como Serviço, (ii) Plataforma como Serviços e (iii) Infraestrutura como Serviço (hardware). No caso dos serviços disponibilizados por nuvens de infraestrutura,é necessário medir o uso dos recursos de hardware na nuvem. Porém, muitos trabalhos acadêmicos mostram que o modelo de tarifação das provedoras de nuvem não levam em consideração requisitos importantes para o cálculo da fatura do cliente. Baseado nisso, este trabalho tem por objetivo melhorar a flexibilidade da tarifação em nuvens de infraestrutura. Para isso, ele propõe uma arquitetura e um serviço de tarifação, o aCCountS (Cloud aCCounting Service) e uma linguagem de domínio específico (DSL) para definição de políticas de tarifação em nuvens, chamada de aCCountS-DSL. Inicialmente, foi realizado um estudo na academia e na indústria a fim de coletar e classificar os requisitos para flexibilizar a cobrança de serviços na computação em nuvem e criar um novo modelo de tarifação. A partir desses estudos foram definidos (i) a linguagem de tarifação proposta, os requisitos que são suportados pela linguagem, em seguida a (ii) a arquitetura do serviço e a descrição de suas partes fundamentais e então, (iii) o serviço de tarifação proposto. Por fim, esse trabalho descreve as avaliações experimentais realizadas para testar a corretude do serviço e da linguagem propostos. Para isso, foram feitos testes reais a partir da implantação do serviço em nuvens comerciais com o objetivo de testar o aCCountS e a aCCountS-DSL.
|
17 |
Sistema automatizado de identificação de impressões digitais peer-to-peer (P2P) / Peer-to-peer automated fingerprint identification systemSantos, Clayton Guimarães Cova dos 16 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2017-01-27T13:24:54Z
No. of bitstreams: 1
2016_ClaytonGuimarãesCovadosSantos.pdf: 4834676 bytes, checksum: e660202451e810e6518cfaf8e31bae83 (MD5) / Approved for entry into archive by Ruthléa Nascimento(ruthleanascimento@bce.unb.br) on 2017-03-21T13:41:27Z (GMT) No. of bitstreams: 1
2016_ClaytonGuimarãesCovadosSantos.pdf: 4834676 bytes, checksum: e660202451e810e6518cfaf8e31bae83 (MD5) / Made available in DSpace on 2017-03-21T13:41:27Z (GMT). No. of bitstreams: 1
2016_ClaytonGuimarãesCovadosSantos.pdf: 4834676 bytes, checksum: e660202451e810e6518cfaf8e31bae83 (MD5) / Sistema Automatizados de Identificação de Impressões Digitais (AFIS –
Automated Fingerprint Identification System) são sistemas que executam confrontos de impressões
digitais de forma automatizada, permitindo operações de verificação (1 para 1) ou identificação (1
para N) de impressões digitais cadastradas neste ambiente. O trabalho aqui descrito apresenta a
concepção de um sistema de localização, compartilhamento e confronto de templates biométricos em
sistemas AFIS no formato peer-to-peer, utilizando o protocolo Chord para distribuição dos
identificadores de indivíduos cadastrados. Também apresenta uma proposta de escalonamento para
filas de confronto baseada em custos, com métricas e pesos calculados para cada entrada na fila,
considerando parâmetros como ordem de chegada, disponibilidade, número de requisições, número
de respostas e tamanho da base de templates.
Tal solução se apresenta como uma alternativa para confronto entre templates de nós distintos,
podendo ser utilizado em consultas de verificação ou pesquisas de identificação entre peers. Esta
aplicação poderia integrar Estados brasileiros, permitindo consultas entre bases biométricas e
possibilitando a identificação de indivíduos registrados em outras unidades da federação. / Automated Fingerprint Identification System executes a comparison operation
between fingerprints automatically, allowing thus verification (1 to 1) or identification (1 to N) of
fingerprints registered at these environments. The work here described shows a concept system to
locate, share and match biometric templates in a peer-to-peer network, using the Chord protocol to
distribute their identifiers. Present too an scaloning proposal to identification queues based on cost,
with metrics and weights defined to every queue entry, resorting parameters like arrive order,
disponibility, requisitions number, response number and template database size.
That solution is shown as an alternative to confronting templates from distinct nodes, able to be used
in verification operations (1:1) or identification searches (1:N) between peers. This application could
integrate Brazilian states, allowing queries among biometric databases and enabling person
identification in other federation units.
|
18 |
Uma estratégia para diagnóstico distribuído de redes de topologia arbitráriaSiqueira, Jadson Igor 10 February 2011 (has links)
Resumo: Considere um sistema formado por nodos interconectados por enlaces. Tanto os nodos quanto os enlaces podem assumir o estado falho ou sem-falha. Os algoritmos de diagnóstico distribuido têm como objetivo a identificação dos estados dos componentes de um sistema a partir de seus nodos sem-falha. O algoritmo NBND (Non-Broadcast Network Diagnosis) permite o diagnóstico distribuido de eventos em redes de topologia arbitrária. Através de testes periódicos, novos eventos são detectados e posteriormente propagados para os demais nodos. Com base no estado dos enlaces da rede, é possível executar, a partir de qualquer ponto da rede, um algoritmo de conectividade para descobrir quais nodos estão acessíveis e quais estão inacessíveis. O SNMP {Simple Network Management Protocolí) é o protocolo padrão utilizado na Internet para gerência de redes. O SNMP trabalha com informações organizadas numa estrutura hierárquica chamada MIB (.Management Information Base). Neste trabalho uma nova versão do algoritmo NBND é proposta e descrita formalmente. Um sistema distribuído de monitoramento de redes com agentes SNMP baseado no algoritmo NBND para diagnóstico de redes de topologia arbitrária é proposto e sua implementação é descrita, incluindo a NBND MIB, utilizada pelos agentes. Este trabalho traz, ainda, resultados experimentais da utilização do sistema de monitoramento na detecção de falhas em enlaces de duas topologías de rede: hipercubo e anel.
|
19 |
Processo eletrônico trabalhista e competência territorial: reflexões a partir da "penhora online"Krieger, Mauricio Antonacci January 2014 (has links)
Made available in DSpace on 2015-04-30T14:04:46Z (GMT). No. of bitstreams: 1
000467145-Texto+Parcial-0.pdf: 89016 bytes, checksum: 3f7fa8686ae1bca3bf61200d776d493e (MD5)
Previous issue date: 2014 / The society is adapting to a new reality: the technologic revolution, more specifically to the informatics revolution with the internet era. At the current context, it is noticed changes on the judicial scene, because the law must adapt to this new culture, not only regulating the new situations occurring because of these new technologies, as well as using them. On what encloses the process it is possible to notice several meaningful changes, mainly with the new lawsuit model, called electronic lawsuit. At a first glance it looks like the electronic lawsuit only changes the formal elements of the lawsuit, going from paper to virtual, simply with the idea of digitalization. But reality points to other side and, what is noticed is that not only formal aspects are part of this new reality and, yes, there is a material meaning behind the electronic lawsuit that changes or could change the procedural principles, therefore the essence of the lawsuit is in its full mutation. Impartiality principles, reasonable duration of the lawsuit and territoriality, among others, suffer changes, others not too much, but in the future may appear. On what concerns the territoriality principles, it can be said that with the electronic lawsuit occurs the un materialization of the files and it reflects directly on the idea of territorial limits, the traditional rules of competence are modified and confer to the judge bigger powers. On labor justice, mainly, it is noticed in several cases, for example the online garnishment that allows the debtor’s bills block on national territory, not mentioning that quotations and summons are each time more in disuse. In other words, with this new tool, allowing, including, that the judge accesses the lawsuit from wherever he is, it is evident that the electronic lawsuit involves a new meaning on the way of thinking of lawsuits. / A sociedade está se adaptando a uma nova realidade: à revolução tecnológica, mais especificamente a revolução da informática com a era da internet. Nesse contexto, percebem-se também mudanças no cenário jurídico, pois o Direito deve se adaptar a esta nova cultura, não apenas regulamentando as novas situações que acontecem, devido a essas novas tecnologias, como também utilizando-as. No que tange ao processo trabalhista, é possível perceber mudanças significativas, principalmente com o novo modelo de processo, chamado de “processo eletrônico”. Em um primeiro momento parece que o processo eletrônico apenas modifica os elementos formais do processo, passando do papel para o virtual, simplesmente com a ideia de digitalização. Mas a realidade aponta para outro lado e, o que se nota, é que não apenas aspectos formais fazem parte dessa nova realidade, mas sim que existe um sentido material por trás do processo eletrônico que altera ou poderá alterar os princípios processuais, ou seja, a essência do processo está em plena mutação. Princípios da imparcialidade, razoável duração do processo e territorialidade, dentre outros, sofrem mudanças, algumas já fáceis de constatar como a maior celeridade do processo, outras nem tanto, mas que no futuro poderão aparecer. No que tange ao princípio da territorialidade, pode-se dizer que com o processo eletrônico ocorre a desmaterialização dos autos e isso reflete diretamente na ideia de limites territoriais; as regras tradicionais de competência se modificam e conferem ao juiz maiores poderes, eis que sua atuação não está mais limitada ao seu território (limite da jurisdição: competência territorial, com critérios geográficos). Na Justiça do Trabalho, principalmente, isso já é notado em vários casos como, por exemplo, na chamada penhora online que permite o bloqueio de contas do devedor em todo território nacional, sem contar que citações e intimações estão cada vez mais em desuso. Em outras palavras, com essa nova ferramenta, permitindo, inclusive, que o juiz acesse o processo de onde quer que esteja, fica evidente que o processo eletrônico acarreta um novo sentido na maneira de se pensar o processo, notoriamente a questão espacial do processo do trabalho e os limites de atuação do judiciário, quando atrelados ao território em que lotado o juiz ou vinculado o processo.
|
20 |
Modelo de confiança para a troca de arquivos em uma nuvem privada / Trust model for the exchange of files in a private cloudCanedo, Edna Dias 15 August 2012 (has links)
Tese (doutorado)—Universidade de Brasília, Departamento de Engenharia Elétrica, 2012. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2013-01-30T12:54:21Z
No. of bitstreams: 1
2012_EdnaDiasCanedo.pdf: 3527692 bytes, checksum: dccac5ed56bcd753445633a84bb339eb (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-01-30T13:52:04Z (GMT) No. of bitstreams: 1
2012_EdnaDiasCanedo.pdf: 3527692 bytes, checksum: dccac5ed56bcd753445633a84bb339eb (MD5) / Made available in DSpace on 2013-01-30T13:52:04Z (GMT). No. of bitstreams: 1
2012_EdnaDiasCanedo.pdf: 3527692 bytes, checksum: dccac5ed56bcd753445633a84bb339eb (MD5) / Os recentes avanços na tecnologia de computação em nuvem demonstram um aumento nos
problemas relacionados à segurança, privacidade e confiança em diferentes aspectos, os quais não haviam sido previstos na concepção dos ambientes de computação em nuvem. Entre estes, o problema da confiança entre os usuários e a garantia do
acesso seguro aos recursos destes ambientes tem merecido uma atenção especial. Neste trabalho, é apresentada uma revisão dos conceitos da confiança e reputação, da
computação em nuvem e são abordadas algumas questões em aberto relacionadas à
confiança e segurança em ambientes de computação em nuvem. A representação da
confiança e da reputação em sistemas computacionais tem sido amplamente discutida e aplicada em diversos cenários da tecnologia da informação, se tornando objeto de pesquisas científicas tanto do ponto de vista teórico quanto prático. Como resultado, diversos trabalhos estão sendo apresentados na tentativa de minimizar e solucionar os problemas decorrentes da segurança e confiabilidade nestes ambientes. Esta pesquisa
propõe a criação de um modelo de confiança de alto nível para garantir a troca confiável de
arquivos entre os usuários de uma nuvem privada, bem como o cálculo da confiança entre os respectivos usuários, de acordo com as métricas estabelecidas. Para validar o modelo proposto foi utilizado um ambiente de simulação com a ferramenta CloudSim. A sua utilização para executar as simulações dos cenários adotados permitiu: calcular a tabela de confiança dos nós (máquinas virtuais) e selecionar os considerados mais confiáveis; identificar que as métricas adotadas influenciam diretamente no cálculo da confiança em
um nó; avaliar a adequação das métricas utilizadas, possibilitando identificar e selecionar as mais adequadas em relação ao histórico do comportamento dos nós pertencentes ao ambiente analisado; verificar que o modelo de confiança proposto permite efetivamente a
escolha da máquina mais adequada para efetuar a troca de arquivos. ______________________________________________________________________________ ABSTRACT / Recent advances in cloud computing have shown an increase in problems related to security, privacy and trust in different aspects, which had not been anticipated in the design of cloud computing environments. Among these, the lack of trust between users and ensuring secure access to the resources in these environments has deserved special
attention. In this work, it is presented a review of concepts of cloud computing, trust and reputation and some open issues related to trust and security in cloud computing
environments are addressed. The representation of trust and reputation in computer systems has been widely discussed and applied in various Information Technology scenarios, becoming the subject of scientific research, both from the theoretical and practical point of view. As a result, several studies are being presented in an attempt to
minimize and solve problems relating to security and reliability in these environments. This research proposes the creation of a high level trust model to ensure the reliable files
exchange between the users of a private cloud as well as the measurement of their trust, according to the metrics established. To validate the proposed model, a simulation environment with the tool CloudSim was used. Its use to run the simulations of the adopted scenarios allowed us to calculate the nodes (virtual machines) trust table and select those
considered more reliable; identify that the metrics adopted by us directly influenced the measurement of trust in a node; assess the adequacy of metrics used, allowing to identify and select the most appropriate in relation to the historical behavior of the nodes belonging
to the analyzed environment; verify that the trust model proposed effectively allows the selection of the most suitable machine to perform the exchange of files.
|
Page generated in 0.1583 seconds