• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • Tagged with
  • 38
  • 30
  • 27
  • 12
  • 10
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Uma proposta de modelo para transmissão de dados interceptados na internet brasileira

Sícoli, Fábio Caús 02 March 2012 (has links)
Dissertação (mestrado)—Universidade Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2012. / Submitted by Gabriela Botelho (gabrielabotelho@bce.unb.br) on 2012-07-11T16:28:38Z No. of bitstreams: 1 2012_FábioCaúsSícoli.pdf: 2109612 bytes, checksum: 77180197c36097f0eea1536b689056c5 (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-07-13T12:07:11Z (GMT) No. of bitstreams: 1 2012_FábioCaúsSícoli.pdf: 2109612 bytes, checksum: 77180197c36097f0eea1536b689056c5 (MD5) / Made available in DSpace on 2012-07-13T12:07:11Z (GMT). No. of bitstreams: 1 2012_FábioCaúsSícoli.pdf: 2109612 bytes, checksum: 77180197c36097f0eea1536b689056c5 (MD5) / O acesso ao teor das comunicações é uma ferramenta de grande importância para o conhecimento de ações desempenhadas por investigados, relações entre pessoas, seus hábitos, dentre outras informações relevantes a uma investigação criminal. No entanto, os órgãos de segurança pública têm grandes dificuldades em acessar os dados capturados por meio de uma quebra de sigilo telemático. Dentre as razões, estão a falta de padronização nos métodos utilizados pelas operadoras de telecomunicação para enviar dados aos investigadores e a variedade de formatos de arquivos de dados capturados. Assim, prejudica-se a automatização de tarefas, deixando-as mais ineficientes e suscetíveis a erros humanos. Além disso, as rotinas atualmente utilizadas não oferecem uma cadeia de custódia confiável ou garantias de autenticidade e integridade do tráfego interceptado. Existem leis, normas e resoluções que obrigam as operadoras de telecomunicação a fornecerem meios para que dados trafegados sejam interceptados quando da suspensão de seu sigilo. Entretanto, não há uma definição de como esses dados devem ser entregues. Esse trabalho apresenta um modelo de como as operadoras de serviços de telecomunicação deveriam encaminhar os dados de Internet interceptados aos órgãos de segurança pública e outras entidades envolvidas. O modelo foi criado tendo em vista a legislação vigente sobre o tema, normas e resoluções da Agência Nacional de Telecomunicações, do Poder Judiciário e do Ministério Público, e ainda baseado em características técnicas das operadoras. Ademais, métodos e padrões utilizados em outros países foram examinados e usados como referência para o modelo. O modelo proposto foi avaliado por meio da criação de um protótipo com o uso de ferramentas de software livre e programas especialmente desenvolvidos. O protótipo foi utilizado no relacionamento com provedores de serviço de comunicação das tecnologias ADSL, cabo e 3G. O modelo proposto foi considerado adequado. _________________________________________________________________________ ABSTRACT / Accessing communication content is a very important tool for getting to know actions carried out by suspects, connections between people, their habits, as well as other relevant information to criminal investigations. However, law enforcement agencies have great difficulty in accessing data captured from lawful interceptions. This is largely caused by the lack of standards on how these data should be delivered to investigators and the variety of traffic data file formats. This impairs the automation of tasks, making them more inefficient and prone to human error. Moreover, procedures currently used do not provide a proper chain of custody or guarantees of authenticity and integrity to intercepted traffic that will be presented in court. In Brazil, there is legislation that requires Internet Service Providers (ISPs) to provide means of delivering data to law enforcement agencies when demanded by a court order. Nevertheless, there is no definition on how these data should be delivered. This document presents a model for how ISPs should send captured data to law enforcement agencies and other involved entities. The model was created compliant with national legislation on the subject, rules and resolutions of the National Telecommunications Agency (ANATEL), judiciary and public prosecution, moreover based on technical characteristics of Brazilian ISPs and telecom carriers, which are key players in providing Internet access. Furthermore, methods used for the same purpose in other countries have been examined and used as reference to improve the model. Finally, the model was evaluated using a prototype that was built with pieces of open source software and programs that were specially developed for the purpose of this work. The prototype was then used to successfully receive data from ISPs that used ADSL, cable and 3G technologies. The proposed model was considered satisfactory.
12

Uso dos dados de contabilização do Radius para faturamento e para geração de informações gerenciais e operacionais de serviços em banda larga

Silva, Dante Jesus Richesky da 09 July 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2010. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2011-04-27T13:04:55Z No. of bitstreams: 1 2010_DanteJesusRicheskySilva.pdf: 3488708 bytes, checksum: c668d75041bfc94de91e6aebbac55889 (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2011-05-19T12:10:04Z (GMT) No. of bitstreams: 1 2010_DanteJesusRicheskySilva.pdf: 3488708 bytes, checksum: c668d75041bfc94de91e6aebbac55889 (MD5) / Made available in DSpace on 2011-05-19T12:10:04Z (GMT). No. of bitstreams: 1 2010_DanteJesusRicheskySilva.pdf: 3488708 bytes, checksum: c668d75041bfc94de91e6aebbac55889 (MD5) / É notório e incontestável o crescimento da abrangência e o aumento da importância da Internet e do seu acesso em banda larga, que atualmente estão dentro dos objetivos de crescimento de vários países ao redor do mundo. Este crescimento gerou a necessidade de acessos remotos mais confiáveis em termos de disponibilidade, integridade e rastreabilidade, para que sua utilização comercial ou legal passasse a ser incontestável. Esta necessidade levou ao desenvolvimento de mecanismos de autenticação confiáveis, que disponibilizam dados importantes sobre os acessos realizados. Este trabalho trata da utilização dos dados gerados pelos sistemas de autenticação para a finalidade de cobrança proporcional dos serviços. A utilização destes dados, especificamente para cobrança dos serviços prestados por uma operadora aos Provedores de Acesso à Internet, mostrou que esta utilização está longe de ser simples, apresentando resultados inconsistentes que permitiram cobrança apenas parcial dos serviços. Neste trabalho foi desenvolvida uma metodologia para tratar estes dados, partindo da análise de amostras preliminares e do estudo de características técnicas e comportamentais dos três atores principais: cliente final, ISP e operadora, para tornar os dados mais confiáveis e permitir a cobrança correta dos serviços, inclusive na utilização simultânea de chaves de autenticação. O mecanismo desenvolvido para bloqueio de acessos indevidos por tentativas repetitivas também agregou uma interessante solução ao relacionamento com o usuário final, que auxilia a identificar o motivo da falha de acesso e facilita sua correção, reduzindo a necessidade de contato com a operadora ou com o ISP. Conclui-se que as soluções desenvolvidas tornaram os dados mais confiáveis e permitiram a cobrança mais correta e abrangente dos serviços dos ISPs. Como resultados agregados, reduziu-se o volume de contatos dos usuários com a operadora, que em parte eram devidos à rejeição no processo de autenticação, e foram geradas informações significativas sobre o comportamento dos usuários para utilizações futuras. ______________________________________________________________________________ ABSTRACT / It is clear and undeniable the growth in scope and importance of the Internet and the broadband solutions, that currently are the growth purpose in several countries around the world. The Internet widespread use creates the need for reliable remote access in terms of availability, integrity and traceability for its commercial use and greater relevance to become incontestable. This need has forced to the development of reliable authentication mechanisms, which provide important data about the accesses performed. This work deals with the use of data generated by authentication systems for the purpose of proportional billing services. Using that data, specifically to billing services provided by a carrier to Internet Service Providers (ISPs), has showed that this use isn´t so easy, with several inconsistent results, that allowed only partial billing of services. In this work is developed a methodology to process the data, starting in the analysis of preliminary results and the study of behavioral and technical characteristics of the three main actors, the end user, the ISP and the carrier, to turn the data more reliable and allow proper billing of the services, even when there is simultaneous use of access keys. The developed solutions have brought significant results for identification of users and to better control the use of the authentication and access keys. The mechanism designed to block unauthorized access also added an interesting solution to the relationship with the end user, because it helps to identify the reason for the failure of access and facilitate their correction, reducing the need to contact to the carrier or the ISP Call Centers. The work development allows concluding that developed solutions have turned the data more reliable and have allowed the correct billing of services from ISPs as more accurately and comprehensively. As an aggregated results, reached also a reduction in the volume of users' contacts with the carrier’s call center, which in part were due to rejection in the authentication process, and were generated significant information about the behavior of users for future uses.
13

Análise e fatores críticos do posicionamento estratégico competitivo: o caso dos provedores de internet via rádio de Pernambuco

Leite Bezerra, Ricardo 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:08:21Z (GMT). No. of bitstreams: 2 arquivo273_1.pdf: 1257387 bytes, checksum: 57de0ad38d824aab4b0610e33f453b99 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Travando uma intensa disputa pelo mercado de acesso e conexão à Internet Brasileira, atuam as operadoras de telefonia, fixa e móvel, os operadores de Televisão a cabo e os Provedores de Internet Via Rádio, sendo esses últimos, diferentemente dos outros competidores, pequenas e médias empresas. Esta Dissertação objetiva desvendar, neste cenário, qual o posicionamento estratégico competitivo dos Provedores de Internet Via Rádio, e qual a dinâmica do ambiente competitivo existente. Para responder a estas questões foi empreendido um estudo de múltiplos casos que utilizou como método de coleta de dados pesquisa documental e pesquisa de campo. As análises qualitativas e quantitativas revelaram que:-As estratégias genéricas utilizadas segundo a proposta de Porter (1985) combinam custo e diferenciação;-A opção estratégica sob modelo Delta de Hax e Wide II (2000) é a de melhor produto; -Os principais posicionamentos adotados frente às cinco forças competitivas de Porter (1979) sofrem forte influência dos fatores geográfico e capital; -Os padrões utilizados para seleção de mercado alvo classificados por Abell (1980) como especialização por mercado e cobertura total de mercado não são exeqüíveis para os Provedores de Internet Via Rádio; -O comportamento predominante dos Provedores de Internet Via Rádio sob a tipologia de Poulos (2000) é o defensivo
14

[en] AN OVERVIEW OF THE LOGISTICS IN THE STATE OF RIO DE JANEIRO / [pt] UM PANORAMA DA LOGÍSTICA NO ESTADO DO RIO DE JANEIRO

NATASA MARINKOVIC 29 July 2005 (has links)
[pt] A área logística vem se tornando cada vez mais significativa pelo papel crítico que desempenha sobre os resultados financeiros das empresas. Além da avaliação detalhada das atividades logísticas realizadas dentro de empresas está se avaliando, cada vez mais, a possibilidade de terceirização estas atividades. Porém, existem diversos fatores a serem considerados que influenciam direta ou indiretamente sua execução. Também, é importante mencionar que alguns desses fatores não estão sob controle de empresas. Os objetivos gerais são diagnosticar a situação real logística no Estado do Rio de Janeiro e descobrir os fatores que facilitam ou dificultam seu desenvolvimento. De forma a atingir esses objetivos esta dissertação consiste de três partes principais: a) Uma revisão bibliográfica detalhada mostrará como os sistemas logísticos funcionam, os fatores que definem seu funcionamento, as fases no desenvolvimento logístico e os tipos de empresas que participam no mercado logístico. b) Uma ênfase maior é dada à terceirização de serviços logísticos, pelo fato da terceirização e, principalmente, da quarteirização de serviços logísticos representarem as novas tendências no mercado. O objetivo é esclarecer o que cada uma representa. c) Realizou-se, ainda, uma pesquisa de campo direcionada para a análise no mercado logístico do Estado do Rio de Janeiro. Os resultados indicam as práticas no mercado analisado e apontam alguns problemas atuais, que dificultam o desenvolvimento logístico na região. / [en] Nowadays, the logistics area is receiving more attention due to its significant influence on any company´s results. It is common that companies with a developed internal logistics activities start to analyze the feasibility of third-party logistics. However, all these analyses include large number of internal and external factors. It is important to be mentioned that some of these factors are out of company´s control. The primary objectives are identification of actual logistic situation in the State of Rio de Janeiro and discovery of the factors that facilitate or make difficult its logistic development. This master thesis consists of the three following parts: a) A detailed theoretical survey presenting logistics systems and its functions, as well as some other factors that determine its performance and development. Moreover, it shows the type of companies that participate in the logistics market. b) More emphasis is given to third-party logistics and, also, fourth-party logistics as new trends. An important aim of this thesis is to try to clarify what each one represents. c) In the last part of the thesis, as the result of an empirical survey performed on the logistics market of the State of Rio de Janeiro, some trends and problems are shown that obstruct a better performance of the logistics market.
15

A trajetória de um provedor de acesso à internet

Fonseca, Guilherme de Souza January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-18T04:55:38Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T23:03:38Z : No. of bitstreams: 1 185359.pdf: 3998238 bytes, checksum: a171304e59e61b60467123435ce6a445 (MD5) / Este trabalho tem por objetivo descrever e analisar o processo de adaptação estratégica da InterAccess, empresa provedora de acesso à Internet, ao longo do período de 1995 a 2001. Busca-se compreender a trajetória da empresa e a forma com que ela se adaptou ao mercado, que é recente, extremamente dinâmico e turbulento. É desenvolvido um estudo de caso longitudinal e de natureza qualitativa. O período estudado compreende o início da Internet comercial no Brasil em 1995 até os dias atuais. Os dados são obtidos de fontes primárias, através da observação participante e de entrevistas com pessoas atuantes na área de Internet. Para a coleta dos dados secundários foi utilizada a análise de documentos e artigos em jornais e revistas. De acordo com a análise dos dados, foram definidos quatro períodos com características bastante distintas e foram analisadas as estratégias da empresa em cada um desses períodos, levando-se em conta o processo, a história e o conteúdo. Como resultado obteve-se um quadro que resume os quatro períodos, a saber: implantação da InterAccess, concorrência dos grandes provedores, os provedores gratuitos e o presente. Nesse quadro o ambiente externo é analisado através da consideração das cinco forças competitivas de Porter. Estão listadas também as principais mudanças internas, fatos relevantes e estratégias da InterAccess em cada período. A análise do quadro mostra o surgimento, de forma emergente, de uma estratégia de diferenciação, tornando-se uma das características marcantes da empresa. Estão evidenciadas as parcerias para captação de clientes e redução de custos operacionais. O trabalho traz um exemplo prático de como uma pequena empresa pode se manter atuante em um mercado altamente competitivo e dinâmico, compensando a desvantagem financeira em relação a grandes grupos através da implantação de estratégias adequadas.
16

Conciliando satisfação e paridade para promover reciprocidade em federações de provedores de computação na nuvem.

FALCÃO, Eduardo de Lucena. 11 September 2018 (has links)
Submitted by Emanuel Varela Cardoso (emanuel.varela@ufcg.edu.br) on 2018-09-11T20:15:52Z No. of bitstreams: 1 EDUARDO DE LUCENA FALCÃO – TESE (PPGCC) 2018.pdf: 1866534 bytes, checksum: df5c1f1f8a93b43bb91c35f1cc373e17 (MD5) / Made available in DSpace on 2018-09-11T20:15:52Z (GMT). No. of bitstreams: 1 EDUARDO DE LUCENA FALCÃO – TESE (PPGCC) 2018.pdf: 1866534 bytes, checksum: df5c1f1f8a93b43bb91c35f1cc373e17 (MD5) Previous issue date: 2018-04-24 / Capes / Provedores privados de computação na nuvem poderiam obter considerável benefício mútuo ao operar suas infraestruturas de forma federada. Tal operação permite que a demanda excedente de um provedor possa ser atendida por outros provedores que estejam experimentando uma baixa demanda naquele mesmo instante. Sob uma ótica de mercado, federações com arquitetura descentralizada têm como principal desafio a promoção de cooperação entre indivíduos egoístas e racionais em um cenário que não dispõe de uma autoridade central e confiável. Este trabalho se concentra em arquiteturas de mercado descentralizado, baseadas em mecanismos de reciprocidade, para suporte a federações P2P (Peer-to-Peer) de provedores de computação na nuvem. Nos mecanismos de reciprocidade, um indivíduo utiliza o histórico de comportamentos de cooperação dos demais indivíduos para doar seus recursos aos que forem mais recíprocos. A maioria dessas estratégias se atém à priorização dos participantes (a quem devo doar?) de acordo com métricas tais como reputação ou grau de reciprocidade. Essa estratégia é suficiente para promover cooperação e assegurar aos participantes cooperativos os melhores níveis possíveis de satisfação (percentual de requisições atendidas). Porém, em cenários com baixa contenção de recursos, a priorização por si só não é suficiente para evitar o aproveitamento por parte de indivíduos não-cooperativos e garantir paridade (percentual de recursos retribuídos). Neste sentido, este trabalho propõe que mecanismos de reciprocidade, especialmente aqueles baseados em reciprocidade direta, sejam estendidos com um laço de controle retroalimentado que regula a quantidade de recursos que cada nuvem deveria ofertar à federação. Quando cada participante cooperativo controla de maneira individual a quantidade de recursos ofertada à federação, tem-se como resultado um controle indireto da contenção de recursos, que por sua vez é mantida em um patamar que assegura aos participantes cooperativos níveis adequados de satisfação e paridade. Por fim, é apresentada uma investigação acerca da utilização de uma forma mais limitada de reciprocidade indireta, a reciprocidade transitiva, que pode ser utilizada conjuntamente com mecanismos de reciprocidade direta, para evitar impasses gerados pela assimetria de tempo/interesses, aquecendo a economia da federação e consequentemente provendo maiores níveis de paridade e satisfação aos nós cooperativos. / Private cloud providers could obtain considerable benefits from operating their infrastructures within a federation. Such operation allows a provider’s exceeding demand to be met by other providers experimenting a resource underutilization on the same moment. From a market perspective, federations with decentralized architecture have as main challenge the promotion of cooperation among rational selfish individuals in a context with no central trusted authorities. This work focuses in decentralized market architectures, based on reciprocity mechanisms, to support P2P (Peer-to-Peer) federations of cloud providers. In reciprocity mechanisms, an individual uses the history of behaviors of other individuals, reflecting their cooperation levels, in order to prioritize the provision of resource to those shown to be the most reciprocative. Most of these strategies are restricted to the prioritization of participants (to whom should I donate?) according to metrics such as reputation or degree of reciprocity. This strategy is sufficient to promote cooperation and assure cooperative participants the best possible levels of satisfaction (percentage of requests met). However, in low resource contention scenarios, prioritization alone is not sufficient to avoid resource provision to non-cooperative individuals and thus to guarantee fairness (percentage of resources reciprocated). In this sense, this work proposes that mechanisms of reciprocity, especially those based on direct reciprocity, be extended with a feedback control loop that regulates the amount of resources that each cloud should offer to the federation. When each cooperative participant controls individually the amount of resources offered to the federation, there is an indirect control of resource contention, which in turn is kept at a level that ensures cooperative participants adequate levels of satisfaction and fairness. Finally, an investigation on the use of a more limited form of indirect reciprocity is presented, the transitive reciprocity, which can be used in conjunction with direct reciprocity mechanisms to avoid deadlocks generated by time/interest asymmetry, moving the federation’s economy and consequently assuring higher levels of fairness and satisfaction to cooperative nodes.
17

Novas perspectivas da análise estratégica: estudo de caso do UOL: como o caso do Universo On Line (UOL) pode criar novas perspectivas para a análise estratégica?

Baumgart, Christian 29 March 2001 (has links)
Made available in DSpace on 2010-04-20T20:19:49Z (GMT). No. of bitstreams: 0 Previous issue date: 2001-03-29T00:00:00Z / Study of the challenges and new strategic perspectives to be faced with the UOL case - Universo On Line -leader Internet Service Provider and Portal in Brazil, based on facts and statistics of the market and interview with the UOL. / Estudo dos desafios e novas perspectivas estratégicas que se apresentam com o estudo de caso do UOL - Universo On Line - provedor de acesso e portal líder no Brasil, baseado em fatos e estatísticas do mercado e entrevista com o UOL.
18

SIGMA

Santanna Filho, João Ferreira de January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2016. / Made available in DSpace on 2016-09-20T05:07:43Z (GMT). No. of bitstreams: 1 340776.pdf: 5139681 bytes, checksum: 6c153b746378e871313376bd42cb110f (MD5) Previous issue date: 2016 / Atualmente o setor de software desempenha papel extremamente relevante na economia mundial. Alavancado pelos avanços ligados à Internet e da economia orientada a serviços, as empresas do setor têm buscado novos modelos de negócios e de sustentabilidade num mercado cada vez mais competitivo e globalizado. Uma das principais estratégias-chave para fazer frente a essa realidade é a inovação. Todavia, inovação implica em uma série de ações nas empresas para ser operacionalizada, em várias dimensões, envolvendo investimento, capital social, conhecimento, processos, estímulo à novas ideias, domínio de tecnologias, entre várias outras. Sendo esse setor preponderantemente formado por Micro, Pequenas e Médias Empresas (MPMEs), o problema geral é que elas tipicamente têm grandes limitações para inovar e manter a inovação como uma prática sustentável e alinhável às suas estratégias num contexto de permanentes mudanças. Do ponto de vista mais tecnológico, uma das principais mudanças tem a ver com o crescente foco em softwares baseados no paradigma de Arquitetura Orientadas a Serviços (SOA - Service Oriented Architecture), desenvolvido sob variados modelos de implementação, acesso, disponibilização e pagamento. Em SOA, um software é formado por uma composição de vários módulos de software desacoplados, distribuídos e heterogêneos, cuja execução é orquestrada dentro de uma lógica de processos de negócios. Apesar dos enormes potenciais tecnológicos e comerciais do SOA, projetos SOA costumam ser complexos e caros de serem desenvolvidos, o que aumenta seu risco. O pressuposto de base desta tese é que esse risco pode ser minimizado se as MPMEs puderem inovar colaborativamente de forma mais intensa, compartilhando riscos, investimentos, recursos, conhecimento e benefícios, embora mantendo suas independências. Soluções de software baseadas em SOA têm peculiaridades quando comparadas a produtos de manufatura, para os quais os modelos de inovação tem sido mais voltados. Observando os modelos de processos de inovação na literatura, nota-se que eles não são muito voltados para MPMEs, ao setor de software, ao de software como serviço, e pouco suportam a usual não linearidade do processo de desenvolvimento de uma inovação em software. Também, não contemplam certos potenciais de ecossistemas abertos de inovação, onde parcerias mais voláteis acabam por ter que serem estabelecidas como suporte à cadeia de valor de um produto SOA. Apoiando-se no paradigma de Redes Colaborativas, esta tese propõe um modelo de processos de inovação colaborativa - chamado SIGMA - voltado para desenvolvimentos SOA, onde redes de MPMEs provedoras de serviços de software são estabelecidas temporariamente para inovarem juntas, criando-se Organizações Virtuais. Nestas, as empresas compartilham ideias e ativos de software para mais eficazmente desenvolver novos artefatos SOA executando processos numa sequência e com um modelo de governança particulares a cada projeto de inovação. O modelo proposto tem características de inovação em rede e aberta, podendo ser customizado para outras configurações de inovação dependendo do projeto em questão e das práticas gerenciais, tecnológicas e culturais dos membros da rede. O modelo foi desenvolvido de forma iterativa, sendo avaliado por empresas de TICs ao longo do seu desenvolvimento. Segundo a avaliação final por parte de várias empresas, verificou-se que em melhor sistematizando os processos de inovação e dando um apoio na forma de diretrizes metodológicas para cada processo, a qualidade do processo de inovação melhora e assim, tanto se minimiza o risco do projeto de inovação baseado em SOA, como se potencializa uma melhor gestão do processo em si de inovação.<br> / Abstract: Nowadays the software sector plays an extremely relevant role in the world economy. Leveraged by the advances of Internet and of services oriented economy, companies from this sector have sought for new business and sustainability models in an increasingly competitive and globalized market. One of the key strategies to face this reality is innovation. However, innovation requires many actions to be properly supported, from a number of dimensions, involving financial investments, social capital, knowledge, processes, boosting new ideas, mastering technologies, among others. Being a sector by far formed by Micro, Small and Medium sized Enterprises (MSMEs), the general problem is that such companies usually have substantial limitations to both innovate and to keep innovation as a sustainable practice and aligned to their strategies in a context of permanent changes. From the technological point of view, one of these changes refers to a gradual shift towards implementing software based on the SOA (Service Oriented Architecture) paradigm, developed under varied models of deployment, access, availability and payment. In SOA, a software is formed by a composition of a set of software modules, which are decoupled, distributed and heterogeneous, and whose execution is orchestrated following a given business process? logic. Despite the high technological and commercial SOA potentials, SOA projects use to be complex and costly to be carried out, which increases their risks. The underlying premise of this Thesis is that this risk can be mitigated if the MSMEs can innovate collaboratively more intensively, sharing risks, investments, resources, knowledge and benefits, although their independence. SOA-based software have differences when compared to manufactured products, which most of innovation models are devoted to. Regarding the innovation models presented in the literature, it can be observed that they are not directed to small companies at all, to the software and services-based sectors, and are limited to support the usual non-linearity of the innovation development process in software. Yet, they do not exploit some of the potentials of open innovation ecosystems, where more dynamic business partnerships have to be established to support a SOA product?s value chain. Grounded on the Collaborative Networks paradigm, this Thesis proposes a collaborative innovation process model ? called SIGMA ? directed to SOA, where networks of software services providers MSMEs are temporarily established to innovate together, creating Virtual Organizations. In these networks companies share ideas and software assets to more effectively develop new SOA artifacts performingprocesses in a sequence and with a governance that are very particular to each innovation projects. The proposed model combines elements of network and open innovation, and can be customized to other types of innovation depending on the given project, regarding managerial, technological and cultural practices from the members of the network. The model was developed interactively with the help of some IT companies. According to the final evaluation from a group of companies, it was observed that once the innovation processes are better systemized and members are helped by methodological guidelines, the quality of the process as a whole is improved, both mitigating the SOA project's risks and providing better basis for the management of the innovation processes itself.
19

Logística e geoprocessamento interativo

Ronzani, Damon Figueiredo January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico. Programa de Pós-Graduação em Engenharia de Produção / Made available in DSpace on 2012-10-18T12:12:56Z (GMT). No. of bitstreams: 1 224381.pdf: 4076097 bytes, checksum: d2651abaa1bc1ee276d9889761f65b2e (MD5) / Nos primórdios dos tempos a velocidade das informações era compatível com a tração animal. Evoluiu proporcionalmente à medida que outros métodos e tecnologias foram surgindo. Aí cita-se barcos à vela, a vapor, os veículos automotores e turbopropulsores, a eletricidade, as telecomunicações, até chegarmos aos tempos atuais onde a informação processa-se de maneira momentânea. Existem várias soluções tecnológicas à disposição para que isto aconteça. Entretanto, a maneira de gerar as informações, a implantação e a manutenção dinâmica dos dados, podem ser impactadores cruciais se não forem elaborados de maneira conveniente. Um bom Sistema de Gestão é aquele dotado de um manancial de informações, tendo por objetivo principal servir a um universo de usuários, os mais variados possíveis, processados a tempo e hora desejados, de maneira excelente e eficaz. Não é mais possível negar a velocidade em que as informações devam ser prestadas e processadas, ou seja, de maneira correta, imediata e atualizada. Não se pode conceber qualquer tipo de Administração, seja ela pública ou privada, que não tenha à sua disposição um sistema integrado de informações Geo-Espaciais, com vinculação de seus atributos a um banco de dados. É imprescindível associar de maneira lógica e objetiva, dados estatísticos e cadastrais à noção de distância e espaço, por estes dados ocupados, caso contrário, informações incompletas ou dissociadas, serão de uso relativo, não oferecendo garantia de sucesso.
20

Uma plataforma robusta para gerência de recursos em nuvens IaaS / Uma plataforma robusta para gerência de recursos em redes IaaS

Heimovski, Gustavo Bassil January 2016 (has links)
Orientador : Prof. Dr. Elias P. Duarte Jr. / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 11/03/2016 / Inclui referências : f. 39-44 / Título no termo de aprovação: Uma plataforma robusta para gerência de recursos em redes IaaS / Resumo: Neste trabalho e descrita uma plataforma robusta para gerência de recursos em nuvens IaaS (Infrastructure as a Service). A plataforma e construída sobre o Aurora Cloud Manager, que e um gerenciador de nuvem IaaS que apresenta recursos de programabilidade. Originalmente, o Aurora não prove nenhum mecanismo de replicação, assim falhas do gerenciador representam uma vulnerabilidade importante. Neste contexto, e proposta uma solução de replicação do Aurora, mais especificamente do próprio gerenciador da nuvem. A solução proposta contempla tanto cenários em que ha um unico datacenter com duas ou mais instâncias replicadas do Aurora, quanto cenários em que ha dois ou mais datacenters, cada um com recursos próprios. Nos dois cenários, cada instancia do Aurora tem acesso a todos os recursos da nuvem. Em caso de falha afetando uma das instancias do Aurora, outra instancia do gerenciador tem a capacidade de gerenciar seus recursos da nuvem. A replicação do Aurora envolve tanto a replicação do banco de dados relacional utilizado para armazenar as informações de gerenciamento, quanto a sincronização de diretórios para a replicação das imagens das maquinas virtuais e os programas de otimização e deployment de recursos. A principal contribuição deste trabalho e oferecer, no próprio gerenciador de nuvem, a feature de alta disponibilidade do próprio gerenciador, com a opção de ativação da replicação em sua interface e monitoramento das outras instâncias replicadas. Diante da literatura pesquisada neste trabalho, não conhecemos nenhum gerenciador que possua, integrado nele mesmo, esta opcao de alta disponibilidade. Neste sentido, acreditamos que esta e uma contribuição inédita. Foram realizados experimentos para a medição do tempo necessário para que uma nova instancia do Aurora seja integrada a um cluster de Auroras ja existente; medição da latência de replicação de dados. A latência de replicação foi medida tanto em um datacenter quanto em dois datacenters remotos; e, por último, a medição do tempo de detecção e recuperação de falhas, com o intuito de analisar a disponibilidade do sistema. Os resultados mostraram que o gerenciador se tornou robusto e capaz de ser executado com múltiplas instancias replicadas. / Abstract: This work describes a robust cloud platform that allows resources to be accessed and managed even if the corresponding cloud manager itself has failed. The platform is built on the Aurora Cloud Manager, which is an IaaS (Infrastructure as a Service) cloud manager that enable flexible resource management through programmability. In this thesis we present an approach to replicate Aurora on several instances, thus the cloud manager itself is replicated and does not represent a vulnerability. The proposed replication strategy involves both scenarios in which there is a single datacenter with two or more replicated instances of Aurora, and scenarios in which there are two or more datacenters, each with its own resources. In both scenarios, each Aurora instance has access to all cloud resources. In case of failure affecting one of the instances of the Aurora, another instance allows the management of the corresponding cloud resources. The proposed replication strategy involves both replicating the relational database used to store management information, and synchronizing directories used to keep virtual machine images and cloud-optimization and cloud-deployment programs. The activation of replication and monitoring of the multiple Aurora instances is proposed as a service that can be easily triggered from the Aurora interface. This is the main contribution of this work, as we are not aware of any other existing cloud manager described in the literature that has such high-availability feature integrated in itself. The experiments were performed to measure the time required for a new instance of Aurora to be integrated into a cluster of existing Auroras, the data replication latency in a single datacenter and in two remote datacenters, and the fault detection and fault recovery time, in order to evaluate the system availability. The results confirm the effectiveness and robustness of the proposed system.

Page generated in 0.0941 seconds