• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 5
  • 3
  • Tagged with
  • 87
  • 87
  • 61
  • 54
  • 25
  • 15
  • 14
  • 13
  • 12
  • 12
  • 12
  • 11
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Avaliação de atributos de testabilidade para sistemas de suporte à decisão / Testability attributes assessment for decision support systems

Marcos Fernando Geromini 11 March 2016 (has links)
As organizações públicas e privadas são constantemente expostas a fatores internos e externos, que podem comprometer sua estabilidade diante das oscilações da economia e dos concorrentes. Nestas empresas, os tomadores de decisão são essenciais para analisar e avaliar todas as variáveis que envolvem estes fatores, com o objetivo de identificar o melhor caminho para os negócios. Entretanto, conseguir gerenciar os dados internos e externos à organização não é uma atividade simples. Neste contexto, os Sistemas de Suporte à Decisão (SSD) tornaram-se fundamentais para auxiliar os tomadores de decisão na solução de problemas mal estruturados ou sem nenhuma estruturação. Porém, a complexidade que envolve os projetos de implantação ou desenvolvimento de um SSD, geralmente compromete a efetividade dos testes que garantem a conformidade do sistema em relação às especificações previamente definidas. Uma solução para esse problema é considerar os atributos ou fatores de testabilidade nestes projetos, pois podem elevar o grau de eficácia e eficiência da atividade de teste e consequentemente contribuírem para redução do tempo e custos do projeto. Portanto, conseguir identificar esses atributos ou fatores que tenham influência na testabilidade dos SSD e algum método que permita analisar e avaliar o quanto estão presentes neste sistema, é essencial para aumentar a qualidade do sistema. Diante desta necessidade, este trabalho investigou e selecionou os principais fatores que podem influenciar no grau de testabilidade de um software e propôs um método para analisar e avaliar o quanto o SSD está considerando esses fatores em sua arquitetura. Com o objetivo de avaliar e validar o método de análise e avaliação, foram realizados testes de aplicabilidade em empresas de pequeno, médio e grande porte, bem como no meio acadêmico. Com os resultados obtidos nos testes, foi possível concluir que o método é específico para SSD, que pode ser usado como um guia durante o processo de desenvolvimento e auxiliar na classificação de SSD quanto a sua testabilidade. / Public and private organizations are constantly exposed to internal and external factors which could compromise their stability in the face of fluctuations in the economy and competitors. In these companies, decision makers are essential to analyze and evaluate all the variables regarding these factors, in order to identify the best way for business. However, managing internal and external data of the organization is not a simple activity. In this context, Decision Support Systems (DSS) have become essential to assist decision makers in solving unstructured problems or lock of structure. However, the complexity involved in the implementation of projects or development of a DSS usually compromises the effectiveness of tests that ensure compliance of the system in relation to previously defined specifications. One solution to this problem is to consider the attributes or testability factors in these projects, since they can raise the level of effectiveness and efficiency of testing activity and thus contribute to reducing the time and project costs. Therefore, the ability to identify these attributes or factors that influence testability of DSS and a process for analyzing and evaluating how much the present in this system, is essential to increase system quality. Given this need, this work investigated and selected the main factors that can influence the degree of testability of software and proposed a way to analyze and assess how the DSS is considering these factors in its architecture. In order to evaluate and validate the analysis and evaluation method, applicability tests were performed in small, medium and large companies, as well as in academy. As results obtained in the tests, it was concluded that the method is specific for DSS, which can be used as a guide during the development process and assist in the DSS classification regarding its testability.
72

Valor das capacidades de TI : impacto na qualidade da informação e no desempenho das organizações brasileiras

Oliveira, Deyvison de Lima January 2013 (has links)
O valor da Tecnologia da Informação (TI) para o negócio, na perspectiva de recursos isolados de TI, tem apresentado resultados mistos. Além disso, esse valor tem sido avaliado no nível da Firma, por meio de medidas agregadas de desempenho como rentabilidade, participação no mercado e eficiência. Como alternativa a essa abordagem, esta pesquisa adota o conceito de Capacidades de TI como um conjunto de recursos em uso pelas organizações. Também, outros construtos em níveis inferiores ao Desempenho da Firma (DF) são considerados – Qualidade da Informação (QI) e Desempenho no Nível de Processos (DP). Portanto, alternativamente às abordagens de valor da TI, esta pesquisa tem o objetivo de identificar o valor das Capacidades de TI e o seu impacto sobre a Qualidade da Informação e sobre o Desempenho Organizacional nos níveis de Processos e da Firma. O teste das hipóteses de pesquisa é precedido por entrevistas com especialistas de TI (gestores), no intuito de validar o modelo proposto. Adicionalmente, procedeu-se à tradução das variáveis para a survey. Especialistas em SI (pesquisadores) também participaram da avaliação das variáveis do modelo de medida, julgando sua permanência ou exclusão. Surveys Pré-teste e de Estudo Piloto foram realizadas com vistas ao refinamento do instrumento de coleta e do modelo de medida, respectivamente. Na survey completa participaram 150 gestores de TI e de negócios ligados a grandes organizações brasileiras. Os dados foram analisados com Modelagem de Equações Estruturais, a fim de validar o modelo de medida e testar as hipóteses do modelo. Pelo teste do modelo estrutural na survey completa, constatou-se que as Capacidades de TI Internas estão associadas ao nível de Qualidade da Informação e ao Desempenho no Nível de Processos. As Capacidades de TI Externas, por outro lado, não impactam positivamente na QI nem sobre os níveis de desempenho (Processos e Firma). Um modelo de mediação do Desempenho de Processos foi testado na survey completa. Constatou-se a mediação completa, sustentando a hipótese de que as Capacidades de TI Internas exercem impacto sobre o Desempenho da Firma, mediado por processos de negócio. Os resultados são apoiados por estudos que defendem que o valor da TI é captado direta e primeiramente em nível de Processos. As contribuições, limitações e recomendações da pesquisa constam nas Considerações Finais da tese. / The value of Information Technology (IT) to business, from the perspective of individual IT resources, has shown mixed results in the literature. Furthermore, this value has been evaluated at the firm level, through aggregate measures of performance such as profitability, market share and efficiency. As an alternative to such perspective, this research adopts the concept of IT Capabilities as a set of resources in use by organizations. Likewise, other constructs at lower levels than the Firm Performance are considered – namely Information Quality (IQ) and at the Process level Performance. So, alternatively to approaches about the value of IT, this research aims to identify the value of IT Capabilities and theirs impacts on the Information Quality and on the Performance, at the Processes and the Firm levels. The test of research’s hypothesis is preceded by interviews with IT specialists (managers) in order to validate the research model. Additionally, we proceeded to the translation of the variables for the survey. Information Systems experts (researchers) also participated in the evaluation of the variables to the measurement model, judging its presence or deletion. Surveys Pre-test and Pilot Study were conducted with a view to refining the data collection instrument and the measurement model, respectively. The full survey was answered by 150 IT’s and business’s managers in large Brazilian organizations. Data were analyzed with Structural Equation Modeling in order to validate the measurement model and testing hypotheses of the research model. For the test of the structural model in the full survey, it was found that the Internal IT Capabilities are associated with the level of Quality of Information and at the Process Level Performance. The External IT Capabilities, on the other hand, do not impact positively on IQ, neither on the performance levels (Processes and Firm). One model of mediation for Process level Performance was tested in the full survey. It was found full mediation, supporting the hypothesis that Internal IT Capabilities exert impact on the performance at the Firm level, mediated by business processes. The results are supported by researches that argue value of IT is captured direct and firstly at the Processes level. The contributions, limitations and recommendations of the research are contained in the end of the thesis.
73

Um perfil de qualidade para fontes de dados dinâmicas

SILVA NETO, Everaldo Costa 24 August 2016 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-10-17T18:07:42Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - Everaldo Costa Silva Neto (final).pdf: 1973752 bytes, checksum: 18ff29972829bab54f92cc990addf923 (MD5) / Made available in DSpace on 2016-10-17T18:07:42Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - Everaldo Costa Silva Neto (final).pdf: 1973752 bytes, checksum: 18ff29972829bab54f92cc990addf923 (MD5) Previous issue date: 2016-08-24 / Atualmente, um massivo volume de dados tem sido produzido pelos mais variados tipos de fontes de dados. Apesar da crescente facilidade de acesso a esses dados, identificar quais fontes de dados são mais adequadas para um determinado uso é um grande desafio. Isso ocorre devido ao grande número de fontes de dados disponíveis e, principalmente, devido à ausência de informações sobre a qualidade dos dados. Nesse contexto, a literatura oferece diversos trabalhos que abordam o uso de critérios de Qualidade da Informação (QI) para avaliar fontes de dados e solucionar esse desafio. No entanto, poucos trabalhos consideram o aspecto dinâmico das fontes na etapa da avaliação da qualidade. Nesta dissertação, abordamos o problema de avaliação da qualidade em fontes de dados dinâmicas, ou seja, fontes de dados cujo conteúdo pode sofrer modificações com alta frequência. Como contribuição, propomos uma estratégia onde os critérios de QI são avaliados de forma contínua, com o objetivo de acompanhar a evolução das fontes de dados ao longo do tempo. Além disso, propomos a criação de um Perfil de Qualidade, que consiste de um conjunto de metadados sobre a qualidade de uma fonte, onde seu uso pode ser aplicado para diversos fins, inclusive no processo de seleção de fontes de dados. O Perfil de Qualidade proposto é atualizado periodicamente de acordo com os resultados obtidos pela avaliação contínua da qualidade. Dessa forma, é possível refletir o aspecto dinâmico das fontes. Para avaliar os resultados deste trabalho, mais especificamente a estratégia de avaliação contínua da qualidade, utilizamos fontes de dados do domínio Meteorológico. Os experimentos realizados demonstraram que a estratégia de avaliação proposta produz resultados satisfatórios. / Nowadays, a massive data volume has been produced by a variety of data sources. The easy access to these data presents new opportunities. In this sense, choosing the most suitable data sources for a specific use has become a challenge. Several works in the literature use Information Quality as a mean of solving this problem, however, only few works employ a continuous strategy. In this work, we address the problem of performing assessment continuously, looking to dynamic data sources. We also propose the creation of a data source Quality Profile, which consists of a set of metadata about the data source’s quality and may be used to help the selection of data sources. To reflect the real quality values of a data source, we propose a continuous updating of the Quality Profile, according to the data source’s refresh rate. In order to evaluate our proposal, we carried out some experiments with meteorological data provided by institutions that monitor weather conditions of Recife. The experimental results have demonstrated that our strategy produces more satisfactory results than others, regarding the trade off between performance and accuracy.
74

Estudo sobre o impacto da ICPC 01 contrato de concessão -sobre os indicadores de desempenho econômico-financeiro das empresas do setor elétrico

Gouveia, André Luís Germano 02 September 2010 (has links)
Made available in DSpace on 2016-04-18T18:50:05Z (GMT). No. of bitstreams: 11 Andre Luis Germano Gouveia1.pdf: 3914193 bytes, checksum: fd182456ee4c9e9f525b167f4d3b0c80 (MD5) Andre Luis Germano Gouveia2.pdf: 3371405 bytes, checksum: cc53148f67445244fee75f581c4e9f92 (MD5) Andre Luis Germano Gouveia3.pdf: 3091724 bytes, checksum: 53e298637596a640568dd3d70413dfd1 (MD5) Andre Luis Germano Gouveia4.pdf: 3846428 bytes, checksum: 2ac329fb45314be11914379521eb73ed (MD5) Andre Luis Germano Gouveia5.pdf: 3139449 bytes, checksum: d754380f24f264313a6019ad9a60644d (MD5) Andre Luis Germano Gouveia6.pdf: 2820562 bytes, checksum: db88261c9970c92fa7b5bcb827d9b474 (MD5) Andre Luis Germano Gouveia7.pdf: 3589844 bytes, checksum: 462c35116980e72e1a68454c0f4fe205 (MD5) Andre Luis Germano Gouveia8.pdf: 3148278 bytes, checksum: 9bf0b60f360a282e5377e385ac5719f3 (MD5) Andre Luis Germano Gouveia9.pdf: 3550187 bytes, checksum: 74aa39d0e5ea0b52d9664920fd2e1cc2 (MD5) Andre Luis Germano Gouveia10.pdf: 2602136 bytes, checksum: 14e7e5a096e53d4395900257964eeef5 (MD5) Andre Luis Germano Gouveia11.pdf: 3467267 bytes, checksum: ad9cbfdfad32d412be0cd21276dd693e (MD5) Previous issue date: 2010-09-02 / Fundo Mackenzie de Pesquisa / Adaptation of Brazilian Accounting Rules to the International Financial Reporting Standards (IFRS),can be analysed as a reflex of the global improvement in communication and information among the economic agents, such as: corporations, funders, investor and other stakeholders through the business world. Internationally speaking the development of such standards is on behalf of IASB Board, in Brazil new standards are issued by CPC Accounting Pronouncements Committee, after having them discussed with the society, standards must have being approved by CVM Brazilian Security Exchange and CFC Federal Accounting Council. A new interpretation has been approved regarding Concession Agreements, based on IFRIC 12, in Brazil ICPC 01. The objective of this paper has for objective to verify the impact over finance and economic ratios after the adoption of such interpretation, for Brazilian utilities concession business. This analysis is made of a comparison between the rations calculation before and after the adoption of ICPC 01. Through the analysis of ANEEL, the Public Agency, CVM and BM&F Bovespa websites, 06 different companies have been selected to be analysed in this study. They represent utilities segment such as: power distribution, commercialization and transmission. Calculus and tests have been made based on literature. This new interpretation indicates that infrastructure equipments can not be recorded as a concession assets any longer, since them do not belong to the concessionaries, but to the Government. In line with the new interpretation they should be recorded as intangible assets or financial assets, depending on the demand risk. The results demonstrate that there are substantials differences between the older and the new standard that needs to be followed as from 2010 Fiscal Year, which directly impact on financial ratios. These impacts also point to a better use of accounting as a relevant information tool and source, since more adequate criteria can be utilized as from the adoption of such interpretation for evaluating Brazilian utilities concession contracts. / A adequação das normas brasileiras de contabilidade às normas internacionais, IFRS, é o reflexo de que a informação e comunicação entre os agentes econômicos como: empresas, credores, investidores e demais stakeholders acompanha as mudanças freqüentes e globais observadas no mundo dos negócios. Internacionalmente o desenvolvimento de elaboração das normas contábeis ficou a cargo do ISAB board. No Brasil é efetuada pelo Comitê de Pronunciamentos Contábeis CPC, responsável pela emissão de pronunciamentos, interpretações e orientações, que depois de discutidas de forma ampla com a sociedade, são aprovadas e deliberadas pela Comissão de Valores Mobiliários CVM, e pelo Conselho Federal de Contabilidade CFC. Uma das mais recentes interpretações emitidas refere-se à ICPC 01 Contrato de Concessões, baseado no IFRIC 12 Concession Contratcs. Este estudo tem como objetivo geral identificar quais os impactos gerados pelo atendimento da interpretação técnica ICPC 01 Contratos de Concessão sobre os indicadores de desempenho econômico-financeiros que auxiliam os agentes na tomada de decisão, desta forma a se identificar quais se apresentavam como de maior relevância para a avaliação do desempenho das empresas do setor elétrico brasileiro, anterior e posterior às novas regras contábeis para os contratos de concessão do setor elétrico nacional. Por meio de pesquisa junto aos contratos de concessão da ANEEL Agencia Nacional de Energia Elétrica, na CVM e BM&F Bovespa foram escolhidas seis empresas, avaliando desta forma os segmentos de distribuição, comercialização e transmissão de energia. Foram efetuados cálculos conforme apresentado em fontes bibliográficas sobre a adoção da nova regra. A mudança mais relevante da nova interpretação indica que deve ocorrer alteração no registro da infra-estrutura de concessão, uma vez que não pertence ao operador, concessionário, e sim ao Poder Concedente, sendo assim, o que antes da mesma era registrado como ativo imobilizado, deverá ser registrado como ativo intangível ou ativo financeiro. O que define qual a forma é a essência econômica, ou seja, a o risco da demanda contratual. Os resultados encontrados demonstram que existem diferenças substanciais entre o padrão utilizado até 2009 e o vigente a partir de 2010,impactando diretamente em índices de desempenho econômico-financeiro de rentabilidade e lucratividade das concessões. Estes índices também apontam para o melhor uso da contabilidade como ferramenta e fonte de informação, pois critérios mais adequados são utilizados a partir deste momento para a avaliação de concessões de serviço público no setor de energia nacional.
75

Estudo dos fatores influenciadores da intenção de uso da informação dos sistemas de Business Intelligence em empresas brasileiras / Study of factors that impact use intention of Business Intelligence systems in Brazilian companies

Santos, Claudinei de Paula 21 August 2014 (has links)
Neste final de século o processo de globalização dos mercados e seu efeito sobre os padrões de conduta econômica, política, social e organizacional, vêm assumindo importância crescente, compondo um cenário no qual a competitividade emerge como uma questão imperativa. Como característica das empresas modernas, tem-se o aumento de padrão de automação onde as tecnologias tem disponibilizado o acesso a uma grande quantidade de dados. Tecnologias de data warehouse (DW) têm servido como repositores desses dados e o avanço nas aplicações de extração, transformação e carregamento (ETL) têm aumentado a velocidade da coleta. Atualmente, muito se tem discutido a respeito desse produto secundário resultante dos processos empresariais, os dados, que tem sido vistos como uma potencial fonte de informação capaz de possibilitar às instituições a garantia de sobrevivência em sua indústria. Nesse contexto, os sistemas de Business Intelligence (SBI), que têm como função prover o tratamento dos dados e entregar informação acionável que pode ser usada para uma específica tomada de decisão, têm recebido o reconhecimento de sua importância por parte dos executivos para a continuidade de suas empresas. Fato esse reforçado pelos resultados de pesquisas realizadas mundialmente pelo Gartner onde por anos seguidos os SBI têm sido relatados pelos executivos como o sonho de consumo das empresas. Aplicações de business intelligence têm dominado a lista de prioridade de tecnologia de muitos CIOs. Apesar desse cenário bastante favorável para os SBI, o Gartner Group aponta um elevado índice na subutilização desses sistemas, o que nos leva a questionar porque um sistema importante e desejado pelas empresas não consegue atender as expectativas dos usuários. Assim surgiu a proposta de estudar nesse trabalho a influência das dimensões fatores críticos de sucesso (FCS) e benefícios esperados (BE) sobre a dimensão intenção de uso (USO) da informação disponibilizada pelos SBI, verificando o efeito das variáveis de cada dimensão sobre o USO. Para isso foi estabelecido um modelo conceitual relacionando as dimensões mencionadas utilizando-se como referência outros trabalhos acadêmicos, suas variáveis e resultados de pesquisa. Foi realizada uma pesquisa quantitativa com a aplicação da técnica estatística Partial Least Square (PLS) com os dados obtidos de usuários de SBI em diferentes áreas da empresa de diferentes setores. Com o uso da técnica PLS, foi possível obter os indicadores para as variáveis das dimensões e estabelecer o modelo estrutural baseado em confiança. / As this century ends, the market globalization process and its effect on patterns of economic, political, social and organizational behaviors become increasingly important, composing a scenario in which competitiveness emerges as an imperative issue. As a trait of modern enterprises, there is an increase in automation standards where technologies provide access to a large amount of data. Technologies of data warehouse (DW) have been serving as repositories of such data and advances in extraction, transformation and loading (ETL) applications have been increasing the speed of data collection. More recently, much has been discussed about this secondary product resulting from business processing: the data that has been seen as a potential source of information able to allow institutions guarantee survival in their industry. In this context, Business Intelligence Systems (BIS), that have as function provide data processing and deliver actionable information, i.e., information that could be used for a specific decision making, have received recognition from executives of its importance to the continuity of their business since for years, has been reported in research conducted worldwide by Gartner as the technology desire of these professionals. Business Intelligence applications have been considered the technology priority investment of many CIOs. Despite of this favorable scenario for Business Intelligence Systems, the Gartner Group indicates a high level of underutilization of these systems which leads us to question why an important and desired business system cannot achieve user\'s expectations. Thus, this work proposes to study the influence of the dimensions critical success factors (CSF) and expected benefits (BE) on the dimension use (USO) to the information provided by BIS, checking the effect of each dimension on the USO emerged. To do this a conceptual model was established by relating these dimensions using as reference other academic papers, their variables and search results. It was realized a quantitative research with an application of statistical technique Partial Least Square (PLS) with data obtained from users of BIS in different areas of the company from different sectors. Using the PLS technique, it was possible to obtain indicators for the variables and dimensions to establish the structural model based on trust.
76

Uso da técnica de linkage nos sistemas de informação em saúde: aplicação na base de dados do Registro de Câncer de base populacional do município de São Paulo / The use of the linkage technique in health information systems: application in the database of the São Paulo Population-based Cancer Registry

Peres, Stela Verzinhasse 07 December 2011 (has links)
A disponibilidade de grandes bases de dados informatizadas em saúde tornou a técnica de relacionamento de fontes de dados, também conhecida como linkage, uma alternativa para diferentes tipos de estudos. Esta técnica proporciona a geração de uma base de dados mais completa e de baixo custo operacional. Objetivo- Investigar a possibilidade de completar/aperfeiçoar as informações da base de dados do RCBP-SP, no período de 1997 a 2005, utilizando o processo de linkage com três outras bases, a saber: Programa de Aprimoramento de Mortalidade (PRO-AIM), Autorização e Procedimentos de Alta Complexidade (APAC-SIA/SUS) e Fundação Sistema Estadual de Análise de Dados (FSeade). Métodos- Neste estudo foi utilizada a base de dados do RCBP-SP, composta por 343.306 com casos incidentes de câncer do município de São Paulo, registrados no período de 1997 a 2005, com idades que variaram de menos de um a 106 anos, de ambos os sexos. Para a completitude das informações do RCBP-SP foram utilizadas as bases de dados, a saber: PRO-AIM, APAC-SIA/SUS e FSeade. Foram utilizadas as técnicas de linkage probabilística e determinística. O linkage probabilístico foi realizado pelo programa Reclink III versão 3.1.6. Quanto ao linkage determinístico as rotinas foram realizadas em Visual Basic, com as bases hospedadas em SQL Server. Foram calculados os coeficientes brutos de incidência (CBI) e mortalidade (CBM) antes e após o linkage. A análise de sobrevida global foi realizada pela técnica de Kaplan-Meier e para na comparação entre as curvas, utilizou-se o teste de log rank. Foram calculados os valores da área sob a curva, sensibilidade e especificidade para determinar o ponto de corte do escore de maior precisão na identificação dos pares verdadeiros. Resultados- Após o linkage, verificou-se um ganho de 101,5 por cento para a variável endereço e 31,5 por cento para a data do óbito e 80,0 por cento para a data da última informação. Quanto à variável nome da mãe, na base de dados do RCBP-SP antes do linkage esta informação representava somente 0,5 por cento , tendo sido complementada, no geral, em 76.332 registros. A análise de sobrevida global mostrou que antes do processo de linkage havia uma subestimação na probabilidade de estar vivo em todos os períodos analisados. No geral, para a análise de sobrevida truncada em sete anos, a probabilidade de estar vivo no primeiro ano de seguimento antes do linkage foi menor quando comparada a probabilidade de estar vivo ao primeiro ano de seguimento após o linkage (48,8 por cento x 61,1 por cento ; p< 0,001). Conclusão- A técnica de linkage tanto probabilística quanto determinística foi efetiva para completar/aperfeiçoar as informações da base de dados do RCBP-SP. Além do mais, o CBI apresentou um ganho de 3,4 por cento . Quanto ao CBM houve um ganho de 25,8 por cento . Após o uso da técnica de linkage, foi verificado que os valores para a sobrevida global estavam subestimados para ambos os sexos, faixas etárias e para as topografias de câncer / The availability of large computerized databases on health has enabled the record linkage technique, an alternative for different study designs. This technique provides the generation of a more complete database, at low operational cost. Objective to investigate the possibility of completing/improving information from the database of the RCBP-SP, in the period between 1997 and 2005, using the record linkage technique with other three databases, namely: Mortality Improvement Program (PRO-AIM), Authorization of Highly Complex Procedures (APAC-SIA/SUS) and State System of Data Analysis (FSeade), comparing different strategies. Methods In this study we used the database of the RCBP-SP composed of 343,306 incident cancer cases in the Municipality of São Paulo registered in the period between 1997 and 2005 with ages raging from under one to 106 years, from both sexes. To complete the database of the RCBP-SP three databases were used, namely: PRO-AIM, APAC-SIA/SUS and FSeade. Both probabilistic and deterministic record linkage were used. Probabilistic linkage was performed using the Reclink III software, version 3.1.6. As for the the deterministic record linkage, the routines were run in the Visual Basic and databases hosted on a SQL Server. Before and after record linkage, crude incidence (CIR) and mortality rates (CMR) were calculated. The overall survival analysis was performed using the Kaplan-Meier technique and for the comparison between curves, the log rank test was employed. In order to determine the most precise cut-off scores in identifying true matches, we calculated the area under the curve, as well as, sensitivity and specificity. Results After record linkage, it was verified a gain of 101.5 per cent for the variable address, 31.5 per cent for death date and 80,0 per cent for the date of latest information. As for the variable mother´s name, in the database of the RCBP-SP before record linkage, this information represented only 0.5 per cent , having been completed, in general, in 76,332 registries. The overall survival analysis showed that before the record linkage there was an underestimation of the probability of being alive for all periods assessed. In general, for the truncated survival at seven years, the probability of being alive at the first year of follow up before record linkage was lower when compared to the probability of being alive at the first year of follow up after record linkage (48.8 per cent x 61.1 per cent ; p< 0.001). Conclusion Both the probabilistic and deterministic record linkage were effective to complete/improve information from the database of the RCBP-SP. Moreover, the CIR had a gain of de 3.4 per cent . As for the CMR, there was a gain of 25.8 per cent . After using the record linkage technique, it was verified that values for overall survival were underestimated for both sexes, all age groups, and cancer sites
77

A conceptual framework on biodiversity data quality. / Um framework conceitual em qualidade de dados de biodiversidade.

Veiga, Allan Koch 28 November 2016 (has links)
The increasing availability of digitized biodiversity data worldwide, provided by an increasing number of sources, and the growing use of those data for a variety of purposes have raised concerns related to the \"fitness for use\" of such data and the impact of data quality (DQ) on outcomes of analyses, reports and decisions making. A consistent approach to assess and manage DQ is currently critical for biodiversity data users. However, achieving this goal has been particularly challenging because of the idiosyncrasies inherent to the concept of quality. DQ assessment and management cannot be suitably carried out if we have not clearly established the meaning of quality according to the data user\'s standpoint. This thesis presents a formal conceptual framework to support the Biodiversity Informatics (BI) community to consistently describe the meaning of data \"fitness for use\". Principles behind data fitness for use are used to establish a formal and common ground for the collaborative definition of DQ needs, solutions and reports useful for DQ assessment and management. Based on the study of the DQ domain and its contextualization in the BI domain, which involved discussions with experts in DQ and BI in an iterative process, a comprehensive framework was designed and formalized. The framework defines eight fundamental concepts and 21 derived concepts, organized into three classes: DQ Needs, DQ Solutions and DQ Report. The concepts of each class describe, respectively, the meaning of DQ in a given context, the methods and tools that can serve as solutions for meeting DQ needs, and reports that present the current status of quality of a data resource. The formalization of the framework was presented using conceptual maps notation and sets theory notation. In order to validate the framework, we present a proof of concept based on a case study conducted at the Museum of Comparative Zoology of Harvard University. The tools FP-Akka Kurator and the BDQ Toolkit were used in the case study to perform DQ measures, validations and improvements in a dataset of the Arizona State University Hasbrouck Insect Collection. The results illustrate how the framework enables data users to assess and manage DQ of datasets and single records using quality control and quality assurance approaches. The proof of concept has also shown that the framework is adequately formalized and flexible, and sufficiently complete for defining DQ needs, solutions and reports in the BI domain. The framework is able of formalizing human thinking into well-defined components to make it possible sharing and reusing definitions of DQ in different scenarios, describing and finding DQ tools and services, and communicating the current status of quality of data in a standardized format among the stakeholders. In addition, the framework supports the players of that community to join efforts on the collaborative gathering and developing of the necessary components for the DQ assessment and management in different contexts. The framework is also the foundation of a Task Group on Data Quality, under the auspices of the Biodiversity Information Standards (TDWG) and the Global Biodiversity Information Facility (GBIF) and is being used to help collect user\'s needs on data quality on agrobiodiversity and on species distributed modeling, initially. In future work, we plan to use the framework to engage the BI community to formalize and share DQ profiles related to a number of other data usages, to recommend methods, guidelines, protocols, metadata schemas and controlled vocabulary for supporting data fitness for use assessment and management in distributed system and data environments. In addition, we plan to build a platform based on the framework to serve as a common backbone for registering and retrieving DQ concepts, such as DQ profiles, methods, tools and reports. / A crescente disponibilização de dados digitalizados sobre a biodiversidade em todo o mundo, fornecidos por um crescente número de fontes, e o aumento da utilização desses dados para uma variedade de propósitos, tem gerado preocupações relacionadas a \"adequação ao uso\" desses dados e ao impacto da qualidade de dados (QD) sobre resultados de análises, relatórios e tomada de decisões. Uma abordagem consistente para avaliar e gerenciar a QD é atualmente crítica para usuários de dados sobre a biodiversidade. No entanto, atingir esse objetivo tem sido particularmente desafiador devido à idiossincrasia inerente ao conceito de qualidade. A avaliação e a gestão da QD não podem ser adequadamente realizadas sem definir claramente o significado de qualidade de acordo com o ponto de vista do usuário dos dados. Esta tese apresenta um arcabouço conceitual formal para apoiar a comunidade de Informática para Biodiversidade (IB) a descrever consistentemente o significado de \"adequação ao uso\" de dados. Princípios relacionados à adequação ao uso são usados para estabelecer uma base formal e comum para a definição colaborativa de necessidades, soluções e relatórios de QD úteis para a avaliação e gestão de QD. Baseado no estudo do domínio de QD e sua contextualização no domínio de IB, que envolveu discussões com especialistas em QD e IB em um processo iterativo, foi projetado e formalizado um arcabouço conceitual abrangente. Ele define oito conceitos fundamentais e vinte e um conceitos derivados organizados em três classes: Necessidades de QD, Soluções de QD e Relatório de QD. Os conceitos de cada classe descrevem, respectivamente, o significado de QD em um dado contexto, métodos e ferramentas que podem servir como soluções para atender necessidades de QD, e relatórios que apresentam o estado atual da qualidade de um recurso de dado. A formalização do arcabouço foi apresentada usando notação de mapas conceituais e notação de teoria dos conjuntos. Para a validação do arcabouço, nós apresentamos uma prova de conceito baseada em um estudo de caso conduzido no Museu de Zoologia Comparativa da Universidade de Harvard. As ferramentas FP-Akka Kurator e BDQ Toolkit foram usadas no estudo de caso para realizar medidas, validações e melhorias da QD em um conjunto de dados da Coleção de Insetos Hasbrouck da Universidade do Estado do Arizona. Os resultados ilustram como o arcabouço permite a usuários de dados avaliarem e gerenciarem a QD de conjunto de dados e registros isolados usando as abordagens de controle de qualidade a garantia de qualidade. A prova de conceito demonstrou que o arcabouço é adequadamente formalizado e flexível, e suficientemente completo para definir necessidades, soluções e relatórios de QD no domínio da IB. O arcabouço é capaz de formalizar o pensamento humano em componentes bem definidos para fazer possível compartilhar e reutilizar definições de QD em diferentes cenários, descrever e encontrar ferramentas de QD e comunicar o estado atual da qualidade dos dados em um formato padronizado entre as partes interessadas da comunidade de IB. Além disso, o arcabouço apoia atores da comunidade de IB a unirem esforços na identificação e desenvolvimento colaborativo de componentes necessários para a avaliação e gestão da QD. O arcabouço é também o fundamento de um Grupos de Trabalho em Qualidade de Dados, sob os auspícios do Biodiversity Information Standard (TDWG) e do Biodiversity Information Facility (GBIF) e está sendo utilizado para coletar as necessidades de qualidade de dados de usuários de dados de agrobiodiversidade e de modelagem de distribuição de espécies, inicialmente. Em trabalhos futuros, planejamos usar o arcabouço apresentado para engajar a comunidade de IB para formalizar e compartilhar perfis de QD relacionados a inúmeros outros usos de dados, recomendar métodos, diretrizes, protocolos, esquemas de metadados e vocabulários controlados para apoiar a avaliação e gestão da adequação ao uso de dados em ambiente de sistemas e dados distribuídos. Além disso, nós planejamos construir uma plataforma baseada no arcabouço para servir como uma central integrada comum para o registro e recuperação de conceitos de QD, tais como perfis, métodos, ferramentas e relatórios de QD.
78

Análise da dinâmica e da prática do planejamento e controle da produção: uma abordagem combinada de estudo de caso e modelagem de sistemas dinâmicos / Analysis of the dynamics and practice of the production planning and control: an approach combining case study and system dynamics modeling

Sagawa, Juliana Keiko 01 October 2013 (has links)
Os paradigmas de mercado e produção têm-se alterado sensivelmente nos últimos cinquenta anos. Nesse novo contexto, para que as empresas tenham um desempenho competitivo, deve-se considerar fatores como integração, qualidade da informação e incertezas do ambiente. Um dos objetivos principais deste trabalho é analisar as inter-relações entre esses três fatores citados, no âmbito do Planejamento e Controle da Produção (PCP), bem como avaliar seu impacto no desempenho do PCP e da empresa. O desempenho do PCP foi avaliado considerando-se o nível de reprogramações, ou seja, o nível de modificações na programação da produção, e considerando-se o atendimento das metas definidas para os indicadores dessa função. Essa pesquisa qualitativa e descritiva foi feito por meio da metodologia de estudo de casos múltiplos. Como resultados, foram observadas evidências da existência de relações positivas entre os constructos analisados, ou seja, integração, incerteza, qualidade da informação e desempenho. Além disso, foram identificados diferentes mecanismos de integração utilizados nas empresas, e foram observadas diferentes causas para as reprogramações. O segundo objetivo principal deste trabalho é o desenvolvimento de um modelo dinâmico para controle da produção de múltiplos produtos, capaz de responder às incertezas que afetam estabilidade dos sistemas produtivos. O objeto da modelagem foi um sistema com fluxo job shop destinado à produção de embalagens de polipropileno, pertencente a uma empresa dos setores têxtil e petroquímico. O modelo foi desenvolvido com base na Modelagem de Sistemas Dinâmicos e na Teoria de Controle. Para obtenção do equacionamento matemático, utilizou-se a metodologia dos Grafos de Ligação. A implementação e simulação do modelo foi realizada com o auxílio do módulo Simulink®, do software Matlab®. O objetivo de controle consiste no ajuste da frequência de operação das máquinas de forma a atender as demandas previstas e, simultaneamente, manter os níveis estabelecidos de estoque em processo. No presente trabalho, focou-se na análise da resposta do sistema com controle no regime transiente, com os estoques iniciais nulos. Os melhores resultados foram observados com a utilização de um controlador híbrido, que estabelece uma produção constante em um período inicial e passa posteriormente a atuar como um controlador proporcional. O modelo dinâmico desenvolvido neste trabalho é coerente com resultados obtidos na pesquisa qualitativa e com prática do PCP, pois está alinhado aos indicadores de desempenho desta função, promove a melhoria da qualidade das informações disponíveis ao planejamento e é capaz de responder a incertezas que afetam o fluxo de produção. / The production paradigm has considerably changed over the last fifty years. In this new context, factors such as integration, information quality and ability to respond to uncertainties must be pursued by companies that want to remain competitive. Thus, one of the main objectives of this research is to analyze the relationships among these three factors mentioned, in the level of the Production Planning and Control (PPC) function, as well as to assess their impact on the performance of the PPC function and on the overall business performance. The performance of the PPC function was measured by means of the rescheduling frequency, i.e., the frequency with which the production activities have to be rescheduled, and by means of the degree of accomplishment of organizational goals, that is, the extent to which the PPC metrics are accomplished. This qualitative and descriptive research was carried out as a multiple case study. Evidences of the existence of a positive relationship among the analyzed constructs, i.e., integration, uncertainty, information quality and performance, were found. In addition, different integration mechanisms and different rescheduling causes were observed on the studied cases. The second main objective of this work is the development of a dynamic model for the production control of multi-product systems, i.e, a model that could respond to the environmental and internal uncertainties that affect the production flow. A job shop production system of propylene bags from a manufacturing company of the textile and petrochemical industry was modeled. The model was developed using Control Theory, System Dynamics modeling, and, more specifically, the Bond Graph technique. The mathematical formulation of the system was derived from the Bond Graphs. System implementation and simulation was performed with the aid of Simulink® and Matlab® software. The control objective was to adjust the operation frequency of the machines to attend the required demand while simultaneously keeping the work in process at the desired levels. In this current work, the focus of the analysis was placed on the transient response of the controlled system, with initial inventory levels set to zero. The best results were achieved with a hybrid controller, which leads the machines to operate at constant frequency in the initial period and, later on, starts to perform as a proportional controller. The proposed dynamic model is compatible with the findings of the qualitative research and with the PPC practice, since it is aligned with the PPC metrics, it improves the quality of information available for planning and it can respond to the uncertainties that may affect the production flow.
79

Gerenciamento estratégico da informação baseado na modelagem de bens de informação

Moreira, Monica Rodrigues 03 August 2016 (has links)
Submitted by Joana Azevedo (joanad@id.uff.br) on 2017-08-21T14:09:26Z No. of bitstreams: 1 Dissert Monica Rodrigues Moreira.pdf: 2776884 bytes, checksum: 2795c3c544758a7440fced263220daae (MD5) / Approved for entry into archive by Biblioteca da Escola de Engenharia (bee@ndc.uff.br) on 2017-08-22T16:29:56Z (GMT) No. of bitstreams: 1 Dissert Monica Rodrigues Moreira.pdf: 2776884 bytes, checksum: 2795c3c544758a7440fced263220daae (MD5) / Made available in DSpace on 2017-08-22T16:29:56Z (GMT). No. of bitstreams: 1 Dissert Monica Rodrigues Moreira.pdf: 2776884 bytes, checksum: 2795c3c544758a7440fced263220daae (MD5) Previous issue date: 2016-08-03 / Esse trabalho tem o objetivo de contribuir para a melhoria do processo decisório das organizações baseadas em informação ao analisar o ciclo de vida da informação como uma ferramenta para a gestão estratégica da informação, bem como propor um método de se identificar e classificar bens de informação no contexto organizacional, considerando as especificidades de cada nível da organização. Para alcançar esse objetivo, além de uma ampla revisão da literatura, serão analisados os métodos/metodologias e técnicas de identificação de bens de informação e modelagem de fluxos informacionais à luz do Ciclo de Vida da Informação adotados no projeto MGIC – Modelo de Gestão da Informação e do Conhecimento e, ainda, observados os resultados desse projeto sob o enfoque da gestão da informação. A revisão da literatura permitiu considerar que a informação tem se tornado um dos mais importantes recursos para as organizações e, nesse sentido, o fluxo informacional ou o ciclo de vida dessa informação no contexto organizacional precisa ser gerenciado. Em adição, a análise dos resultados do projeto MGIC permitiu contrapor os aspectos percebidos na organização onde este foi executado com o que preconiza a literatura que trata do tema em estudo, principalmente no que tange a definição e classificação de bens de informação. A conclusão do trabalho indica métodos mais precisos de identificação e classificação dos bens de informação bem como uma proposta de modelagem de fluxo de informação que assegura um ciclo de vida da informação mais eficaz para o contexto das organizações baseadas em informação. / This work aims to contribute to improving the decision-making process of information-based organizations analyzing the life cycle of information as a tool for strategic information management, and propose a method to identify and classify information assets in organizational context, considering the specificities of each level of the organization. To achieve this goal, beyond the comprehensive literature review, it will analyze the methods / methodologies and techniques for identifying information assets and modeling of information flows in the light of the Information Lifecycle adopted in MGIC project - Information Management Model and knowledge and also, above all, the observed results of this project with a focus on information management. The literature review allowed us to consider that information has become one of the most important resources for organizations and, accordingly, the information flow or the life cycle of this information in the organizational context needs to be managed. In addition, the analysis of the results of MGIC project will oppose aspects perceived in the organization where it was implemented with which advocates the literature on the subject being studied, especially regarding the definition and classification of information assets. The conclusion of the study will indicate methods more accurate of the identification and classification of information assets as well as a proposal for information flow modeling methodology to ensure a life cycle of more effective information to the context of organizations based information.
80

Análise da dinâmica e da prática do planejamento e controle da produção: uma abordagem combinada de estudo de caso e modelagem de sistemas dinâmicos / Analysis of the dynamics and practice of the production planning and control: an approach combining case study and system dynamics modeling

Juliana Keiko Sagawa 01 October 2013 (has links)
Os paradigmas de mercado e produção têm-se alterado sensivelmente nos últimos cinquenta anos. Nesse novo contexto, para que as empresas tenham um desempenho competitivo, deve-se considerar fatores como integração, qualidade da informação e incertezas do ambiente. Um dos objetivos principais deste trabalho é analisar as inter-relações entre esses três fatores citados, no âmbito do Planejamento e Controle da Produção (PCP), bem como avaliar seu impacto no desempenho do PCP e da empresa. O desempenho do PCP foi avaliado considerando-se o nível de reprogramações, ou seja, o nível de modificações na programação da produção, e considerando-se o atendimento das metas definidas para os indicadores dessa função. Essa pesquisa qualitativa e descritiva foi feito por meio da metodologia de estudo de casos múltiplos. Como resultados, foram observadas evidências da existência de relações positivas entre os constructos analisados, ou seja, integração, incerteza, qualidade da informação e desempenho. Além disso, foram identificados diferentes mecanismos de integração utilizados nas empresas, e foram observadas diferentes causas para as reprogramações. O segundo objetivo principal deste trabalho é o desenvolvimento de um modelo dinâmico para controle da produção de múltiplos produtos, capaz de responder às incertezas que afetam estabilidade dos sistemas produtivos. O objeto da modelagem foi um sistema com fluxo job shop destinado à produção de embalagens de polipropileno, pertencente a uma empresa dos setores têxtil e petroquímico. O modelo foi desenvolvido com base na Modelagem de Sistemas Dinâmicos e na Teoria de Controle. Para obtenção do equacionamento matemático, utilizou-se a metodologia dos Grafos de Ligação. A implementação e simulação do modelo foi realizada com o auxílio do módulo Simulink®, do software Matlab®. O objetivo de controle consiste no ajuste da frequência de operação das máquinas de forma a atender as demandas previstas e, simultaneamente, manter os níveis estabelecidos de estoque em processo. No presente trabalho, focou-se na análise da resposta do sistema com controle no regime transiente, com os estoques iniciais nulos. Os melhores resultados foram observados com a utilização de um controlador híbrido, que estabelece uma produção constante em um período inicial e passa posteriormente a atuar como um controlador proporcional. O modelo dinâmico desenvolvido neste trabalho é coerente com resultados obtidos na pesquisa qualitativa e com prática do PCP, pois está alinhado aos indicadores de desempenho desta função, promove a melhoria da qualidade das informações disponíveis ao planejamento e é capaz de responder a incertezas que afetam o fluxo de produção. / The production paradigm has considerably changed over the last fifty years. In this new context, factors such as integration, information quality and ability to respond to uncertainties must be pursued by companies that want to remain competitive. Thus, one of the main objectives of this research is to analyze the relationships among these three factors mentioned, in the level of the Production Planning and Control (PPC) function, as well as to assess their impact on the performance of the PPC function and on the overall business performance. The performance of the PPC function was measured by means of the rescheduling frequency, i.e., the frequency with which the production activities have to be rescheduled, and by means of the degree of accomplishment of organizational goals, that is, the extent to which the PPC metrics are accomplished. This qualitative and descriptive research was carried out as a multiple case study. Evidences of the existence of a positive relationship among the analyzed constructs, i.e., integration, uncertainty, information quality and performance, were found. In addition, different integration mechanisms and different rescheduling causes were observed on the studied cases. The second main objective of this work is the development of a dynamic model for the production control of multi-product systems, i.e, a model that could respond to the environmental and internal uncertainties that affect the production flow. A job shop production system of propylene bags from a manufacturing company of the textile and petrochemical industry was modeled. The model was developed using Control Theory, System Dynamics modeling, and, more specifically, the Bond Graph technique. The mathematical formulation of the system was derived from the Bond Graphs. System implementation and simulation was performed with the aid of Simulink® and Matlab® software. The control objective was to adjust the operation frequency of the machines to attend the required demand while simultaneously keeping the work in process at the desired levels. In this current work, the focus of the analysis was placed on the transient response of the controlled system, with initial inventory levels set to zero. The best results were achieved with a hybrid controller, which leads the machines to operate at constant frequency in the initial period and, later on, starts to perform as a proportional controller. The proposed dynamic model is compatible with the findings of the qualitative research and with the PPC practice, since it is aligned with the PPC metrics, it improves the quality of information available for planning and it can respond to the uncertainties that may affect the production flow.

Page generated in 0.1117 seconds