• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 42
  • 24
  • 6
  • 5
  • 5
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 157
  • 157
  • 43
  • 43
  • 42
  • 27
  • 23
  • 21
  • 18
  • 17
  • 17
  • 16
  • 16
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Uso da técnica de linkage nos sistemas de informação em saúde: aplicação na base de dados do Registro de Câncer de base populacional do município de São Paulo / The use of the linkage technique in health information systems: application in the database of the São Paulo Population-based Cancer Registry

Peres, Stela Verzinhasse 07 December 2011 (has links)
A disponibilidade de grandes bases de dados informatizadas em saúde tornou a técnica de relacionamento de fontes de dados, também conhecida como linkage, uma alternativa para diferentes tipos de estudos. Esta técnica proporciona a geração de uma base de dados mais completa e de baixo custo operacional. Objetivo- Investigar a possibilidade de completar/aperfeiçoar as informações da base de dados do RCBP-SP, no período de 1997 a 2005, utilizando o processo de linkage com três outras bases, a saber: Programa de Aprimoramento de Mortalidade (PRO-AIM), Autorização e Procedimentos de Alta Complexidade (APAC-SIA/SUS) e Fundação Sistema Estadual de Análise de Dados (FSeade). Métodos- Neste estudo foi utilizada a base de dados do RCBP-SP, composta por 343.306 com casos incidentes de câncer do município de São Paulo, registrados no período de 1997 a 2005, com idades que variaram de menos de um a 106 anos, de ambos os sexos. Para a completitude das informações do RCBP-SP foram utilizadas as bases de dados, a saber: PRO-AIM, APAC-SIA/SUS e FSeade. Foram utilizadas as técnicas de linkage probabilística e determinística. O linkage probabilístico foi realizado pelo programa Reclink III versão 3.1.6. Quanto ao linkage determinístico as rotinas foram realizadas em Visual Basic, com as bases hospedadas em SQL Server. Foram calculados os coeficientes brutos de incidência (CBI) e mortalidade (CBM) antes e após o linkage. A análise de sobrevida global foi realizada pela técnica de Kaplan-Meier e para na comparação entre as curvas, utilizou-se o teste de log rank. Foram calculados os valores da área sob a curva, sensibilidade e especificidade para determinar o ponto de corte do escore de maior precisão na identificação dos pares verdadeiros. Resultados- Após o linkage, verificou-se um ganho de 101,5 por cento para a variável endereço e 31,5 por cento para a data do óbito e 80,0 por cento para a data da última informação. Quanto à variável nome da mãe, na base de dados do RCBP-SP antes do linkage esta informação representava somente 0,5 por cento , tendo sido complementada, no geral, em 76.332 registros. A análise de sobrevida global mostrou que antes do processo de linkage havia uma subestimação na probabilidade de estar vivo em todos os períodos analisados. No geral, para a análise de sobrevida truncada em sete anos, a probabilidade de estar vivo no primeiro ano de seguimento antes do linkage foi menor quando comparada a probabilidade de estar vivo ao primeiro ano de seguimento após o linkage (48,8 por cento x 61,1 por cento ; p< 0,001). Conclusão- A técnica de linkage tanto probabilística quanto determinística foi efetiva para completar/aperfeiçoar as informações da base de dados do RCBP-SP. Além do mais, o CBI apresentou um ganho de 3,4 por cento . Quanto ao CBM houve um ganho de 25,8 por cento . Após o uso da técnica de linkage, foi verificado que os valores para a sobrevida global estavam subestimados para ambos os sexos, faixas etárias e para as topografias de câncer / The availability of large computerized databases on health has enabled the record linkage technique, an alternative for different study designs. This technique provides the generation of a more complete database, at low operational cost. Objective to investigate the possibility of completing/improving information from the database of the RCBP-SP, in the period between 1997 and 2005, using the record linkage technique with other three databases, namely: Mortality Improvement Program (PRO-AIM), Authorization of Highly Complex Procedures (APAC-SIA/SUS) and State System of Data Analysis (FSeade), comparing different strategies. Methods In this study we used the database of the RCBP-SP composed of 343,306 incident cancer cases in the Municipality of São Paulo registered in the period between 1997 and 2005 with ages raging from under one to 106 years, from both sexes. To complete the database of the RCBP-SP three databases were used, namely: PRO-AIM, APAC-SIA/SUS and FSeade. Both probabilistic and deterministic record linkage were used. Probabilistic linkage was performed using the Reclink III software, version 3.1.6. As for the the deterministic record linkage, the routines were run in the Visual Basic and databases hosted on a SQL Server. Before and after record linkage, crude incidence (CIR) and mortality rates (CMR) were calculated. The overall survival analysis was performed using the Kaplan-Meier technique and for the comparison between curves, the log rank test was employed. In order to determine the most precise cut-off scores in identifying true matches, we calculated the area under the curve, as well as, sensitivity and specificity. Results After record linkage, it was verified a gain of 101.5 per cent for the variable address, 31.5 per cent for death date and 80,0 per cent for the date of latest information. As for the variable mother´s name, in the database of the RCBP-SP before record linkage, this information represented only 0.5 per cent , having been completed, in general, in 76,332 registries. The overall survival analysis showed that before the record linkage there was an underestimation of the probability of being alive for all periods assessed. In general, for the truncated survival at seven years, the probability of being alive at the first year of follow up before record linkage was lower when compared to the probability of being alive at the first year of follow up after record linkage (48.8 per cent x 61.1 per cent ; p< 0.001). Conclusion Both the probabilistic and deterministic record linkage were effective to complete/improve information from the database of the RCBP-SP. Moreover, the CIR had a gain of de 3.4 per cent . As for the CMR, there was a gain of 25.8 per cent . After using the record linkage technique, it was verified that values for overall survival were underestimated for both sexes, all age groups, and cancer sites
122

A conceptual framework on biodiversity data quality. / Um framework conceitual em qualidade de dados de biodiversidade.

Veiga, Allan Koch 28 November 2016 (has links)
The increasing availability of digitized biodiversity data worldwide, provided by an increasing number of sources, and the growing use of those data for a variety of purposes have raised concerns related to the \"fitness for use\" of such data and the impact of data quality (DQ) on outcomes of analyses, reports and decisions making. A consistent approach to assess and manage DQ is currently critical for biodiversity data users. However, achieving this goal has been particularly challenging because of the idiosyncrasies inherent to the concept of quality. DQ assessment and management cannot be suitably carried out if we have not clearly established the meaning of quality according to the data user\'s standpoint. This thesis presents a formal conceptual framework to support the Biodiversity Informatics (BI) community to consistently describe the meaning of data \"fitness for use\". Principles behind data fitness for use are used to establish a formal and common ground for the collaborative definition of DQ needs, solutions and reports useful for DQ assessment and management. Based on the study of the DQ domain and its contextualization in the BI domain, which involved discussions with experts in DQ and BI in an iterative process, a comprehensive framework was designed and formalized. The framework defines eight fundamental concepts and 21 derived concepts, organized into three classes: DQ Needs, DQ Solutions and DQ Report. The concepts of each class describe, respectively, the meaning of DQ in a given context, the methods and tools that can serve as solutions for meeting DQ needs, and reports that present the current status of quality of a data resource. The formalization of the framework was presented using conceptual maps notation and sets theory notation. In order to validate the framework, we present a proof of concept based on a case study conducted at the Museum of Comparative Zoology of Harvard University. The tools FP-Akka Kurator and the BDQ Toolkit were used in the case study to perform DQ measures, validations and improvements in a dataset of the Arizona State University Hasbrouck Insect Collection. The results illustrate how the framework enables data users to assess and manage DQ of datasets and single records using quality control and quality assurance approaches. The proof of concept has also shown that the framework is adequately formalized and flexible, and sufficiently complete for defining DQ needs, solutions and reports in the BI domain. The framework is able of formalizing human thinking into well-defined components to make it possible sharing and reusing definitions of DQ in different scenarios, describing and finding DQ tools and services, and communicating the current status of quality of data in a standardized format among the stakeholders. In addition, the framework supports the players of that community to join efforts on the collaborative gathering and developing of the necessary components for the DQ assessment and management in different contexts. The framework is also the foundation of a Task Group on Data Quality, under the auspices of the Biodiversity Information Standards (TDWG) and the Global Biodiversity Information Facility (GBIF) and is being used to help collect user\'s needs on data quality on agrobiodiversity and on species distributed modeling, initially. In future work, we plan to use the framework to engage the BI community to formalize and share DQ profiles related to a number of other data usages, to recommend methods, guidelines, protocols, metadata schemas and controlled vocabulary for supporting data fitness for use assessment and management in distributed system and data environments. In addition, we plan to build a platform based on the framework to serve as a common backbone for registering and retrieving DQ concepts, such as DQ profiles, methods, tools and reports. / A crescente disponibilização de dados digitalizados sobre a biodiversidade em todo o mundo, fornecidos por um crescente número de fontes, e o aumento da utilização desses dados para uma variedade de propósitos, tem gerado preocupações relacionadas a \"adequação ao uso\" desses dados e ao impacto da qualidade de dados (QD) sobre resultados de análises, relatórios e tomada de decisões. Uma abordagem consistente para avaliar e gerenciar a QD é atualmente crítica para usuários de dados sobre a biodiversidade. No entanto, atingir esse objetivo tem sido particularmente desafiador devido à idiossincrasia inerente ao conceito de qualidade. A avaliação e a gestão da QD não podem ser adequadamente realizadas sem definir claramente o significado de qualidade de acordo com o ponto de vista do usuário dos dados. Esta tese apresenta um arcabouço conceitual formal para apoiar a comunidade de Informática para Biodiversidade (IB) a descrever consistentemente o significado de \"adequação ao uso\" de dados. Princípios relacionados à adequação ao uso são usados para estabelecer uma base formal e comum para a definição colaborativa de necessidades, soluções e relatórios de QD úteis para a avaliação e gestão de QD. Baseado no estudo do domínio de QD e sua contextualização no domínio de IB, que envolveu discussões com especialistas em QD e IB em um processo iterativo, foi projetado e formalizado um arcabouço conceitual abrangente. Ele define oito conceitos fundamentais e vinte e um conceitos derivados organizados em três classes: Necessidades de QD, Soluções de QD e Relatório de QD. Os conceitos de cada classe descrevem, respectivamente, o significado de QD em um dado contexto, métodos e ferramentas que podem servir como soluções para atender necessidades de QD, e relatórios que apresentam o estado atual da qualidade de um recurso de dado. A formalização do arcabouço foi apresentada usando notação de mapas conceituais e notação de teoria dos conjuntos. Para a validação do arcabouço, nós apresentamos uma prova de conceito baseada em um estudo de caso conduzido no Museu de Zoologia Comparativa da Universidade de Harvard. As ferramentas FP-Akka Kurator e BDQ Toolkit foram usadas no estudo de caso para realizar medidas, validações e melhorias da QD em um conjunto de dados da Coleção de Insetos Hasbrouck da Universidade do Estado do Arizona. Os resultados ilustram como o arcabouço permite a usuários de dados avaliarem e gerenciarem a QD de conjunto de dados e registros isolados usando as abordagens de controle de qualidade a garantia de qualidade. A prova de conceito demonstrou que o arcabouço é adequadamente formalizado e flexível, e suficientemente completo para definir necessidades, soluções e relatórios de QD no domínio da IB. O arcabouço é capaz de formalizar o pensamento humano em componentes bem definidos para fazer possível compartilhar e reutilizar definições de QD em diferentes cenários, descrever e encontrar ferramentas de QD e comunicar o estado atual da qualidade dos dados em um formato padronizado entre as partes interessadas da comunidade de IB. Além disso, o arcabouço apoia atores da comunidade de IB a unirem esforços na identificação e desenvolvimento colaborativo de componentes necessários para a avaliação e gestão da QD. O arcabouço é também o fundamento de um Grupos de Trabalho em Qualidade de Dados, sob os auspícios do Biodiversity Information Standard (TDWG) e do Biodiversity Information Facility (GBIF) e está sendo utilizado para coletar as necessidades de qualidade de dados de usuários de dados de agrobiodiversidade e de modelagem de distribuição de espécies, inicialmente. Em trabalhos futuros, planejamos usar o arcabouço apresentado para engajar a comunidade de IB para formalizar e compartilhar perfis de QD relacionados a inúmeros outros usos de dados, recomendar métodos, diretrizes, protocolos, esquemas de metadados e vocabulários controlados para apoiar a avaliação e gestão da adequação ao uso de dados em ambiente de sistemas e dados distribuídos. Além disso, nós planejamos construir uma plataforma baseada no arcabouço para servir como uma central integrada comum para o registro e recuperação de conceitos de QD, tais como perfis, métodos, ferramentas e relatórios de QD.
123

Análise da dinâmica e da prática do planejamento e controle da produção: uma abordagem combinada de estudo de caso e modelagem de sistemas dinâmicos / Analysis of the dynamics and practice of the production planning and control: an approach combining case study and system dynamics modeling

Sagawa, Juliana Keiko 01 October 2013 (has links)
Os paradigmas de mercado e produção têm-se alterado sensivelmente nos últimos cinquenta anos. Nesse novo contexto, para que as empresas tenham um desempenho competitivo, deve-se considerar fatores como integração, qualidade da informação e incertezas do ambiente. Um dos objetivos principais deste trabalho é analisar as inter-relações entre esses três fatores citados, no âmbito do Planejamento e Controle da Produção (PCP), bem como avaliar seu impacto no desempenho do PCP e da empresa. O desempenho do PCP foi avaliado considerando-se o nível de reprogramações, ou seja, o nível de modificações na programação da produção, e considerando-se o atendimento das metas definidas para os indicadores dessa função. Essa pesquisa qualitativa e descritiva foi feito por meio da metodologia de estudo de casos múltiplos. Como resultados, foram observadas evidências da existência de relações positivas entre os constructos analisados, ou seja, integração, incerteza, qualidade da informação e desempenho. Além disso, foram identificados diferentes mecanismos de integração utilizados nas empresas, e foram observadas diferentes causas para as reprogramações. O segundo objetivo principal deste trabalho é o desenvolvimento de um modelo dinâmico para controle da produção de múltiplos produtos, capaz de responder às incertezas que afetam estabilidade dos sistemas produtivos. O objeto da modelagem foi um sistema com fluxo job shop destinado à produção de embalagens de polipropileno, pertencente a uma empresa dos setores têxtil e petroquímico. O modelo foi desenvolvido com base na Modelagem de Sistemas Dinâmicos e na Teoria de Controle. Para obtenção do equacionamento matemático, utilizou-se a metodologia dos Grafos de Ligação. A implementação e simulação do modelo foi realizada com o auxílio do módulo Simulink®, do software Matlab®. O objetivo de controle consiste no ajuste da frequência de operação das máquinas de forma a atender as demandas previstas e, simultaneamente, manter os níveis estabelecidos de estoque em processo. No presente trabalho, focou-se na análise da resposta do sistema com controle no regime transiente, com os estoques iniciais nulos. Os melhores resultados foram observados com a utilização de um controlador híbrido, que estabelece uma produção constante em um período inicial e passa posteriormente a atuar como um controlador proporcional. O modelo dinâmico desenvolvido neste trabalho é coerente com resultados obtidos na pesquisa qualitativa e com prática do PCP, pois está alinhado aos indicadores de desempenho desta função, promove a melhoria da qualidade das informações disponíveis ao planejamento e é capaz de responder a incertezas que afetam o fluxo de produção. / The production paradigm has considerably changed over the last fifty years. In this new context, factors such as integration, information quality and ability to respond to uncertainties must be pursued by companies that want to remain competitive. Thus, one of the main objectives of this research is to analyze the relationships among these three factors mentioned, in the level of the Production Planning and Control (PPC) function, as well as to assess their impact on the performance of the PPC function and on the overall business performance. The performance of the PPC function was measured by means of the rescheduling frequency, i.e., the frequency with which the production activities have to be rescheduled, and by means of the degree of accomplishment of organizational goals, that is, the extent to which the PPC metrics are accomplished. This qualitative and descriptive research was carried out as a multiple case study. Evidences of the existence of a positive relationship among the analyzed constructs, i.e., integration, uncertainty, information quality and performance, were found. In addition, different integration mechanisms and different rescheduling causes were observed on the studied cases. The second main objective of this work is the development of a dynamic model for the production control of multi-product systems, i.e, a model that could respond to the environmental and internal uncertainties that affect the production flow. A job shop production system of propylene bags from a manufacturing company of the textile and petrochemical industry was modeled. The model was developed using Control Theory, System Dynamics modeling, and, more specifically, the Bond Graph technique. The mathematical formulation of the system was derived from the Bond Graphs. System implementation and simulation was performed with the aid of Simulink® and Matlab® software. The control objective was to adjust the operation frequency of the machines to attend the required demand while simultaneously keeping the work in process at the desired levels. In this current work, the focus of the analysis was placed on the transient response of the controlled system, with initial inventory levels set to zero. The best results were achieved with a hybrid controller, which leads the machines to operate at constant frequency in the initial period and, later on, starts to perform as a proportional controller. The proposed dynamic model is compatible with the findings of the qualitative research and with the PPC practice, since it is aligned with the PPC metrics, it improves the quality of information available for planning and it can respond to the uncertainties that may affect the production flow.
124

Estruturas de gestão de informações para inteligência de negócio nas organizações e o impacto individual nas atividades / Management structures of information for business intelligence in organizations and the individual impact on activities

Pinto, Sergio Augusto Orfão 06 September 2012 (has links)
Os sistemas de informação para inteligência de negócio (conhecidos também como BI - Business Intelligence) têm o propósito de coletar, estruturar, preparar e disponibilizar informações referentes aos processos internos e ao ambiente externo das organizações. O uso dessas informações visa suportar o processo de tomada de decisão bem como administração e inovação dos próprios processos de negócio das organizações. Dessa forma, essa classe de sistemas de informações (BI) tem o potencial de melhorar o desempenho individual e organizacional, sendo uma fonte de vantagem competitiva para as organizações. A abordagem de sistemas para BI não pode ser considerada somente como uma sequência de projetos isolados para disponibilização de informações. A gestão das demandas de informações necessárias para o negócio requer um esforço permanente para manter a função de BI alinhada com as necessidades da organização, através de processos que garantam a disponibilidade, o uso de informações e análises compartilhadas com base nos mesmos conceitos, documentação e organização das informações, assim como o suporte e treinamento técnico e funcional nos sistemas existentes. Nesse contexto, surgiu a proposta dos centros de competências de informações para BI, como uma estrutura de suporte para todas as áreas de negócio, sendo o elemento de ligação entre a área de tecnologia da informação e as diversas áreas da empresa para a gestão corporativa das informações. Este trabalho se propôs a operacionalizar uma forma de classificar as estruturas de gestão de informações para BI que são encontradas nas organizações, verificando o efeito de cada tipo de estrutura na qualidade percebida das informações disponibilizadas para as áreas de negócio, bem como o impacto para atividades dos indivíduos nas organizações que utilizam sistemas de BI. Foi realizada uma pesquisa quantitativa em três organizações, cada uma compondo uma amostra de cada tipo de estrutura de gestão de informações. Com a aplicação da técnica estatística de PLS, foi possível obter os efeitos entre as variáveis QI (Qualidade da informação), QGI (Qualidade da Gestão da Informação) e II (Impacto individual), moderados pelo tipo de estrutura de gestão de informações. Apesar de terem sido obtidas diferenças estatisticamente significantes entre as amostras, isto é, que as influências de QGI e QI em II variam estatisticamente de acordo com o tipo de estrutura de gestão de informações, foram pequenas as diferenças absolutas dos efeitos entre as estruturas adotadas em cada organização. Porém, os resultados obtidos nesta pesquisa de caráter exploratório sugerem a necessidade de estudos em uma maior quantidade de organizações, com vários casos para cada tipo de estrutura, a fim de identificar se existe consistência do efeito da variável moderadora nas variáveis analisadas entre diferentes tipos de organizações. / Information systems for business intelligence are designed to collect, organize, prepare and make available information related to internal processes and external environment of organizations. The use of this information is intended to support the process of decision making, business management and innovation of the processes of organizations. Thus, this class of information systems (BI) has the potential to improve individual and organizational performance, being a source of competitive advantage for organizations. The approach to deploy and sustain this class of information of system (BI) cannot be only a sequence of individual projects to make available information required during the scope phase of the project. Demand and delivery management of information necessary for the business requires an ongoing effort to maintain the function of BI aligned with the needs of the organization, through processes that ensure the information availability, use of shared information, information analysis across the organization based on the same concepts, documentation and organization of information, as well as support and training in technical and functional aspects of the systems. In this context, it has emerged the competence centers of information for BI, as a support organization for all areas of business, being the liaison between the area of information technology and the various areas of the company for corporate management of Information. This study proposes to operationalize a framework to classify the structures of information management for BI that are normally found in organizations and check the effect of each type of structure in the perceived quality of the information provided to the business areas as well the impact on individual activities for organizations that use BI systems. It was performed a quantitative study in three organizations, each one composing a sample of each type of management structure information. With the application of the statistical technique of PLS, it was possible to obtain the effects between variables QI (Quality of Information), QGI (Quality of Information Management) and II (Individual impact), moderated by the variable called \"type of information management structure\". Despite having been obtained statistically significant differences between the samples, in other words, that the influence of QGI and QI on II statistically vary according to the type of information management structure, the absolute differences of the effects were small between the respective structures adopted in each organization. However, the results obtained in this exploratory study suggest the need to research a larger number of organizations with multiple cases for each type of structure, in order to identify whether there is consistency in the effect of the moderating variable on the other variables among different types of organizations.
125

Análise da dinâmica e da prática do planejamento e controle da produção: uma abordagem combinada de estudo de caso e modelagem de sistemas dinâmicos / Analysis of the dynamics and practice of the production planning and control: an approach combining case study and system dynamics modeling

Juliana Keiko Sagawa 01 October 2013 (has links)
Os paradigmas de mercado e produção têm-se alterado sensivelmente nos últimos cinquenta anos. Nesse novo contexto, para que as empresas tenham um desempenho competitivo, deve-se considerar fatores como integração, qualidade da informação e incertezas do ambiente. Um dos objetivos principais deste trabalho é analisar as inter-relações entre esses três fatores citados, no âmbito do Planejamento e Controle da Produção (PCP), bem como avaliar seu impacto no desempenho do PCP e da empresa. O desempenho do PCP foi avaliado considerando-se o nível de reprogramações, ou seja, o nível de modificações na programação da produção, e considerando-se o atendimento das metas definidas para os indicadores dessa função. Essa pesquisa qualitativa e descritiva foi feito por meio da metodologia de estudo de casos múltiplos. Como resultados, foram observadas evidências da existência de relações positivas entre os constructos analisados, ou seja, integração, incerteza, qualidade da informação e desempenho. Além disso, foram identificados diferentes mecanismos de integração utilizados nas empresas, e foram observadas diferentes causas para as reprogramações. O segundo objetivo principal deste trabalho é o desenvolvimento de um modelo dinâmico para controle da produção de múltiplos produtos, capaz de responder às incertezas que afetam estabilidade dos sistemas produtivos. O objeto da modelagem foi um sistema com fluxo job shop destinado à produção de embalagens de polipropileno, pertencente a uma empresa dos setores têxtil e petroquímico. O modelo foi desenvolvido com base na Modelagem de Sistemas Dinâmicos e na Teoria de Controle. Para obtenção do equacionamento matemático, utilizou-se a metodologia dos Grafos de Ligação. A implementação e simulação do modelo foi realizada com o auxílio do módulo Simulink®, do software Matlab®. O objetivo de controle consiste no ajuste da frequência de operação das máquinas de forma a atender as demandas previstas e, simultaneamente, manter os níveis estabelecidos de estoque em processo. No presente trabalho, focou-se na análise da resposta do sistema com controle no regime transiente, com os estoques iniciais nulos. Os melhores resultados foram observados com a utilização de um controlador híbrido, que estabelece uma produção constante em um período inicial e passa posteriormente a atuar como um controlador proporcional. O modelo dinâmico desenvolvido neste trabalho é coerente com resultados obtidos na pesquisa qualitativa e com prática do PCP, pois está alinhado aos indicadores de desempenho desta função, promove a melhoria da qualidade das informações disponíveis ao planejamento e é capaz de responder a incertezas que afetam o fluxo de produção. / The production paradigm has considerably changed over the last fifty years. In this new context, factors such as integration, information quality and ability to respond to uncertainties must be pursued by companies that want to remain competitive. Thus, one of the main objectives of this research is to analyze the relationships among these three factors mentioned, in the level of the Production Planning and Control (PPC) function, as well as to assess their impact on the performance of the PPC function and on the overall business performance. The performance of the PPC function was measured by means of the rescheduling frequency, i.e., the frequency with which the production activities have to be rescheduled, and by means of the degree of accomplishment of organizational goals, that is, the extent to which the PPC metrics are accomplished. This qualitative and descriptive research was carried out as a multiple case study. Evidences of the existence of a positive relationship among the analyzed constructs, i.e., integration, uncertainty, information quality and performance, were found. In addition, different integration mechanisms and different rescheduling causes were observed on the studied cases. The second main objective of this work is the development of a dynamic model for the production control of multi-product systems, i.e, a model that could respond to the environmental and internal uncertainties that affect the production flow. A job shop production system of propylene bags from a manufacturing company of the textile and petrochemical industry was modeled. The model was developed using Control Theory, System Dynamics modeling, and, more specifically, the Bond Graph technique. The mathematical formulation of the system was derived from the Bond Graphs. System implementation and simulation was performed with the aid of Simulink® and Matlab® software. The control objective was to adjust the operation frequency of the machines to attend the required demand while simultaneously keeping the work in process at the desired levels. In this current work, the focus of the analysis was placed on the transient response of the controlled system, with initial inventory levels set to zero. The best results were achieved with a hybrid controller, which leads the machines to operate at constant frequency in the initial period and, later on, starts to perform as a proportional controller. The proposed dynamic model is compatible with the findings of the qualitative research and with the PPC practice, since it is aligned with the PPC metrics, it improves the quality of information available for planning and it can respond to the uncertainties that may affect the production flow.
126

A conceptual framework on biodiversity data quality. / Um framework conceitual em qualidade de dados de biodiversidade.

Allan Koch Veiga 28 November 2016 (has links)
The increasing availability of digitized biodiversity data worldwide, provided by an increasing number of sources, and the growing use of those data for a variety of purposes have raised concerns related to the \"fitness for use\" of such data and the impact of data quality (DQ) on outcomes of analyses, reports and decisions making. A consistent approach to assess and manage DQ is currently critical for biodiversity data users. However, achieving this goal has been particularly challenging because of the idiosyncrasies inherent to the concept of quality. DQ assessment and management cannot be suitably carried out if we have not clearly established the meaning of quality according to the data user\'s standpoint. This thesis presents a formal conceptual framework to support the Biodiversity Informatics (BI) community to consistently describe the meaning of data \"fitness for use\". Principles behind data fitness for use are used to establish a formal and common ground for the collaborative definition of DQ needs, solutions and reports useful for DQ assessment and management. Based on the study of the DQ domain and its contextualization in the BI domain, which involved discussions with experts in DQ and BI in an iterative process, a comprehensive framework was designed and formalized. The framework defines eight fundamental concepts and 21 derived concepts, organized into three classes: DQ Needs, DQ Solutions and DQ Report. The concepts of each class describe, respectively, the meaning of DQ in a given context, the methods and tools that can serve as solutions for meeting DQ needs, and reports that present the current status of quality of a data resource. The formalization of the framework was presented using conceptual maps notation and sets theory notation. In order to validate the framework, we present a proof of concept based on a case study conducted at the Museum of Comparative Zoology of Harvard University. The tools FP-Akka Kurator and the BDQ Toolkit were used in the case study to perform DQ measures, validations and improvements in a dataset of the Arizona State University Hasbrouck Insect Collection. The results illustrate how the framework enables data users to assess and manage DQ of datasets and single records using quality control and quality assurance approaches. The proof of concept has also shown that the framework is adequately formalized and flexible, and sufficiently complete for defining DQ needs, solutions and reports in the BI domain. The framework is able of formalizing human thinking into well-defined components to make it possible sharing and reusing definitions of DQ in different scenarios, describing and finding DQ tools and services, and communicating the current status of quality of data in a standardized format among the stakeholders. In addition, the framework supports the players of that community to join efforts on the collaborative gathering and developing of the necessary components for the DQ assessment and management in different contexts. The framework is also the foundation of a Task Group on Data Quality, under the auspices of the Biodiversity Information Standards (TDWG) and the Global Biodiversity Information Facility (GBIF) and is being used to help collect user\'s needs on data quality on agrobiodiversity and on species distributed modeling, initially. In future work, we plan to use the framework to engage the BI community to formalize and share DQ profiles related to a number of other data usages, to recommend methods, guidelines, protocols, metadata schemas and controlled vocabulary for supporting data fitness for use assessment and management in distributed system and data environments. In addition, we plan to build a platform based on the framework to serve as a common backbone for registering and retrieving DQ concepts, such as DQ profiles, methods, tools and reports. / A crescente disponibilização de dados digitalizados sobre a biodiversidade em todo o mundo, fornecidos por um crescente número de fontes, e o aumento da utilização desses dados para uma variedade de propósitos, tem gerado preocupações relacionadas a \"adequação ao uso\" desses dados e ao impacto da qualidade de dados (QD) sobre resultados de análises, relatórios e tomada de decisões. Uma abordagem consistente para avaliar e gerenciar a QD é atualmente crítica para usuários de dados sobre a biodiversidade. No entanto, atingir esse objetivo tem sido particularmente desafiador devido à idiossincrasia inerente ao conceito de qualidade. A avaliação e a gestão da QD não podem ser adequadamente realizadas sem definir claramente o significado de qualidade de acordo com o ponto de vista do usuário dos dados. Esta tese apresenta um arcabouço conceitual formal para apoiar a comunidade de Informática para Biodiversidade (IB) a descrever consistentemente o significado de \"adequação ao uso\" de dados. Princípios relacionados à adequação ao uso são usados para estabelecer uma base formal e comum para a definição colaborativa de necessidades, soluções e relatórios de QD úteis para a avaliação e gestão de QD. Baseado no estudo do domínio de QD e sua contextualização no domínio de IB, que envolveu discussões com especialistas em QD e IB em um processo iterativo, foi projetado e formalizado um arcabouço conceitual abrangente. Ele define oito conceitos fundamentais e vinte e um conceitos derivados organizados em três classes: Necessidades de QD, Soluções de QD e Relatório de QD. Os conceitos de cada classe descrevem, respectivamente, o significado de QD em um dado contexto, métodos e ferramentas que podem servir como soluções para atender necessidades de QD, e relatórios que apresentam o estado atual da qualidade de um recurso de dado. A formalização do arcabouço foi apresentada usando notação de mapas conceituais e notação de teoria dos conjuntos. Para a validação do arcabouço, nós apresentamos uma prova de conceito baseada em um estudo de caso conduzido no Museu de Zoologia Comparativa da Universidade de Harvard. As ferramentas FP-Akka Kurator e BDQ Toolkit foram usadas no estudo de caso para realizar medidas, validações e melhorias da QD em um conjunto de dados da Coleção de Insetos Hasbrouck da Universidade do Estado do Arizona. Os resultados ilustram como o arcabouço permite a usuários de dados avaliarem e gerenciarem a QD de conjunto de dados e registros isolados usando as abordagens de controle de qualidade a garantia de qualidade. A prova de conceito demonstrou que o arcabouço é adequadamente formalizado e flexível, e suficientemente completo para definir necessidades, soluções e relatórios de QD no domínio da IB. O arcabouço é capaz de formalizar o pensamento humano em componentes bem definidos para fazer possível compartilhar e reutilizar definições de QD em diferentes cenários, descrever e encontrar ferramentas de QD e comunicar o estado atual da qualidade dos dados em um formato padronizado entre as partes interessadas da comunidade de IB. Além disso, o arcabouço apoia atores da comunidade de IB a unirem esforços na identificação e desenvolvimento colaborativo de componentes necessários para a avaliação e gestão da QD. O arcabouço é também o fundamento de um Grupos de Trabalho em Qualidade de Dados, sob os auspícios do Biodiversity Information Standard (TDWG) e do Biodiversity Information Facility (GBIF) e está sendo utilizado para coletar as necessidades de qualidade de dados de usuários de dados de agrobiodiversidade e de modelagem de distribuição de espécies, inicialmente. Em trabalhos futuros, planejamos usar o arcabouço apresentado para engajar a comunidade de IB para formalizar e compartilhar perfis de QD relacionados a inúmeros outros usos de dados, recomendar métodos, diretrizes, protocolos, esquemas de metadados e vocabulários controlados para apoiar a avaliação e gestão da adequação ao uso de dados em ambiente de sistemas e dados distribuídos. Além disso, nós planejamos construir uma plataforma baseada no arcabouço para servir como uma central integrada comum para o registro e recuperação de conceitos de QD, tais como perfis, métodos, ferramentas e relatórios de QD.
127

客戶資訊不確定性對其選擇產業專家會計師與審計品質之影響:以基本波動與資訊品質論點分析之 / The impact of client information uncertainty on auditor specialization choice and audit quality: an analysis based on fundamental volatility and information quality

張謙恆, Chang, Chien Heng Unknown Date (has links)
過去研究說明具產業專長之會計師仍能在客戶財務資訊不完整情況下,利用其行業特定知識與較高技術能力執行完善的審計工作(Thibodeau 2003; Moroney 2007; Hammersley 2006)。本論文定義資訊不確定性為客戶之財務資訊無法幫助預測公司的價值(Zhang 2006; Autore et al. 2009)。本論文推論若公司的財務報表具有不確定性會需要聘請產業專長會計師以減緩資訊不確定性的程度,並進一步研究具資訊不確定性公司若由非產業專長更換為產業專長會計師是否能提升其審計品質。由於審計工作目的在於提供資訊品質的確認(Dye 1993; Knechel et al. 2008),審計人員會依據審計客戶的環境,設計和執行適當的審計計劃以減輕資訊不確定性情況。本論文以會計師角度建立一資訊不確定性架構,進一步將資訊不確定性分為基本價值波動不確定性與資訊品質不確定性,並推論產業專長會計師比較能在資訊品質不確定性中發揮其價值。本論文分為兩部分:第一部分檢驗資訊不確定性是否會影響產業專長會計師之選任,第二部分則檢測具資訊不確定性之審計客戶若選擇產業專長會計師之後,其審計品質是否會提升。 / Previous studies establish that a specialist auditor has more industry-specific knowledge and higher technological capability that can pertinently benefit situations in which client financial information is incomplete (Thibodeau 2003; Moroney 2007; Hammersley 2006). In this paper, we define information uncertainty as the ambiguity with respect to the implications of new information concerning a firm’s value (Zhang 2006; Autore et al. 2009). Because some financial statements present information in uncertain terms, we infer that companies whose financial statements provide uncertain information demand specialist auditors to alleviate the extent of information uncertainty. We further examine the improvements on audit quality made by those companies under information uncertainty which chose to switch from non-specialist auditors to specialist ones. As an assurance of information quality (Dye 1993; Knechel et al. 2008), an auditor, based on his knowledge of the auditee and its environment, will alleviate the uncertainty level of the auditee’s financial information through designing and executing an appropriate audit plan. We build a framework of information uncertainty and develop comprehensive measurements of information uncertainty from the auditor’s point of view. Moreover, this study disentangles the information uncertainty effects into fundamental volatility uncertainty and information quality uncertainty, and proposes that specialist auditors manifest their merits more under information quality uncertainty than under fundamental volatility uncertainty. In the first part of this study, we examine the auditors chosen by companies whose financial statements are characterized by information uncertainty. Previous studies on auditor choice address many reasons why companies switch their auditors (Lennox 2000; Carcello and Neal 2003; Blouin et al. 2007). Information uncertainty makes stakeholders lower their reliance upon company financials and even downgrade the filers, triggering negative stock price reactions (Merton 1987; Beneish et al. 2005; Beneish et al. 2008; Hammersley et al. 2008). Based on prior research, we can infer that a company under information uncertainty chooses to hire a specialist auditor to signal the credibility of the financial statements and improve market perception. We hypothesize that companies suffering uncertainty demand specialist auditors to alleviate their information uncertainty. The auditor’s information role is to ensure the reliability of financial information, and a specialist auditor is equipped with superior audit knowledge and technology. Therefore, we further infer that a company whose specific information uncertainty is attributable to information quality issues (rather than fundamental volatility issues) is more inclined to choose a specialist auditor. This is because a specialist auditor improves the credibility of financial information instead of being involved with the client’s business decisions. We use an auditor switching sample of U.S. companies from 2001-2009 to examine whether the information uncertainty is an issue of auditor choice or not. Consistent with our conjecture, companies under information uncertainty prefer to hire specialist auditors. Evidence partially supports that relative to companies under fundamental volatility uncertainty, companies suffering information quality uncertainty are more inclined to choose specialist auditors. In the second part of this study, we find evidence for the economic consequences of upgrading switches to a specialist auditor when the company is experiencing information uncertainty. After the Sarbanes-Oxley Act (hereafter, SOX), many companies began to take the cost-effect issue into consideration; they ultimately decided to go private (Zhang 2006; Engel et al. 2007) in order to avoid the high-cost of Section 404 or switch to a non-Big N audit firm (Calderon et al. 2007). There's no such thing as free lunch; the specialist auditor usually has greater ability and concomitant higher charges (Craswell et al. 1995; DeFond et al. 2000; Francis et al. 2005; Cahan et al. 2008). It is natural to question whether every company needs to engage specialist auditors if it has to pay high audit fees. In this paper, we attempt to determine in which circumstances specialist auditors can make a significant difference in improving audit quality. We investigate the relationship between auditor specialization and audit quality in an information uncertainty setting using an auditor switching sample taken from 2001 to 2009 in the United States. We examine ex post facto whether (1) specialist auditors improve audit quality more than their non-specialist counterparts; and (2) specialist auditors manifest their merits more under information quality uncertainty than the fundamental volatility uncertainty. Since the value of auditor industry specialization is reflected by the perceived and actual audit quality (Balsam et al. 2003; Nagy 2005), we examine both earnings response coefficient (ERC) and accruals quality to proxy audit quality (DAC). In both models, the audit quality of companies that suffer fundamental volatility uncertainty along with comprehensive uncertainty is not enhanced substantially following upgrade switching to a specialist auditor. We find strong empirical results that demonstrate companies under information quality uncertainty show significant improvements in audit quality after switching to specialist auditors. However, specialist auditors are significantly more capable of mitigating the information quality uncertainty than the fundamental volatility uncertainty. That is, auditor specialization is a critical solution when companies encounter information quality uncertainty.
128

eWOM-kommunikation på Facebook &amp; Prisjakt : En studie av skillnader i konsumenters uppfattning om eWOM

Axelsson, Emma, Wikström, Madeleine January 2012 (has links)
Purpose – The purpose of this study is to identify and describe how consumer perceptions regarding information quality, sender credibility and effect of eWOM-communication differ between Facebook and Prisjakt. Approach – Based on previous research an analytical model was designed. The parts in the model were the aspects of the problem which the present study aimed to examine. An experimental design was applied in which ten students at Örebro University were exposed to a scenario where they took part of eWOM-communication concerning a specific product on Facebook and Prisjakt and then had to answer questions in an interview. The analytical model formed the base of the interview guide used in the interview and the specific product was chosen with help from a focus group. Implication – The study illustrates that consumers may perceive the quality higher on Prisjakt while the sender credibility can be perceived higher on Facebook. Despite this conclusion the effect of eWOM-communication in this study is that the information on Facebook is adopted to a greater degree than the information on Prisjakt. The reason for this is that the sender credibility appeared to be more important in the process of information adoption. / Syfte – Syftet med denna studie är att identifiera och beskriva hur konsumenters uppfattning skiljer sig mellan Facebook och Prisjakt gällande informationens kvalitet, avsändarens trovärdighet och effekten av eWOM-kommunikation. Tillvägagångssätt – Utifrån tidigare forskning utformades en analysmodell vars delar var de aspekter av problemet som studien syftade till att undersöka. En experimentell design tillämpades där tio studenter vid Örebro universitet fick sätta sig in i ett scenario där de tog del av eWOM-kommunikation gällande en specifik produkt på Facebook respektive Prisjakt och sedan fick svara på frågor i en intervju. Analysmodellen låg till grund för en intervjuguide som användes vid intervjun och den specifika produkten diskuterades fram med hjälp av en fokusgrupp. Slutsats – Studien illustrerar att konsumenter kan uppfatta informationens kvalitet högre på Prisjakt medan avsändarens trovärdighet kan uppfattas högre på Facebook. Trots detta är slutsatsen gällande effekten av eWOM-kommunikation i studien att informationen på Facebook tenderar att anammas till en större grad än informationen på Prisjakt. Anledningen till detta är att avsändarens trovärdighet visade sig vara av större betydelse i processen av informationsanammande.
129

Persona : En metod att utveckla och införa persona i en organisation

Jönhill, Mathias, Lehner, Andreas January 2008 (has links)
<p>Abstract</p><p>In this thesis we aim to extend the current theories about a concept called persona. A persona is a model of a user, mostly based on qualitative research and made with such accuracy that it to some extent can be used as a replacement of a real user in a development process and as a communicative tool. We will present a way of constructing this persona without meeting the actual users and follow up with interviews from the organization using them. This will lead to a model over the process of introducing personas as a concept in an organization,previously not familiar with the concept. The model is adapted to also work for projects and organizations where the concept is already known.</p> / <p>Executive summary</p><p>When developing and designing systems or products to be used directly by end users,it is important that these are developed with people in mind. One way to do this is to have close contact between the end user and the developer as can be seen in for example agile development methods. This is however not applicable at all times and therefore the developer need to get the information about the end user some other way.</p><p>Often this is done by a spokesman or project manager for the ordering company who delivers the information to a project manager or spokesman for the systems development company who in turn make sure the developer get the relevant information. Of course this means that sometimes information that could be relevant is missed and sometimes even altered due to misunderstandings or even personal interest.</p><p>One way to deal with this is to have a written description or model of the primary end user that is so correct and accurate that it to some extent could be used as a replacement of the real user. Especially effective is this when making design decisions and as a communicative tool to ensure a common and shared picture of the different needs of the users. Even if a description of the end user has been made, the view of the user is not always shared.</p><p>This thesis will address the problem of creating this description of a user by using the concept of persona, first presented by Alan Cooper 1999 in his book “The Inmates are running the Asylum – Why High-Tech Products Drive Us Crazy and How to Restore the Sanity”. In our research we show that under certain circumstances, this can be done without actually meeting the real end users by interviewing and observing other people with very similar roles.</p><p>Using this persona as a development tool requires introduction of the concept in the organization as well as introduction of the personas for the actual project. This research is summarized in a model that includes the different steps of creating a persona using several methods and also how to implement this tool in an organization</p><p>or project. For each general step in the model there is a short description which includes the construction of personas and which activities to include in the introduction, either if personas is previously known or not.</p><p>Appendix 10 in this thesis consists of a brief and more hands on guide of the process of creating personas and introducing the concept in an organization. This guide could serve as a quick introduction to the subject and could also be used at a later time to refresh some of the highlights in the process.</p> / <p>Sammanfattning</p><p>Denna uppsats avser utöka befintliga teorier runt konceptet persona. En persona är en modell av en användare, baserad främst på kvalitativa studier, och utvecklad med sådan precision att den till vissa delar kan ersätta en riktig slutanvändare i en utvecklingsprocess samt som ett kommunikationsverktyg. Vi kommer att presentera ett sätt att utveckla denna persona utan att träffa den riktiga slutanvändaren och följa upp med intervjuer från organisationen som använder dem. Detta leder fram till en modell över processen med att utveckla personas samt införandet i en utvecklingsorganisation som tidigare inte har använt sig av konceptet. Modellen är anpassad för att fungera vid införande av persona även i projekt och organisationer där konceptet är känt sedan tidigare.</p>
130

採用IFRS對政府公債資金成本之影響 ─以英國政府為例 / IFRS Adoption in Public Sector and Cost of Debt: Evidence from UK Government

劉欣靄 Unknown Date (has links)
近年來,政府會計之改革為各國探討之議題,本研究探討當政府公部門財務報告採用國際會計準則編製,並且經過獨立審計機關查核後,對其發行公債之殖利率利差之影響。本研究從英國債務管理辦公室及倫敦證券交易所之資料庫,蒐集英國中央政府發行公債之資訊,以 2006 年至 2014 間有交易行為之公債為樣本,進行迴歸分析。結果顯示,公債殖利率利差與採用國際會計準則呈現顯著負相關,意即政府報表採用國際財務報導準則,會使市場投資人獲得更透明之財務資訊,而預期公債之無法償還風險降低,且更加願意投資公債。除此之外,當政府提供依國際財務報導準則編製之政府財務報告,再經過會計師查核,審計效果與殖利率利差亦呈現負相關。敏感性測試則指出,當不考慮金融危機的非常規狀況時,同樣可以顯示出相同結果。 / The reform of government accounting systems has become a trend in many countries during recent decades. This study investigates the effect on sovereign bond yield spread of adopting IFRS in government sector, and how yield spreads might be affected after financial reports are audited. Data of tradable UK sovereign bonds are collected from UK Debt Management Office and London Stock Exchange for the period of 2006-2014. Based on the results of regression analysis, the adoption of IFRS by UK governments is negatively associated with gilt bond yield spreads, which means sovereign risk is perceived to be lower by the investors after the adoption of IFRS by central government. When the IFRS-based government financial reports are audited, negative connections between audited reports and yield spreads provide further evidence that investors show higher faith in the sovereign bonds. Additionally, the results remain the same when data of 2009, an abnormal year because of world financial crisis are added back to the regression.

Page generated in 0.1283 seconds