• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 153
  • 34
  • 33
  • 26
  • 12
  • 10
  • 9
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 335
  • 335
  • 76
  • 59
  • 49
  • 35
  • 34
  • 32
  • 31
  • 30
  • 30
  • 29
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Evaluation of Antiretroviral Therapy Information System In Mbale Regional Referral Hospital, Uganda.

Olupot-Olupot, Peter. January 2008 (has links)
<p>HIV/AIDS is the largest and most serious global epidemic in the recent times. To date, the epidemic has affected approximately 40 million people (range 33 &ndash / 46 million) of whom 67%, that is, an estimated 27 million people are in the Sub Saharan Africa. The Sub Saharan Africa is also reported to have the highest regional prevalence of 7.2% compared to an average of 2% in other regions. A medical cure for HIV/AIDS remains elusive but use of antiretroviral therapy (ART) has resulted in improvement of quality and quantity of life as evidenced by the reduction of mortality and morbidity associated with the infection, hence longer and good quality life for HIV/AIDS patients on ART.</p>
182

Qualificação e imputação de dados sobre satisfação de hipertensos cadastrados na estratégia saúde da família / Eligibility and imputation of data on satisfaction of hypertensive registered in the Family Health Strategy.

Moreira, Raquel de Negreiros 24 February 2012 (has links)
Made available in DSpace on 2015-05-14T12:47:12Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2080872 bytes, checksum: 97ca6e77578ad42b13570272cbc34e7e (MD5) Previous issue date: 2012-02-24 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The quality of information has been of particular interest in health. It is known that the incompleteness of information is a very common problem in information systems and epidemiological studies. Thus, it has been imputation as a solution of the missing data, which are created artificially complete set of data subject to statistical analysis. This study aimed to analyze the data quality HIPERDIA items on satisfaction and hypertensive patients of the Family Health Strategy in the city of João Pessoa / PB on the service and the use of imputation methods for missing data. Secondary data were obtained from duplicate HIPERDIA, the hypertensive patients enrolled between 2006/2007 in 36 family health teams, resulting in a representative sample of 343 users in the city of João Pessoa / PB. As a primary source was constructed an instrument consisting of eight core dimensions of primary care, measured on Likert scale ranging from "0" to "5". The techniques were applied to the method of Single Imputation: Replacement for Central Value Trend (TC), Hot Deck, Estimated Maximum Likelihood (MV) and Multinomial Logistic Regression (RLM), were compared using the percentage of correct answers, average error square (RMSE) and mean absolute percentage error (MAPE). Was built to simulate two different scenarios sample with different proportions of missing data (5%, 10%, 15%, 30% and 40%). The comparison of the allocation methods, for variable setting with a type having overlapping response to the other, the method was that TC gave better performance, followed by the method of RLM. For the scenario with homogeneous frequency response, the best method was to RLM. The study has demonstrated that there are still errors in the completion of HIPERDIA and that allowed us to recover the imputation characteristics of the representation of the original data, verifying that the imputation methods adopted brought reliability and reduction of bias in the sample proportions of up to 40% of missing data. / A qualidade das informações tem sido objeto de interesse particularmente na área da saúde. Sabe-se que a incompletude de informações é um problema muito comum nos sistemas de informação e em estudos epidemiológicos. Desta forma, tem-se como solução a imputação de dados, onde são criados conjunto de dados artificialmente completos passíveis de análise estatística. Esse estudo objetivou analisar a qualidade dos dados do HIPERDIA e dos itens sobre satisfação de usuários hipertensos da Estratégia Saúde da Família no município de João Pessoa/PB sobre o serviço e o uso de métodos de imputação para dados faltantes. Os dados secundários foram obtidos da segunda via do HIPERDIA, dos hipertensos cadastrados entre 2006/2007 em 36 equipes de Saúde da Família, resultando numa amostra representativa de 343 usuários do município de João Pessoa/PB. Como fonte primária foi construído um instrumento composto por 8 dimensões essenciais da atenção básica, mensurados na Escala de Likert variando de 0 a 5 . As técnicas foram aplicadas para o método de Imputação Única: Substituição por um Valor de Tendência Central (TC), Hot Deck, Estimativa de Máxima Verossimilhança (MV) e Regressão Logística Multinomial (RLM), sendo comparados através do percentual de acerto, erro médio quadrado (RMSE) e erro percentual médio absoluto (MAPE). Foi construída a simulação de dois cenários amostrais distintos com diferentes proporções de dados faltantes (5%,10%, 15%, 30% e 40%). Na comparação dos métodos de imputação, para cenário com variável apresentando um tipo de resposta sobrepondo às outras, o método de TC foi o que obteve melhor performance, seguido do método de RLM. Para o cenário com homogeneidade de frequencia de respostas, o melhor método foi o de RLM. O estudo permitiu demonstrar que ainda existem falhas no preenchimento do HIPERDIA e que a imputação permitiu resgatar as características da representação dos dados originais, verificando que os métodos de imputação adotados trouxeram fidedignidade e diminuição de vieses na amostra para proporções de até 40% de dados faltantes.
183

Sistema Nacional de Informações Tóxico-Farmacológicas: o desafio da padronização dos dados

Santana, Rosane Abdala Lins de January 2005 (has links)
Submitted by Frederico Azevedo (fazevedo@cdts.fiocruz.br) on 2010-11-11T11:51:50Z No. of bitstreams: 1 Dissertação Rosane Abdala.pdf: 817833 bytes, checksum: d9e4285465ac47138c85adec6c0c948e (MD5) / Made available in DSpace on 2010-11-11T11:51:50Z (GMT). No. of bitstreams: 1 Dissertação Rosane Abdala.pdf: 817833 bytes, checksum: d9e4285465ac47138c85adec6c0c948e (MD5) Previous issue date: 2005 / No Brasil, como no resto do mundo, a incidência de intoxicações e envenenamentos constitui um grave problema de saúde pública. Especialmente para esse segmento, a importância de se dispor, a tempo e a hora, de informações fidedignas é condição primordial para se traçar estratégias eficazes e efetivas de vigilância epidemiológica e sanitária. “Qualidade dos dados”, com toda a complexidade envolvida no conceito, passa então a ocupar lugar de destaque na agenda das políticas públicas, inclusive para o Brasil. Para investigar uma faceta da qualidade dos dados sobre intoxicações e envenenamentos no país, o foco do presente estudo está centrado nos Centros de Informação e Assistência Toxicológica, uma das principais fontes para notificação e registro de tais casos, os quais fornecem dados que são consolidados pelo Sistema Nacional de Informações Tóxico- Farmacológicas – SINITOX. Partindo do pressuposto que a padronização é uma das principais variáveis que impactam a qualidade dos dados coletados pelo SINITOX, o estudo visa analisar a maneira como esses Centros interpretam e registram cada um dos eventos a eles notificados, dentro de uma abordagem metodológica que buscou ressaltar a importância da padronização nos processos de registro dos casos. Os resultados apontam para o baixo grau de padronização dos dados que chegam ao SINITOX, ressaltando a importância de se desenhar estratégias que minimizem tal problema, contribuindo assim para minimizar as ocorrências deste agravo à saúde em nossa sociedade. / In Brazil, as in the rest of the world, human poisoning constitutes a serious problem of public health. Readily available and reliable information in this field are essential to the full implementation of epidemiological and sanitary surveillance and to establish efficient and effective strategies of control. The continuous improvement of data quality and consistency ─ no doubt, a permanent challenge ─ has a key role in the definition of sound public policies. To assess the accuracy of Brazilian data on human poisonings, the present study explores data from a network of Toxicological Information and Assistance Centers, one of the main sources of such data in Brazil. Data are consolidated by the National Poison Information System – SINITOX. Assuming that standardization is one of the main procedures that influence the quality of the data collected and analyzed by SINITOX, the study assesses the operations of the Centers affiliated to the SINITOX carry out to interpret and register the events reported to them. A detailed case study highlights the procedures used to standardize case reports. Our findings made evident an insufficient degree of standardization of data received by SINITOX. We emphasize the need to design strategies to improve standardization, aiming to develop a reliable system and to minimize the harms associated to human poisoning in Brazil.
184

Avaliação experimental de uma técnica de padronização de escores de similaridade / Experimental evaluation of a similarity score standardization technique

Nunes, Marcos Freitas January 2009 (has links)
Com o crescimento e a facilidade de acesso a Internet, o volume de dados cresceu muito nos últimos anos e, consequentemente, ficou muito fácil o acesso a bases de dados remotas, permitindo integrar dados fisicamente distantes. Geralmente, instâncias de um mesmo objeto no mundo real, originadas de bases distintas, apresentam diferenças na representação de seus valores, ou seja, os mesmos dados no mundo real podem ser representados de formas diferentes. Neste contexto, surgiram os estudos sobre casamento aproximado utilizando funções de similaridade. Por consequência, surgiu a dificuldade de entender os resultados das funções e selecionar limiares ideais. Quando se trata de casamento de agregados (registros), existe o problema de combinar os escores de similaridade, pois funções distintas possuem distribuições diferentes. Com objetivo de contornar este problema, foi desenvolvida em um trabalho anterior uma técnica de padronização de escores, que propõe substituir o escore calculado pela função de similaridade por um escore ajustado (calculado através de um treinamento), o qual é intuitivo para o usuário e pode ser combinado no processo de casamento de registros. Tal técnica foi desenvolvida por uma aluna de doutorado do grupo de Banco de Dados da UFRGS e será chamada aqui de MeaningScore (DORNELES et al., 2007). O presente trabalho visa estudar e realizar uma avaliação experimental detalhada da técnica MeaningScore. Com o final do processo de avaliação aqui executado, é possível afirmar que a utilização da abordagem MeaningScore é válida e retorna melhores resultados. No processo de casamento de registros, onde escores de similaridades distintos devem ser combinados, a utilização deste escore padronizado ao invés do escore original, retornado pela função de similaridade, produz resultados com maior qualidade. / With the growth of the Web, the volume of information grew considerably over the past years, and consequently, the access to remote databases became easier, which allows the integration of distributed information. Usually, instances of the same object in the real world, originated from distinct databases, present differences in the representation of their values, which means that the same information can be represented in different ways. In this context, research on approximate matching using similarity functions arises. As a consequence, there is a need to understand the result of the functions and to select ideal thresholds. Also, when matching records, there is the problem of combining the similarity scores, since distinct functions have different distributions. With the purpose of overcoming this problem, a previous work developed a technique that standardizes the scores, by replacing the computed score by an adjusted score (computed through a training), which is more intuitive for the user and can be combined in the process of record matching. This work was developed by a Phd student from the UFRGS database research group, and is referred to as MeaningScore (DORNELES et al., 2007). The present work intends to study and perform an experimental evaluation of this technique. As the validation shows, it is possible to say that the usage of the MeaningScore approach is valid and return better results. In the process of record matching, where distinct similarity must be combined, the usage of the adjusted score produces results with higher quality.
185

Avaliação experimental de uma técnica de padronização de escores de similaridade / Experimental evaluation of a similarity score standardization technique

Nunes, Marcos Freitas January 2009 (has links)
Com o crescimento e a facilidade de acesso a Internet, o volume de dados cresceu muito nos últimos anos e, consequentemente, ficou muito fácil o acesso a bases de dados remotas, permitindo integrar dados fisicamente distantes. Geralmente, instâncias de um mesmo objeto no mundo real, originadas de bases distintas, apresentam diferenças na representação de seus valores, ou seja, os mesmos dados no mundo real podem ser representados de formas diferentes. Neste contexto, surgiram os estudos sobre casamento aproximado utilizando funções de similaridade. Por consequência, surgiu a dificuldade de entender os resultados das funções e selecionar limiares ideais. Quando se trata de casamento de agregados (registros), existe o problema de combinar os escores de similaridade, pois funções distintas possuem distribuições diferentes. Com objetivo de contornar este problema, foi desenvolvida em um trabalho anterior uma técnica de padronização de escores, que propõe substituir o escore calculado pela função de similaridade por um escore ajustado (calculado através de um treinamento), o qual é intuitivo para o usuário e pode ser combinado no processo de casamento de registros. Tal técnica foi desenvolvida por uma aluna de doutorado do grupo de Banco de Dados da UFRGS e será chamada aqui de MeaningScore (DORNELES et al., 2007). O presente trabalho visa estudar e realizar uma avaliação experimental detalhada da técnica MeaningScore. Com o final do processo de avaliação aqui executado, é possível afirmar que a utilização da abordagem MeaningScore é válida e retorna melhores resultados. No processo de casamento de registros, onde escores de similaridades distintos devem ser combinados, a utilização deste escore padronizado ao invés do escore original, retornado pela função de similaridade, produz resultados com maior qualidade. / With the growth of the Web, the volume of information grew considerably over the past years, and consequently, the access to remote databases became easier, which allows the integration of distributed information. Usually, instances of the same object in the real world, originated from distinct databases, present differences in the representation of their values, which means that the same information can be represented in different ways. In this context, research on approximate matching using similarity functions arises. As a consequence, there is a need to understand the result of the functions and to select ideal thresholds. Also, when matching records, there is the problem of combining the similarity scores, since distinct functions have different distributions. With the purpose of overcoming this problem, a previous work developed a technique that standardizes the scores, by replacing the computed score by an adjusted score (computed through a training), which is more intuitive for the user and can be combined in the process of record matching. This work was developed by a Phd student from the UFRGS database research group, and is referred to as MeaningScore (DORNELES et al., 2007). The present work intends to study and perform an experimental evaluation of this technique. As the validation shows, it is possible to say that the usage of the MeaningScore approach is valid and return better results. In the process of record matching, where distinct similarity must be combined, the usage of the adjusted score produces results with higher quality.
186

Integration of data quality, kinetics and mechanistic modelling into toxicological assessment of cosmetic ingredients

Steinmetz, Fabian January 2016 (has links)
In our modern society we are exposed to many natural and synthetic chemicals. The assessment of chemicals with regard to human safety is difficult but nevertheless of high importance. Beside clinical studies, which are restricted to potential pharmaceuticals only, most toxicity data relevant for regulatory decision-making are based on in vivo data. Due to the ban on animal testing of cosmetic ingredients in the European Union, alternative approaches, such as in vitro and in silico tests, have become more prevalent. In this thesis existing non-testing approaches (i.e. studies without additional experiments) have been extended, e.g. QSAR models, and new non-testing approaches, e.g. in vitro data supported structural alert systems, have been created. The main aspect of the thesis depends on the determination of data quality, improving modelling performance and supporting Adverse Outcome Pathways (AOPs) with definitions of structural alerts and physico-chemical properties. Furthermore, there was a clear focus on the transparency of models, i.e. approaches using algorithmic feature selection, machine learning etc. have been avoided. Furthermore structural alert systems have been written in an understandable and transparent manner. Beside the methodological aspects of this work, cosmetically relevant examples of models have been chosen, e.g. skin penetration and hepatic steatosis. Interpretations of models, as well as the possibility of adjustments and extensions, have been discussed thoroughly. As models usually do not depict reality flawlessly, consensus approaches of various non-testing approaches and in vitro tests should be used to support decision-making in the regulatory context. For example within read-across, it is feasible to use supporting information from QSAR models, docking, in vitro tests etc. By applying a variety of models, results should lead to conclusions being more usable/acceptable within toxicology. Within this thesis (and associated publications) novel methodologies on how to assess and employ statistical data quality and how to screen for potential liver toxicants have been described. Furthermore computational tools, such as models for skin permeability and dermal absorption, have been created.
187

Reduzindo custos da deduplicação de dados utilizando heurísticas e computação em nuvem.

NASCIMENTO FILHO, Dimas Cassimiro do. 02 May 2018 (has links)
Submitted by Lucienne Costa (lucienneferreira@ufcg.edu.br) on 2018-05-02T21:20:23Z No. of bitstreams: 1 DIMAS CASSIMIRO DO NASCIMENTO FILHO – TESE (PPGCC) 2017.pdf: 1879329 bytes, checksum: bda72914ec66d17611d9d0ab5b9ec6d5 (MD5) / Made available in DSpace on 2018-05-02T21:20:23Z (GMT). No. of bitstreams: 1 DIMAS CASSIMIRO DO NASCIMENTO FILHO – TESE (PPGCC) 2017.pdf: 1879329 bytes, checksum: bda72914ec66d17611d9d0ab5b9ec6d5 (MD5) Previous issue date: 2017-11-10 / Na era de Big Data, na qual a escala dos dados provê inúmeros desafios para algoritmos clássicos, a tarefa de avaliar a qualidade dos dados pode se tornar custosa e apresentar tempos de execução elevados. Por este motivo, gerentes de negócio podem optar por terceirizar o monitoramento da qualidade de bancos de dados para um serviço específico, usualmente baseado em computação em nuvem. Neste contexto, este trabalho propõe abordagens para redução de custos da tarefa de deduplicação de dados, a qual visa detectar entidades duplicadas em bases de dados, no contexto de um serviço de qualidade de dados em nuvem. O trabalho tem como foco a tarefa de deduplicação de dados devido a sua importância em diversos contextos e sua elevada complexidade. É proposta a arquitetura em alto nível de um serviço de monitoramento de qualidade de dados que emprega o provisionamento dinâmico de recursos computacionais por meio da utilização de heurísticas e técnicas de aprendizado de máquina. Além disso, são propostas abordagens para a adoção de algoritmos incrementais de deduplicação de dados e controle do tamanho de blocos gerados na etapa de indexação do problema investigado. Foram conduzidos quatro experimentos diferentes visando avaliar a eficácia dos algoritmos de provisionamento de recursos propostos e das heurísticas empregadas no contexto de algoritmos incrementais de deduplicação de dados e de controle de tamanho dos blocos. Os resultados dos experimentos apresentam uma gama de opções englobando diferentes relações de custo e benefício, envolvendo principalmente: custo de infraestrutura do serviço e quantidade de violações de SLA ao longo do tempo. Outrossim, a avaliação empírica das heurísticas propostas para o problema de deduplicação incremental de dados também apresentou uma série de padrões nos resultados, envolvendo principalmente o tempo de execução das heurísticas e os resultados de eficácia produzidos. Por fim, foram avaliadas diversas heurísticas para controlar o tamanho dos blocos produzidos em uma tarefa de deduplicação de dados, cujos resultados de eficácia são bastante influenciados pelos valores dos parâmetros empregados. Além disso, as heurísticas apresentaram resultados de eficiência que variam significativamente, dependendo da estratégia de poda de blocos adotada. Os resultados dos quatro experimentos conduzidos apresentam suporte para demonstrar que diferentes estratégias (associadas ao provisionamento de recursos computacionais e aos algoritmos de qualidade de dados) adotadas por um serviço de qualidade de dados podem influenciar significativamente nos custos do serviço e, consequentemente, os custos repassados aos usuários do serviço. / In the era of Big Data, in which the scale of the data provides many challenges for classical algorithms, the task of assessing the quality of datasets may become costly and complex. For this reason, business managers may opt to outsource the data quality monitoring for a specific cloud service for this purpose. In this context, this work proposes approaches for reducing the costs generated from solutions for the data deduplication problem, which aims to detect duplicate entities in datasets, in the context of a service for data quality monitoring. This work investigates the deduplication task due to its importance in a variety of contexts and its high complexity. We propose a high-level architecture of a service for data quality monitoring, which employs provisioning algorithms that use heuristics and machine learning techniques. Furthermore, we propose approaches for the adoption of incremental data quality algorithms and heuristics for controlling the size of the blocks produced in the indexing phase of the investigated problem. Four different experiments have been conducted to evaluate the effectiveness of the proposed provisioning algorithms, the heuristics for incremental record linkage and the heuristics to control block sizes for entity resolution. The results of the experiments show a range of options covering different tradeoffs, which involves: infrastructure costs of the service and the amount of SLA violations over time. In turn, the empirical evaluation of the proposed heuristics for incremental record linkage also presented a number of patterns in the results, which involves tradeoffs between the runtime of the heuristics and the obtained efficacy results. Lastly, the evaluation of the heuristics proposed to control block sizes have presented a large number of tradeoffs regarding execution time, amount of pruning approaches and the obtained efficacy results. Besides, the efficiency results of these heuristics may vary significantly, depending of the adopted pruning strategy. The results from the conducted experiments support the fact that different approaches (associated with cloud computing provisioning and the employed data quality algorithms) adopted by a data quality service may produce significant influence over the generated service costs, and thus, the final costs forwarded to the service customers.
188

Nouvelles méthodes pour l'évaluation, l'évolution et l'interrogation des bases du Web des données / New methods to evaluate, check and query the Web of data

Maillot, Pierre 26 November 2015 (has links)
Le Web des données offre un environnement de partage et de diffusion des données, selon un cadre particulier qui permet une exploitation des données tant par l’humain que par la machine. Pour cela, le framework RDF propose de formater les données en phrases élémentaires de la forme (sujet, relation, objet) , appelées triplets. Les bases du Web des données, dites bases RDF, sont des ensembles de triplets. Dans une base RDF, l’ontologie – données structurelles – organise la description des données factuelles. Le nombre et la taille des bases du Web des données n’a pas cessé de croître depuis sa création en 2001. Cette croissance s’est même accélérée depuis l’apparition du mouvement du Linked Data en 2008 qui encourage le partage et l’interconnexion de bases publiquement accessibles sur Internet. Ces bases couvrent des domaines variés tels que les données encyclopédiques (e.g. Wikipédia), gouvernementales ou bibliographiques. L’utilisation et la mise à jour des données dans ces bases sont faits par des communautés d’utilisateurs liés par un domaine d’intérêt commun. Cette exploitation communautaire se fait avec le soutien d’outils insuffisamment matures pour diagnostiquer le contenu d’une base ou pour interroger ensemble les bases du Web des données. Notre thèse propose trois méthodes pour encadrer le développement, tant factuel qu’ontologique, et pour améliorer l’interrogation des bases du Web des données. Nous proposons d’abord une méthode pour évaluer la qualité des modifications des données factuelles lors d’une mise à jour par un contributeur. Nous proposons ensuite une méthode pour faciliter l’examen de la base par la mise en évidence de groupes de données factuelles en conflit avec l’ontologie. L’expert qui guide l’évolution de cette base peut ainsi modifier l’ontologie ou les données. Nous proposons enfin une méthode d’interrogation dans un environnement distribué qui interroge uniquement les bases susceptibles de fournir une réponse. / The web of data is a mean to share and broadcast data user-readable data as well as machine-readable data. This is possible thanks to rdf which propose the formatting of data into short sentences (subject, relation, object) called triples. Bases from the web of data, called rdf bases, are sets of triples. In a rdf base, the ontology – structural data – organize the description of factual data. Since the web of datacreation in 2001, the number and sizes of rdf bases have been constantly rising. This increase has accelerated since the apparition of linked data, which promote the sharing and interlinking of publicly available bases by user communities. The exploitation – interrogation and edition – by theses communities is made without adequateSolution to evaluate the quality of new data, check the current state of the bases or query together a set of bases. This thesis proposes three methods to help the expansion at factual and ontological level and the querying of bases from the web ofData. We propose a method designed to help an expert to check factual data in conflict with the ontology. Finally we propose a method for distributed querying limiting the sending of queries to bases that may contain answers.
189

Evaluation of antiretroviral therapy information system in Mbale Regional Referral Hospital, Uganda

Olupot-Olupot, Peter January 2008 (has links)
Magister Public Health - MPH / HIV/AIDS is the largest and most serious global epidemic in the recent times. To date, the epidemic has affected approximately 40 million people (range 33 - 46 million) of whom 67%, that is, an estimated 27 million people are in the Sub Saharan Africa. The Sub Saharan Africa is also reported to have the highest regional prevalence of 7.2% compared to an average of 2% in other regions. A medical cure for HIV/AIDS remains elusive but use of antiretroviral therapy (ART) has resulted in improvement of quality and quantity of life as evidenced by the reduction of mortality and morbidity associated with the infection, hence longer and good quality life for HIV/AIDS patients on ART. / South Africa
190

Hodnocení efektivity implementace systému reportingu / Effectivity assessment of the implementation of the reporting system

Řežábek, Martin January 2017 (has links)
Thesis is focused on effectivity assessment of the reporting system of the selected company and the comparison of the former and current reporting solution. This is achieved by the appropriate literature research, creation of the individual assessment model based on the methodology of the analogy from the information systems assessment and based on the experience of the selected company's employees and the experience of the experts in the field of corporate financial management with the focus on the reporting systems. Model is defined by the set of criteria structured into the groups and by the weights assigned to criteria along with the value for each of them. The last phase consists of stepping out of the individual assessment and defines the generally applicable model, usable on the wide range of different reporting systems.

Page generated in 0.0826 seconds