• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 314
  • 17
  • 15
  • 15
  • 14
  • 8
  • 7
  • 7
  • 7
  • 7
  • 1
  • Tagged with
  • 323
  • 323
  • 144
  • 127
  • 113
  • 70
  • 69
  • 66
  • 55
  • 54
  • 45
  • 45
  • 45
  • 42
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Descoberta de regras de classificaçao utilizando análise formal de conceitos / Jones Granatyr ; orientador, Edson Emílio Scalabrin

Granatyr, Jones January 2011 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2011 / Bibliografia: p. 58-61 / Este trabalho apresenta um estudo sobre a descoberta de conhecimentos para ajudar um maquinista a conduzir um trem. Tal objetivo passa pela aplicação de técnicas de aprendizagem de máquina e descoberta de conhecimento a partir de conjuntos de dados de via / This work presents a study about knowledge discovery to help a machinist to drive a train. It was used a database containing the data of train rides to get this goal. Two techniques were used to obtain the classifiers: rule induction and formal concept an
122

Fábrica de Software: um estudo de caso na Dataprev, sob a ótica da estrutura organizacional

Osias, Claudio de Souza January 2008 (has links)
Made available in DSpace on 2009-11-18T18:56:42Z (GMT). No. of bitstreams: 1 ACF1B.pdf: 1700799 bytes, checksum: 681cf75b53e586a1d3ef20e67d47dfcf (MD5) Previous issue date: 2008 / The aim of this case study was to investigate how the evolutionary process of the development of software, especially the change of paradigm for the factory software, has affected the structure of the Board of Relacionamento, Desenvolvimento e Informações - DRD at a public company called Dataprev and also reflecting or not a return to the model taylorist-fordist of the organization on production. For this study, there were interviews and a questionnaire applied, as well as documentary and literature review on the following topics: organizational structure, factory software, taylorism and fordism. From the data collected and analyzed, in the perspective studied, it was understood that there is not a return to the model taylorist-fordist to organize the production in the process of adopting the concept of a software factory in Dataprev. In addition to that, there was a flexibility in the organizational structure of its units of development - the softwares factories Dataprev. / O objetivo deste estudo de caso foi investigar como o processo evolutivo do desenvolvimento do software, notadamente a mudança de paradigma para a fábrica de software, afetou a estruturação da Diretoria de Relacionamento, Desenvolvimento e Informações - DRD da Dataprev, empresa pública de tecnologia e informações da Previdência Social, refletindo (ou não) um retorno ao modelo taylorista-fordista de organização da produção. Para tal foram realizadas entrevistas e aplicado um questionário, além de revisão documental e bibliográfica, sobre os seguintes temas: estrutura organizacional, fábrica de software, taylorismo e fordismo. A partir dos dados levantados e analisados, sob a perspectiva estudada, entendeu-se que não há um retorno ao modelo taylorista-fordista de organização da produção no processo de adoção do conceito de fábrica de software na Dataprev. E mais: observou-se uma flexibilização na estrutura organizacional de suas unidades de desenvolvimento, as fábricas de softwares da Dataprev.
123

Modelo computacional para geração de séries sintéticas de precipitação e do seu perfil instantâneo / Computational model for generating the synthetic series of rainfall precipitation and the instantaneous profile

Zanetti, Sidney Sára 27 February 2003 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-02-20T11:52:21Z No. of bitstreams: 1 texto completo.pdf: 710724 bytes, checksum: ef8a975673c38b1ee72c3c1479da49bc (MD5) / Made available in DSpace on 2017-02-20T11:52:21Z (GMT). No. of bitstreams: 1 texto completo.pdf: 710724 bytes, checksum: ef8a975673c38b1ee72c3c1479da49bc (MD5) Previous issue date: 2003-02-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Desenvolveu-se um modelo computacional que permite a aplicação da metodologia para geração de séries sintéticas de precipitação desenvolvida por OLIVEIRA (2003). O desenvolvimento do aplicativo foi viabilizado pela elaboração de um algoritmo computacional em linguagem de programação Borland Delphi 5.0. Os dados de entrada necessários são provenientes de um banco de dados no formato padronizado pela Agência Nacional de Águas (ANA) com registros pluviométricos diários provenientes de estações meteorológicas, ou então um arquivo texto contendo os valores mensais da média, do desvio padrão e do coeficiente de assimetria da precipitação total diária e os valores mensais das probabilidades de ocorrência diária de chuva condicionados à ocorrência ou não de chuva no dia anterior. A partir dessas informações, o modelo computacional é capaz de gerar séries sintéticas de precipitações diárias contendo o total precipitado em milímetros, a duração do evento em horas, o tempo padronizado de ocorrência da intensidade máxima instantânea, a intensidade máxima instantânea padronizada e os parâmetros adimensionais (a, b, c, d) da função dupla exponencial que representa o perfil de precipitação de cada evento de chuva gerado. A série sintética gerada é armazenada em arquivos no formato "Texto" que podem ser acessados posteriormente por outros aplicativos e, ou, planilhas eletrônicas. Além dos arquivos são apresentadas várias informações na forma de gráficos e quadros, facilitando a avaliação do desempenho da metodologia desenvolvida por OLIVEIRA (2003). As análises são feitas pela comparação da série sintética com os dados observados, sendo que os recursos gráficos disponibilizados no programa permitiram identificar tendências de comportamento nos resultados que servirão de subsídios para uma avaliação mais detalhada do desempenho do modelo e para a identificação de procedimentos na metodologia que poderão ser otimizados. / A computational model was developed in order to allow the application of the methodology developed by OLIVEIRA (2003) for generating the synthetic series of precipitation. The development of this software turned possible by the elaboration of a computational algorithm in the programming language Borland Delphi 5.0. The input data were obtained from either a data file under a format standardized by the Agência Nacional de Águas (ANA) with daily pluviometric registers from weather stations, or a index book containing the monthly values of the average, the standard deviation and the asymmetry coefficient of the daily total precipitation, and the monthly values of the probabilities for daily rainfall event conditioned to either event or non-event of rainfall in the previous day. From these information the computational model is able to generate the synthetic series of daily precipitations containing the total precipitate in millimeters depth, the duration of the hourly event, the standardized event time of the maximum instantaneous intensity, and the dimensionless parameters (a, b, c, d) of the exponential double function representing the precipitation profile of each rainfall event generated. The generated synthetic series are kept in files under document format, that may be subsequently accessed by other softwares and/or electronic data sheets. In addition to the files, several informations are presented under graphs and tables format, so making easier to evaluate the performance of the methodology developed by OLIVEIRA (2003). The analyses were accomplished by comparing the synthetic series with the observed data, whereas the graphic resources available in the program allowed to identify the behavior tendencies in the results, that will be useful as subsidies to a more detailed evaluation on the performance of the model, and to the identification of procedures in the methodology that might be optimized. / Dissertação importada do Alexandria
124

Avaliação de ferramentas de apoio a melhoria de processos de software / Evaluation support tools improvement of software processes

Carvalho, Denis Rocha de 14 December 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-02-15T10:35:45Z No. of bitstreams: 1 texto completo.pdf: 1419077 bytes, checksum: bacd4dfbe54bcb9780fd04f37d743646 (MD5) / Made available in DSpace on 2016-02-15T10:35:45Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1419077 bytes, checksum: bacd4dfbe54bcb9780fd04f37d743646 (MD5) Previous issue date: 2015-12-14 / O atual cenário do mercado de produção de software está dinâmico. As micro e pequenas empresas (MPE) desenvolvedoras de software buscam ampliar seus negócios e seus lucros. Para alcançar esse objetivo é necessário ganhar mercado e, neste contexto, é fundamental que seu produto de software tenha qualidade. Desta forma, para competir é preciso investir em qualidade. Uma MPE é caracterizada por sua renda e pelo número de seus funcionários, estes fatores já a limitam. O caminho para alcançar a qualidade de software é investir na melhoria do processo de produção do software. O uso de ferramentas de apoio é fundamental neste contexto. A escolha da ferramenta a ser adotada é uma tarefa árdua, pois uma ferramenta inadequada pode causar graves problemas. O presente trabalho tem como objetivo criar uma sistemática de recomendação de ferramentas de apoio automatizada, aderente ao perfil da MPE, possibilitando que a MPE melhore a qualidade de seu produto de software. Para criar essa sistemática foi necessário pesquisar acerca dos modelos de qualidade de software,definir um processo de classificação de ferramentas, obter o perfil da MPE e por fim, implementar um protótipo de sistema de recomendação de ferramentas de apoio. Com o protótipo foi possível realizar recomendações de acordo com o perfil da MPE. Foi possível identificar que as ferramentas com alto grau de operacionalidade são as mais recomendadas às MPEs. Desta forma, o protótipo realiza recomendações de forma automatizada, sistêmica e não subjetiva. Isso é possível pela definição do perfil da MPE e a classificação das ferramentas, assim indicando ferramentas aderentes ao seu perfil e com potencialidade de induzir qualidade no dia-a-dia da MPE. / The current scenario of software production market is dynamic. Micro and small enterprise (MSE) software developers seek to expand their business and their profits. To achieve this goal it is necessary to gain market and in this context it is vital that your software product has quality. This way to compete is to invest in quality. An MPE is characterized by their income and the number of their employees, these factors already limited. The way to achieve software quality is to invest in improving the software production process. The use of support tools is crucial in this context. The choice of tool to be adopted is an arduous task as an inadequate tool can cause serious problems. This work aims to create a systematic recommendation of automated support tools, adhering to the profile of MPE. Enabling the MPE improve the quality of your software product. To create this system, it was necessary to research about software quality models. Setting a classification process tool, to obtain the profile of the MPE and finally implement a prototype of support tools recommendation system. With the prototype it was possible to make recommendations based on the profile of the EPC. It was possible to identify the tools with a high degree of operability are the most recommended to MSEs. Thus, the prototype performs recommendations automatically, systemic and not subjective. This is possible by defining the profile of the MPE and classification of tools, thus indicating adherents tools to their profile and capability of inducing quality in day-to-day MPE. / Sem agência de fomento
125

Estimativa da massa corporal de bovinos por meio de sensor de profundidade Kinect® / Estimation of body mass by bovine Kinect® depth sensor

Corrêa, Priscilla Braga Pinheiro 24 July 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-07-08T12:55:45Z No. of bitstreams: 1 texto completo.pdf: 870586 bytes, checksum: 3004880a7a2f998cae39e65aab0c5b11 (MD5) / Made available in DSpace on 2016-07-08T12:55:45Z (GMT). No. of bitstreams: 1 texto completo.pdf: 870586 bytes, checksum: 3004880a7a2f998cae39e65aab0c5b11 (MD5) Previous issue date: 2015-07-24 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O domínio de metodologias para a obtenção de carcaças com maior proporção de músculos e quantidade correta de gordura vem sendo estudado amplamente com o intuído de facilitar e baratear os procedimentos já existentes. As técnicas referentes a composição corporal e as exigências nutricionais de bovinos ainda são limitadas. Assim, o objetivo desse trabalho é desenvolver um sistema computacional para o cálculo de métricas para a estimação da massa corporal de bovinos da raça Nelore. Utilizou-se uma câmera com sensor infravermelho (IR) para a captação de imagens e profundidade dos animais. Foi delimitado o contorno do animal, e foi feito o processamento das coordenadas dos pontos internos, que foram interpolados determinando uma superfície tridimensional do animal. Algoritmos foram desenvolvidos para o processamento das imagens e a estimação da massa corporal através de predição estatística. As técnicas de processamento de imagens, foram utilizadas para obtenção de 29 descritores do bovino, entre elas altura média, área do plano dorsal, índices volumétricos, e outras métricas geométricas e coeficientes relacionados às transformações da imagem pelos métodos de Fourier e Wavelet. Os descritores calculados foram correlacionados com a massa real do animal e o método de regressão linear multipla stepwise (RS) foi aplicado para se estabelecer a eficácia da predição da massa corporal. / The methodologies domain to obtain substrates with higher proportions of muscle and fat correct amount has been widely studied with the sensed facilitating and cheapening the existing procedures. The techniques related to body composition and nutritional requirements of cattle are still limited. The objective of this work is to develop a computer system for calculating metrics for estimating the body weight of Nelore cattle. We used a camera with infrared (IR) sensor for capturing images and depth of animals. The animal was defined contour, and was made the processing of the coordinates of the internal points which are interpolated by determining a three-dimensional surface of the animal. Algorithms were developed for the image processing and estimation of body mass by statistical prediction. Image processing techniques were used to obtain 29 bovine descriptors, including average height, dorsal plan area, volumetric ratios, and geometric and other factors related to the transformation of the image by the methods of Fourier and wavelet metrics. The calculated descriptors were correlated with the actual weight of the animal and linear stepwise multiple regression method (RS) was used to establish the efficacy prediction of body weight.
126

Algoritmo genético aplicado ao sequenciamento de picking e faturamento

Pinto, Anderson Rogério Faia [UNESP] 17 August 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:16Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-08-17Bitstream added on 2014-06-13T18:54:31Z : No. of bitstreams: 1 pinto_arf_me_bauru.pdf: 842026 bytes, checksum: a4f4aaae530792c3da6a1f51debb3300 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / As desordens e incertezas provocadas no decorrer do tempo, face à dinâmica das mudanças e a complexidade dos sistemas que abrangem as organizações, acarretam diversas situações em que os gestores necessitam encontrar soluções das quais seja possível extrair a maximização do resultado empresarial. Logo, o desenvolvimento de ferramentas que possam em dado momento apresentar, de forma ágil, um número mínimo de opções necessárias para investigar a incerteza é uma tarefa necessária em ambientes de negócios. Esta dissertação tem como objetivo a busca por uma solução para o problema do Sequenciamento Ótimo de Faturamento (SOF). A perspectiva adotada para a solução do SOF é o desenvolvimento de um software que automatize o processo de atribuição dos produtos aos pedidos em carteira, denominado como processo de picking. O trabalho emprega a Computação Evolucionária como método de adaptação ao problema e utiliza a técnica dos Algoritmos Genéticos (AG) na formulação do modelo de busca de soluções. A concepção do software dar-se-á pela interconexão de um conjunto de dados estáticos que contempla o estoque disponível para venda em um período pré-determinado de tempo t e a carteira de pedidos solicitados em diferentes datas. A representação binária é utilizada para formular a programação das estruturas heurísticas de possíveis soluções e o Visual Basic for Applications (VBA) do Microsoft Office Excel é empregado como ferramenta computacional para a implementação do modelo proposto. A programação considera as restrições e os parâmetros de decisão de forma que maximização do faturamento seja o resultado otimizado do problema. A implantação do software gera um módulo que automatiza o processo de picking e apresenta resultados otimizados para o SOF, o que... / The disorders and uncertainties caused in the course of time, given the dynamics of change and systems complexity which include organizations, result in several situations in which managers need to find solutions which can extract the maximization of the enrrepreneurial outcome. Therefore, the development of tools that can, at a given time and in an agile way, present a minimum number of options necessary to investigate the uncertainties is a necessary task in business environments. This dissertations aims to search for a solution to the Optimal Sequencing Billing (OSB) problem. The perspective adopted for the solution of the OSB is the development of a software that automates the process of assining products to backlog, named as picking process. The work employs the Evouluationary Computation as a method of adaptation to the problem and uses the technique of Genetic Algorithms (GA) in the formulation of the searching solutions model. The software design will come to be through the inerconnection of a set of static data which includes the stock available for sale at a predetermined period of time t and a backlog request on different dates. The binary representation is used to formulate the scheduling heristics structures of possible solutions and Visual Basic for Applications (VBA) in Microsoft Office Excel is a software tool used for the implementation of the proposed model. The program considers the constraints and decision parameters so that maximizing the billing is the result of optimized problem. The implementation of the softaware generates a module that automates the picking process and presents optimized results for the OSB, which provides agility and improves the decision making for billing. It was... (Complete abstract click electronic access below)
127

Tecnologias da informação e comunicação na gestão educacional: possibilidades e contribuições em uma escola técnica estadual

Carleto, Nivaldo [UNESP] 23 November 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:31Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-11-23Bitstream added on 2014-06-13T18:42:14Z : No. of bitstreams: 1 carleto_n_dr_arafcl.pdf: 2789358 bytes, checksum: 58aa0d23f580b285456b843d8fd0bfd2 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / As possibilidades da informática na administração educacional é uma realidade no cenário contemporâneo constituído por uma sociedade informacional. Em particular, os recursos oferecidos por meio das Tecnologias da Informação e Comunicação, quando devidamente utilizados, servem como ferramenta de auxílio ao gerenciamento de informações nas organizações, sejam elas comerciais ou educacionais. O controle de informações acadêmicas, o gerenciamento e o processamento de arquivos eletrônicos de alunos e professores, assim como a otimização na tomada de decisões são contribuições que essas tecnologias apresentam em beneficio de uma escola, principalmente, como instrumento de articulação entre o trabalho administrativo que contempla a secretaria acadêmica e o trabalho pedagógico dos professores e da coordenação de curso. Partindo desse pressuposto, esse trabalho teve como objetivo aplicar o conceito da Tecnologia da Informação em uma unidade de ensino técnico localizada no município de Matão-SP, desenvolvendo e implantando em suas instalações um sistema de gestão da informação. Nesse contexto, considerou-se, entre outros fatores, as necessidades e as limitações da escola, bem como a segurança, a privacidade, a relevância e a disponibilidade das informações no ambiente educacional que ela está inserida. Contextualizado em uma dimensão teórica sobre as políticas e as reformas educacionais no Brasil, bem como nos processos de descentralização da educação e a autonomia escolar, o presente trabalho procurou também abranger questões pertinentes na conquista da qualidade e da equidade da educação pública brasileira. Nesse cenário, enfatizou-se a importância do desenvolvimento de softwares livres na gestão de documentos para a administração pública de sistemas educacionais, pretendendo com isso contribuir com a democracia e com a transparência... / The possibilities of the computers in the educational gestion is a reality in the contemporary scenery constitute for a informational society. In particular, the resources to offer across Technologies of Information and Communication when correct to utilize, to serve as implement of aid to the gestion of information in organization to being commerce or educational. The control of academician information’s, the gestion and the processing of electronics files students and teachers, as well as the optimization in to take decisions are contribution which this technology to present in benefit the an school, principal, since instrument of the articulation between the administrated work which for the sake of academics secretary and the educational work of teachers and course co-ordination. To leave this presuppose, this work to have which purpose to apply the concept of technology of Information in a technical school localized in Matão-SP city, development and implantation in your installations one gestion system information. In that context, to consider between other aspects, the necessity and the limitations of school, as well as the safety, the private, the important and the available of information in educational environment what to insert. In context in a theoretical dimension upon the educational politics and reforms in Brazil, very as the process decentralization education and the autonomies school, the present work to search also to enclose pertinent questions in the obtain of quality and the equity Brazilian public education. In that scenery emphasize the importance of the development of free softwares in gestion document for public management system educationals, to purpose with that contribute with the democrat and transparent in process of the gestion education, benefiting in large part the State and the institution public of teach.
128

Desenvolvimento de um aplicativo para processamento de dados e criação de um simulador computacional de uma transmissão para veículos

Campos, Fernando Henrique [UNESP] 07 June 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:37Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-06-07Bitstream added on 2014-06-13T19:02:03Z : No. of bitstreams: 1 campos_fh_dr_botfca.pdf: 7480518 bytes, checksum: 43d21b8399fc01cc77b9abf4ebc2b0df (MD5) / Na busca contínua da otimização do desempenho dos tratores no campo, um aspecto mecânico importante a ser pesquisado e objeto de inovações é a transmissão, cuja responsabilidade é transmitir energia e potência provenientes do motor a combustão interna para o conjunto de eixos que movimenta as rodas dos tratores. A função do sistema de transmissão é a utilização da máquina de forma variada, devido às diversas atividades desenvolvidas pelo trator no campo, proporcionando sempre a rotação e potência que melhor se adapte a necessidade da atividade desenvolvida pelo trator. Como consequência, deverá ser transmitida somente a potência necessária para cada atividade específica obtendo um desempenho energético mais eficiente do trator, menor emissão de poluentes e a segurança e conforto do operador durante a atividade agrícola. Nesse contexto o objetivo deste trabalho foi desenvolver um aplicativo para simular o desempenho cinemático e dinâmico de quatro configurações de transmissões continuamente variáveis (CVT) com divisão de potência e como objetivo secundário, armazenar e processar os dados obtidos através de ensaios de bancada realizados através de um equipamento de laboratório denominado Maqueta Docente Transmisión Continua (MDTC) localizada na Escuela Técnica Superior de Ingenieros Agrónomos (ETSIA), da Universidad Politécnica de Madrid, Espanha, utilizada para simular mecanicamente o comportamento de diferentes configurações de transmissões CVT.Para o desenvolvimento do aplicativo foi utilizada a linguagem de programação Java através do Ambiente Integrado de Desenvolvimento (IDE) NetBeans 6.9.1, e como base de dados foi utilizado o banco de dados MySQL Server 5.5. O aplicativo denominado ―MDTC – Folha de Cálculos‖ realizou a simulação virtual dos quatro tipos de configurações de... / In the continuous search of agricultural machinery performance improvement in field an important mechanical aspect to be researched and subject to innovations is the transmission, whose the responsibility is to transmit energy and power from the internal combustion engine to the set of axes that moves the tractor wheels. The function of the transmission system is the use of the machine in different ways due to different activities undertaken by the tractor in the field, always providing the rotation and power of the wheels that best suits the need of the activity developed. As result should be transmitted only the required power for each specific activity improving the machinery energy performance, lower emissions, and the operator safety and comfort during agricultural activity. In this context, the aim of this research was to develop a software in order to simulate the kinematic and dynamic performance of four types of continuously variable transmissions (CVT) with power-split system and as a secondary objective, store and process the data obtained from bench tests performed by a laboratory equipment called Maqueta Docente Transmisión (MTDC) located at Escuela Técnica Superior de Ingenieros Agrónomos (ETSIA), of Universidad Politécnica de Madrid (UPM), located in Madrid, Spain, used to mechanically simulate the performance of different configurations of CVT transmissions. For the software development were used the programming language Java through the Integrated Development Environment (IDE) NetBeans 6.9.1, and as database... (Complete abstract click electronic access below)
129

Desenvolvimento e validação de sistema de apoio à decisão em urinálise com inteligência artificial utilizando redes neuronais

Volanski, Waldemar January 2011 (has links)
Orientador: Prof. Dr. Geraldo Picheth / Co-orientador: Prof. Dr. Roberto Tadeu Raittz / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Programa de Pós-Graduação em Bioinformática. Defesa: Curitiba, 03/02/2011 / Inclui referências / Área de concentração : Bioinformática / Resumo: A urinálise contempla uma avaliação semi-quantitativa de analitos e contagem diferencial de células presentes na urina. A análise fornece informações diagnósticas relevantes principalmente sobre o sistema urinário e renal. Neste trabalho, foi estudada a aplicação de redes neuronais aplicadas a tomada de decisão sobre a liberação do ensaio de urinálise, comparada ao processo de decisão realizados por profissionais do laboratório clínico. Registros de resultados de urinálise (n=140.482), anô imos, foram obtidos no Laboratório Municipal de Curitiba, após a aprovação da pesquisa pelo Comitê de Ética em Pesquisa com Seres Humanos da UFPR (CAE: 0106.0.091.000-09). Os pacientes em estudo apresentaram idade média de 38 anos, com amplitude de variação de 0 a 101 anos. A predominância do sexo feminino foi superior a 65% na amostra. Quando os elementos do ensaio foram analisados individualmente, alterações nas concentrações de esterase leucocitária e hemoglobina, bem como as contagens de leucócitos e eritrócitos estão presentes em cerca de 95% de todos os pacientes com alterações na urinálise. Aplicando-se classificação da amostra baseada em valores de referência, cerca de 65% dos registros mostraram no mínimo um parâmetro urinário fora dos valores de referência. Quando a mesma amostra foi classificada por profissionais, que consideram além dos valores de referência, a consistência entre ensaios relacionados (esterase leucocitária-contagem de leucócitos; hemoglobina-contagem de eritrócitos) para a liberação dos ensaios, cerca de 30% dos resultados ficaram "retidos" para análises posteriores de verificação devido a inconsistência nos resultados. Duas redes neuronais (MLP, multilayer perceptron e FAN, free associative neurons) foram treinadas, testadas e validadas, utilizando como critérios de grupos os resultados dos profissionais designados "liberados" e "retidos". O treinamento das redes mostrou que para a rede MLP o banco de dados deve ser "balanceado", números equilibrados de registros "liberados" e "retidos" para a obtenção do melhor desempenho. Para permitir o acesso ao banco de dados e facilitar a obtenção de resultados um software de apoio foi desenvolvido e utilizado em todo o trabalho. As redes neuronais em estudo foram avaliadas com uma amostra de 484 pacientes da rotina, avaliado por dois profissionais. A rede MLP apresentou uma divergência de cerca de 9 a 12% (sensibilidade 100%; especificidade 90,1%) e om os profissionais, significativamente menor que a rede FAN, 17 a 19% (sensibilidade 39,0% e especificidade 86,9%), respectivamente. A comparação entre o desempenho das redes neuronais com o banco de dados, superior a 100.000 registros, mostrou que a rede MLP apresentou desempenho compatível ao dos profissionais (29,5% vs 21,6%, respectivamente) na classificação dos ensaios retidos. A rede FAN reteve menos amostras (18,2%) sugerindo a maior divergência com a resposta dos profissionais. Em síntese, é possível afirmar que a rede neuronal MLP (Multilayer Percetrons) validada com uma base de dados "balanceada" permite identificar padrões liberação e retenção de resultados de forma a mimetizar os critérios de profissionais para o ensaio de urinálise. Também o programa computacional em linguagem Python, tilizando a rede MLP, desenvolvido para acessar o banco de dados e classificar a amostra apresentou bom desempenho e segurança, sendo recomendado para uso no laboratório clínico. / Abstract: The urinalysis assay represents a combination of semi-quantitative analysis of the differential cells counts in urine. This analysis provides relevant information mainly on the renal and urinary systems. The aim of the work was to compare the study of neural networks associated with laboratory decision support systems, against the process of clinical laboratory professionals’ decisions. A de-identified clinical database (140.482 records) was obtained from Laboratório Municipal de Curitiba. The research was approved by UFPR Ethical Committee for Research with Humans (CAE: 0106.0.091.000-09). The sample population showed mean age of 38 years with an age range of 0-101 years. Females predominated at more than 65%. When individual urinalysis components were quantified the concentration of leucocytes esterase and haemoglobin, as well as the count of leucocytes and erythrocytes occurred in about 95% of all pathologic cases. When reference value was appliedto the sample classification, about 65% of all cases were outside the reference values by at least one parameter. Laboratory clinical professionals often consider beyond the reference values: the consistency of the associated parameters (leucocytes esterase concentration vs. leucocytes count; haemoglobin concentration vs. erythrocyte count) on the criteria for the "release" or "hold" of the result. When the sample was analyzed by professionals about 30% was "held" for additional nvestigation due to inconsistency in results. Two neural networks Multi Layer Perceptron (MLP) and Free Associative Neurons (FAN) were trained, tested and validated, applying the laboratory professional’s criteria for result "release" or "hold". The MLP network showed that the training with a "balanced" data set (characterized by the some number of groups "release" and "hold") improved performance . To access the atabase and facilitate the work software was developed and utilized throughout the entire project. The two studied networks were evaluated with a sample of 484 routine patients, previously screened by the professionals. The MLP network showed a discrepancy of about 9- 12% (sensitivity 100%; specificity 91.1%) when compared to professionals. These results were significantly lower that those obtained using the network FAN (17-19%) which showed a sensitivity of 39% and a specificity of 89.9%. The comparison of the performance of the studied neural networks with a large data set (n>100.000 registers) revealed that the MLP network produced a performance closer to those of professionals (21.6% vs. 29.5%, respectively) for the detection of "hold" samples. In summary we can highlight that MLP neural network, validated with a "balanced" data set, was able to identify the pattern of urinalysis results released, comparably with the laboratory professionals .Also, the software developed (written in Python) for the MLP network showed a good performance and safety and thus we recommended it’s application. in the clinical laboratory.
130

Gestão de riscos baseada no conhecimento: modelo conceitual para empresas de desenvolvimento de software

Neves, Sandra Miranda [UNESP] 05 December 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:34:58Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-12-05Bitstream added on 2014-06-13T19:44:43Z : No. of bitstreams: 1 000733708.pdf: 4977605 bytes, checksum: e61139ad46b778315339889ed5f570f7 (MD5) / Uma GestãodeRiscos eficaz conduz os projetos de desenvolvimento de software ao sucesso e pode influenciaros resultados da organização. A Gestão do Conhecimento participa desseprocesso como forma de auxílioà tomada de decisão. O objetivo deste trabalho é,pois, estruturarum modeloconceitualpara o processo de Gestão de Riscos Baseada noConhecimento (GRBC) que seja aplicável a empresas de desenvolvimento de software incubadas. A pesquisa adota umaabordagem metodológicaqualiquantitativa. Assim, empregou-se o método de pesquisa da modelagem matemática pormeio da utilizaçãode métodos de tomada de decisão multicritério para a estruturação eordenaçãodos Fatores de Sucessoem iniciativas de Gestão do Conhecimento. Também foram avaliadas quais técnicas de Gestão do Conhecimento são utilizadas para a análise dos riscos de projetos de desenvolvimento desoftware. Osresultados serviram de base para compor o modelo conceitual para a GRBC. A utilização do Analytic Hierarchy Process(AHP) e do Decision MakingTrialEvaluation Laboratory (Dematel), determinou, em parte, que o trabalho atingisse o objetivo geralestabelecido tendo comobase umaabordagem estruturada / An effective Risk Managementleadsthe software development projects to success and caninfluencethe organizational results. The Knowledge Management participates as an aidto decision-making. Theaim of this paper is to outlinea conceptual model toward the Knowledge-Based Risk Management (KBRM) process, applicable at Incubated Software Development companies. The research adopts a quali-quantitative methodological approach. Thus, it hasbeen employedthe mathematical modeling researchmethod through theuse of multi-criteriadecision-making process for the structuring and coordinating the successes factor in Knowledge Management initiatives. They can alsoassess which Knowledge Management techniques are usedforthe software development risks projects analysis. The results formedthe basis for composingtheKBRM conceptual model. The use of Analytic Hierarchy Process (AHP) and of DecisionMaking Trial Evaluation Laboratory (Dematel) has determined, in part, the work to accomplish the overall established objectives, based on a structured approach

Page generated in 0.1562 seconds