• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 421
  • 22
  • 16
  • 16
  • 16
  • 10
  • 10
  • 6
  • 6
  • 6
  • 6
  • Tagged with
  • 445
  • 445
  • 212
  • 115
  • 113
  • 105
  • 89
  • 63
  • 63
  • 57
  • 52
  • 50
  • 49
  • 48
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Desafios da inteligência artificial para a profissão jurídica

Sperandio, Henrique Raimundo do Carmo 03 May 2018 (has links)
Submitted by Henrique Raimundo do Carmo Sperandio (henrique.sperandio@outlook.com) on 2018-05-28T12:56:52Z No. of bitstreams: 1 Dissertação Henrique Sperandio May 2018.pdf: 572463 bytes, checksum: 91672ab6ad1424e6135eab7186800e10 (MD5) / Rejected by Thais Oliveira (thais.oliveira@fgv.br), reason: Aguardando correções da Dissertação. Obrigada! on 2018-05-28T19:33:00Z (GMT) / Submitted by Henrique Raimundo do Carmo Sperandio (henrique.sperandio@outlook.com) on 2018-05-28T20:36:25Z No. of bitstreams: 1 Dissertação Henrique Sperandio May 2018.pdf: 573771 bytes, checksum: 9b8b77fc17cc6f4d91def17312063866 (MD5) / Approved for entry into archive by Thais Oliveira (thais.oliveira@fgv.br) on 2018-05-28T20:39:49Z (GMT) No. of bitstreams: 1 Dissertação Henrique Sperandio May 2018.pdf: 573771 bytes, checksum: 9b8b77fc17cc6f4d91def17312063866 (MD5) / Approved for entry into archive by Suzane Guimarães (suzane.guimaraes@fgv.br) on 2018-05-29T13:12:46Z (GMT) No. of bitstreams: 1 Dissertação Henrique Sperandio May 2018.pdf: 573771 bytes, checksum: 9b8b77fc17cc6f4d91def17312063866 (MD5) / Made available in DSpace on 2018-05-29T13:12:46Z (GMT). No. of bitstreams: 1 Dissertação Henrique Sperandio May 2018.pdf: 573771 bytes, checksum: 9b8b77fc17cc6f4d91def17312063866 (MD5) Previous issue date: 2018-05-03 / As conquistas recentes obtidas com o auxílio de ferramentas de Inteligência Artificial (IA) provocam curiosidade crescente e, ao mesmo tempo, geram certo desconforto. Indagações quanto à possibilidade de a IA substituir o trabalho do homem ou à eventualidade de que a máquina possa vir a pensar como um ser humano aparecem quando se discorre a respeito da interação da máquina com a sociedade. Aparentemente, há consenso entre os especialistas sobre o fato de que a IA seja uma tecnologia importante na prática do Direito. O objetivo deste trabalho é apresentar tal tecnologia ao leitor, identificar seus principais impactos na profissão jurídica e mapear os desafios que aparecerão do conflito e da confusão gerados pelas mudanças tecnológicas. Como a discussão sobre o alcance da IA é recente, foi realizada uma revisão bibliográfica a respeito do tema. Para tanto, foi consultada a literatura especializada publicada por meio das mídias tradicionais durante os últimos dez anos no Brasil, nos Estados Unidos e na Europa. Para relatar a abrangência da tecnologia em questão, optou-se por pesquisar experiências de empresas brasileiras que estejam desenvolvendo ferramentas de IA para o mundo jurídico, bem como comentar experiências de escritórios de advocacia na discussão e implementação de atividades relacionadas com a IA. O trabalho de revisão bibliográfica foi complementado com a exposição de relatos de empresas que atuam no desenvolvimento de ferramentas de IA, nos setores público e privado, bem como de colaboradores de escritórios brasileiros que têm estudado formas de utilização dessas ferramentas. Este trabalho aponta para a importância de se acompanhar a utilização das ferramentas da IA na profissão jurídica. Tal tendência pode contribuir para a liberação do tempo do advogado, permitindo-lhe concentrar-se em funções estratégicas, e está alinhado com a demanda dos clientes por serviços a preços cada vez mais competitivos, representando um incentivo para que sejam encontradas formas alternativas de realização do trabalho dos advogados. A pesquisa referente ao desenvolvimento de tais ferramentas é fundamental e deve ser aprofundada. Faz-se necessário, também, discutir a grade de formação do advogado, com o objetivo de capacitar o aluno a atuar com conhecimentos ampliados que lhe permitam trabalhar como um agente multidisciplinar na indústria de serviços legais. / Recent achievements coming from Artificial Intelligence (AI) tools provoke increasing curiosity while generating some discomfort. Inquiries about the possibility of AI replacing human work or the possibility that the machine may think like a human appear when discussing the interaction of the machine with society. There seems to be consensus among scholars that AI is an important technology in law practice. The objective of this work is to present the technology to the reader, to identify the main impacts of AI in the legal profession, and to map the challenges that will arise from the conflict and the confusion generated by the technological changes. Since the discussion about the scope of AI is recent, a bibliographical review of the specialized literature, over the last 10 years, has been carried out on traditional media from Brazil, the United States and Europe. In order to report the scope of the AI, the experiences from both Brazilian companies that are developing AI tools for the legal world and from law firms in the discussion and implementation of activities related to AI have been researched. The bibliographical review work was complemented by the reports of companies that work in the development of AI tools both in the public and private sectors, as well as by the experience related by Brazilian legal firms who have studied ways of using these tools. This work points to the importance of accompanying the use of AI tools in the legal profession. Such a move can contribute to the lawyer's time release by allowing him to focus on strategic functions and is aligned with customer´s demand for services at increasingly competitive prices, representing an incentive to find alternative ways of performing the lawyers´ work. The research concerning the development of such tools is fundamental and should be deepened. It is necessary to discuss the lawyer´s training grid with the objective of enabling the student to act with expanded knowledge in order to enable him to work as a multidisciplinary agent in the legal services.
382

Síntese de linguagens de descrição de arquitetura / Architecture description languages synthesis

Goto, Samuel Shoji Fukujima 17 August 2018 (has links)
Orientador: Rodolfo Jardim de Azevedo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-17T02:11:17Z (GMT). No. of bitstreams: 1 Goto_SamuelShojiFukujima_M.pdf: 4578638 bytes, checksum: c8297ac26a037d8b90ccb1c1ad3d6c43 (MD5) Previous issue date: 2010 / Resumo: Desde sua popularização, processadores dobraram de capacidade e desempenho à cada dois anos. No entanto, paralelamente, essa tendência foi apenas sustentada pelo crescimento da sofisticação das implementações utilizadas. Atualmente, apesar de eficientes, processadores são complexos e difíceis de projetar. Para gerenciar esse problema, foram criadas linguagens chamadas ADLs que simplificam a especificação e simulação em níveis mais abstratos, enquanto HDLs ainda são utilizadas para a descrição RTL. Esse trabalho unifica o fluxo de especificação e simulação de processadores com o fluxo de implementação RTL a partir da mesma linguagem ADL. Para isso, escolhemos uma linguagem de descrição de arquitetura chamada ArchC. Sintetizamos com sucesso parte de processadores descritos em ArchC, como o PIC16F84, o I8051, o MIPS-I, o R3000 e uma JVM. Subconjuntos dos processadores foram prototipados em FPGA, com frequências de operação entre 80MHZ à 120MHZ projetados duas a três vezes mais rapidamente do que os desenvolvidos com HDLs. Mostramos que ArchC é sintetizável, completando o fluxo de projeto da linguagem até o nível RTL. Criamos as ferramentas necessárias e fornecemos modelos RTL dos processadores citados / Abstract: The design and implementation of processors is a complex task. Architecture Description Languages (ADLs) were created to extend existing HDLs to manage the inherit complexity of modern processors. Along with HDLs, they ease the development and prototyping of new architectures by providing a set of tools and algorithms to optimize and automate some of the tedious parts. However, while much has been done on using ADLs for simulating high level specifications, the academia knows very little about how to reuse them to implement real life processors. This work addresses the issues of synthesizing processors from an ADL model. To accomplish that, we chose an ADL called ArchC and we successfully synthesized pieces of its most stable models, like the PIC16F84, the i8051, the MIPS-I, the R3000 and a JVM. The processors were prototyped in FPGAs, with frequencies of operation as fast as 80MHZ to 120MHZ developed two to tree times faster compared to current approaches. We show that ArchC is in fact synthesizable, completing the design flow down to the RTL level. We provide all the necessary tools that were created to synthesize the models as well as the RTL models themselves / Mestrado / Arquitetura de Computadores / Mestre em Ciência da Computação
383

Um estudo de metricas de similaridade em sistemas baseados em casos aplicados a area da saude

Julio, Marcia Regina Ferro Moss 18 February 2005 (has links)
Orientadores: Gilberto Shigueo Nakamiti, Heloisa Vieira da Rocha / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-04T19:58:40Z (GMT). No. of bitstreams: 1 Julio_MarciaReginaFerroMoss_M.pdf: 5134591 bytes, checksum: 7b347ade85c8652d790d671fd0d3bd1c (MD5) Previous issue date: 2005 / Resumo: No momento da escolha da solução para um problema, muitas vezes o ser humano se vale de experiências passadas, ocorridas com problemas semelhantes e que, portanto, podem prever soluções de sucesso ou não. Sistemas Baseados em Casos (SBC) podem utilizar soluções anteriores para interpretar uma nova situação, ou criar uma solução apropriada para um novo problema. Este trabalho apresenta um estudo de métricas de similaridade em sistemas baseados em casos, aplicados à área da saúde, mais especificamente sobre epicondilite lateral, uma tendinite do cotovelo. O estudo sobre métricas de similaridade em sistemas baseados em casos foi realizado a partir de levantamentos bibliográficos sobre Raciocínio Baseados em Casos e sobretudo com o estudo e aprendizado obtido por meio da aplicação de RBC na área da Saúde. A aplicação foi desenvolvida com a participação de profissionais da área da saúde que muito colaboraram na construção da aplicação, bem como com o fornecimento de casos reais para os cadastros na base de casos e aplicação de testes de validação / Abstract: When solving a problem, humans ofien use past experiences with similar situations, which can help the prediction of failure or success. Case-Based Systems use past experiences to interpret a new situation, or to create an appropiate solution for a new problem. For work presents a study on similarity metrics in case-based systems, and an application concerning the health area, more specifically about Lateral Epiconditis, an elbow tendinitis. The study on similarity metrics in case-based systems was conducted from bibliographic research and more importantly, with the study and learning abtained with the health area application development. Health area professionals took part and helped the application development, as well as provided real cases to configure and validate the system / Mestrado / Engenharia de Software / Mestre Profissional em Computação
384

Geração automatica de montadores em ArchC / Automatic generation of assemblers using ArchC

Baldassin, Alexandro José 20 April 2005 (has links)
Orientador: Paulo Cesar Centoducatte / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-05T00:50:23Z (GMT). No. of bitstreams: 1 Baldassin_Alexandro_M.pdf: 957897 bytes, checksum: 02ca08a95301bf7e9262564a9672c8b4 (MD5) Previous issue date: 2005 / Resumo: Projetistas de sistemas dedicados enfrentam atualmente novos desafios em todas as fases do projeto. A difusão da tecnologia conhecida como SoC (System on a Chip) requer novos paradigmas para a especificação, implementação e verificação do projeto. A alta complexidade de tais sistemas e a grande variedade de configurações disponíveis podem tornar a escolha do sistema ideal demorada, prolongando o tempo de projeto e conseqüentemente seu ingresso no mercado. Em especial, no processo de escolha de um certo processador, o projetista necessita de um conjunto básico de ferramentas que lhe permitam analisar questões como desempenho, potência consumida, ou ainda área de silício ocupada. Exemplos de ferramentas importantes nessa fase de avaliação do projeto incluem compiladores, montadores e simuladores de instruções. Nesse contexto, o uso de uma linguagem para descrição de arquitetura (Architecture Description Language, ADL) permite que processadores sejam modelados em níveis altos de abstração, e que um conjunto de ferramentas específicas para o modelo descrito seja gerado automaticamente. ArchC é uma ADL em desenvolvimento no Laboratório de Sistemas de Computação (IC-UNICAMP), e já é capaz de gerar ferramentas de simulação de instruções automaticamente. Desenvolvemos neste trabalho uma ferramenta para geração automática de montadores a partir de modelos descritos em ArchC, denominada acasm 2. O desenvolvimento de acasm nos levou a incorporar novas construções a ArchC para a modelagem da linguagem de montagem e da codificação das instruções. Nossa ferramenta gera um conjunto de arquivos dependentes de arquitetura para o redirecionamento do montador GNU Assembler (gas). Usamos acasm para gerar montadores a partir de modelos, em ArchC, das arquiteturas MIPS-I e SPARC-V8, e comparamos os arquivos objetos obtidos com os gerados pelo montador gas nativo para ambas arquiteturas. Os resultados mostraram que os arquivos gerados pelo nosso montador foram idênticos aos gerados pelo montador nativo para ambas arquiteturas / Abstract: Nowadays, embedded systems designers are facing new challenges at all stages of the design process. The growing of the system-on-chip (SoC) technology is creating new paradigms in the specification, implementation and verification phases of a design. The increasing complexity and the myriad of available configurations make it hard to choose the ideal system, therefore lengthening the design time, as well as time to market. Specially, customization of the processor architecture requires a software toolkit in order to estimate factors such as performance, power dissipation and chip area. Examples of these tools may include compilers, assemblers and instruction level simulators. In this context, the use of an architecture description language (ADL) allows one to model processors using different levels of abstraction. Based on the model, a software toolkit can be automatically generated. ArchC is an ADL being developed by the Computer Systems Laboratory (IC-UNICAMP) and can automatically generate instruction level simulators at its current stage. In this work, we have created a tool to automatically generate assemblers from ArchC models, named acasm 3. While developing acasm we have introduced new language constructions to ArchC in order to describe the assembly language syntax and the instruction encoding scheme. Our tool retargets the GNU assembler (gas) to different architectures by generating a set of architecture depedent files based on ArchC models. We used acasm to generate assemblers to the MIPS-I and SPARC-V8 architectures based on our ArchC models. We then compared the object files created by our assemblers with the ones created by the native gas and no difference between each pair of files was noticed, for both architectures / Mestrado / Mestre em Ciência da Computação
385

Desenvolvimento de um sistema especialista para auxilio no projeto e operação de processos biotecnologicos / Expert system development for aid n the Bioprocesses design and operation

Gouveia, Vera Lucia Reis de, 1974- 23 February 2006 (has links)
Orientador: Rubens Maciel Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-06T23:09:13Z (GMT). No. of bitstreams: 1 Gouveia_VeraLuciaReisde_D.pdf: 3830222 bytes, checksum: 41e2cf7f0901948710226a6037c7ed76 (MD5) Previous issue date: 2006 / Resumo: Os processos biotecnológicos ou Bioprocessos necessitam de maiores cuidados do que a maioria dos processos químicos comuns devido, principalmente, à sensibilidade a variações nos estados do sistema como, por exemplo, temperatura e concentração. O crescente aumento da importância dos Bioprocessos e a maior dificuldade em seu controle e simulação resultaram na procura e utilização de novas ferramentas como a Inteligência Artificial (IA). Inteligência Artificial é uma parte da ciência da computação relacionada ao projeto de sistemas computacionais inteligentes. Nos últimos anos houve um aumento substancial do uso de ferramentas de IA tais como Redes Neurais Artificiais (R.N.A), Sistemas Especialistas e Lógica Fuzzy no controle e simulação de Bioprocessos. Este trabalho teve como objetivo o desenvolvimento de um software que atue como um assistente, auxiliando na simulação de Bioprocessos. O Bio-PSA (BioProcess Simulation Assistant) possui quatro módulos: Módulo 1: Simulação de Bioprocessos, incluindo funcionalidades para simulação de produção de etanol e dextrana, ambos com modelagem normal e híbrida. Módulo 2: Simulação de processos para purificação de proteínas, incluindo a modelagem de processos baseados no modelo CARE (Continuous Affinity Recycle Extraction). ?Módulo 3: Sistema Especialista e uma base de conhecimento que auxilia o usuário no design de processos biotecnológicos. Módulo 4: Software para treinamento de R.N.A / Abstract: The biotechnical processes or Bioprocesses require larger cares than common chemical processes due, mainly, the states of the system variations sensibility, for example, temperature and concentrations. The increasing raise of the Bioprocess importance and the largest difficulty in its control and simulation resulted in the search and use of Artificial Intelligence (AI) tools. Artificial Intelligence is a part of the computer science related to the project of intelligent computational systems. In the last years there was a substantial increase in the use of AI tools such as Artificial Neural Networks (A.N.N), Expert Systems and Fuzzy Logic in the Bioprocess control and simulation. This work had the objective of the development of software that acts as an assistant, aiding in the Bioprocess simulation. The Bio-PSA (BioProcess Simulation Assistant) has four modules: Module 1: Bioprocess simulation, including applications for simulation of ethanol and dextran production, both with normal and hybrid modeling. Module 2: Simulation of proteins purification processes, including processes modeling based in the CARE (Continuous Affinity Recycle Extraction) model. Module 3: Expert System and a knowledge base that aids the user in the Bioprocesses design.?Module 4: Software for A.N.N training / Doutorado / Desenvolvimento de Processos Biotecnologicos / Doutor em Engenharia Química
386

Contribuições teoricas para o estudo de funções de distribuição correlacionadas em um canal sem fio / Theoretical contributions to the study of correlated distributions funcions of wireless channels

Souza, Rausley Adriano Amaral de 13 August 2018 (has links)
Orientador: Miched Daoud Yacoub / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-13T17:19:37Z (GMT). No. of bitstreams: 1 Souza_RausleyAdrianoAmaralde_D.pdf: 1070968 bytes, checksum: 289cdc544616610aa8ff990ce2ea0e82 (MD5) Previous issue date: 2009 / Resumo: Em comunicações móveis, o desvanecimento por múltiplos percursos é modelado por várias distribuições incluindo Hoyt, Rayleigh, Weibull, Nakagami-m e Rice. Nesta tese, são deduzidas expressões exatas para o modelo de duas variáveis Hoyt (Nakagami-q) com correlação arbitrária em um ambiente não estacionário. De forma específica, as seguintes estatísticas são encontradas: função densidade de probabilidade conjunta, função de distribuição cumulativa conjunta, coeficiente de correlação e algumas estatísticas relacionadas ao parâmetro SNR na saída do combinador de seleção, a saber, probabilidade de indisponibilidade e função densidade de probabilidade. As expressões fazem uso dos polinômios de Laguerre generalizados. Elas são matematicamente tratáveis e possuem flexibilidade suficiente para acomodar um grande número de cenários de correlação, úteis na análise de um ambiente com desvanecimento mais geral. Depois disto, aproveitando os resultados previamente deduzidos, expressões exatas relacionadas a processos Nakagami-m com duas variáveis com correlação arbitrária e parâmetros de desvanecimento igualmente arbitrários são encontradas. De forma mais específica, as seguintes estatísticas são obtidas neste trabalho: função geratriz de momentos, função densidade de probabilidade conjunta, função de distribuição cumulativa conjunta, coeficiente de correlação de potência, e várias estatísticas ligadas à relação sinal-ruído na saída do combinador de seleção, especialmente, probabilidade de indisponibilidade, função densidade de probabilidade e valor médio da relação sinal-ruído. Recentemente, o modelo de desvanecimento ®-µ foi proposto que leva em conta a não linearidade do meio de propagação assim como o fenômeno de cluster de múltiplos percursos das ondas de rádio. A distribuição ®-µ é geral, flexível e matematicamente tratável. Ela inclui importantes distribuições tais como Gamma (e suas versões discretas Erlang e Chi-Quadrada Central), Nakagami-m (e sua versão discreta Chi), Exponencial, Weibull, Gaussiana Unilateral e Rayleigh. Nesta tese, uma formulação através de série infinita para a função densidade de probabilidade multivariável ®-µ com matriz de correlação arbitrária e variáveis não identicamente distribuídas é encontrada. A expressão é exata e geral e inclui todos os resultados anteriormente publicados na literatura relacionados às distribuições compreendidas pela distribuição ®-µ. A expressão geral é então particularizada para uma solução aproximada simples na forma fechada. Adicionalmente, a função distribuição cumulativa conjunta multivariável é obtida, novamente, em uma forma fechada e simples. Os resultados exato e aproximado são muito próximos para valores pequenos e médio de correlação. Nós mantemos, entretanto, que uma relação entre os coeficientes de correlação das correspondentes componentes gaussianas deve ser mantida de forma a atender os critérios de convergência / Abstract: In wireless communications, the multipath fading is modeled by several distributions including Hoyt, Rayleigh, Weibull, Nakagami-m, and Rice. In this thesis, new, exact expressions for the bivariate Hoyt (Nakagami-q) processes with arbitrary correlation in a nonstationary environment are derived. More specifically, the following are obtained: joint probability density function, joint cumulative distribution function, power correlation coefficient, and some statistics related to the signal-tonoise ratio at the output of the selection combiner, namely, outage probability and probability density function. The expressions make use of the well known generalized Laguerre polynomials. They are mathematically tractable and flexible enough to accommodate a myriad of correlation scenarios, useful in the analysis of a more general fading environment. After this, capitalizing on result previously deduced, exact expressions concerning the bivariate Nakagami-mprocesses with arbitrary correlation and fading parameters are derived. More specifically, the following are obtained in the present work: joint moment generating function; joint probability density function; joint cumulative distribution function; power correlation coefficient; and several statistics related to the signal-to-noise ratio at the output of the selection combiner, namely, outage probability, probability density function, and mean SNR. More recently, the ®-µ fading model has been proposed that accounts for the non-linearity of the propagation medium as well as for the multipath clustering of the radio waves. The ®-µ distribution is general, flexible, and mathematically easily tractable. It includes important distributions such as Gamma (and its discrete versions Erlang and Central Chi-Squared), Nakagami-m (and its discrete version Chi), Exponential, Weibull, One-Side Gaussian, and Rayleigh. An infinite series formulation for the multivariate ®-µ joint probability density function with arbitrary correlation matrix and non-identically distributed variates is derived. The expression is exact and general and includes all of the results previously published in the literature concerning the distributions comprised by the ®-µ distribution. The general expression is then particularized to an indeed very simple, approximate closed-form solution. In addition, a multivariate joint cumulative distribution function is obtained, again in simple, closed-form manner. Approximate and exact results are very close to each other for small as well medium values of correlation. We maintain, however, that a relation among the correlation coefficients of the corresponding Gaussian components must be kept so that convergence is attained / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
387

Software interativo com acesso a bancos de dados, modelos de componentes e metodos numericos visando estudos para a geração de cenarios de operação de redes de transmissão de energia / Interactive software with access to database, components models and numerical methods for generating of operation scenarios for energy transmission system

Spolador, Fernando Luis 27 June 2008 (has links)
Orientador: Anesio dos Santos Junior / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-11T13:45:20Z (GMT). No. of bitstreams: 1 Spolador_FernandoLuis_M.pdf: 2931500 bytes, checksum: 2b62ae2221ab4439c98ba66acde8bb13 (MD5) Previous issue date: 2008 / Resumo: Nesta dissertação é apresentada a proposta de um software para simulação e análise de sistemas de potência. A crescente necessidade de expansão dos sistemas elétricos e de validação destes sistemas nos mais diversos estados, fazem com que sejam necessários cada vez mais estudos. As simulações computacionais se apresentam como uma forma eficaz e de custo reduzido para a realização destes estudos, porém estas simulações acabam por gerar uma enorme quantidade de informações. O software proposto possui um conjunto de recursos, dentre eles, interfaces gráficas amigáveis com o usuário e manipulação de base de dados, que buscam fornecer as ferramentas necessárias para o processo de análise e efetiva busca de soluções para o modelo do sistema elétrico estudado. O software foi estruturado de forma a facilitar uma evolução continua e a inserção de novos recursos e funcionalidades. Palavras-chave: Sistema de Potência, Orientação a Objetos, Interface Gráfica com o Usuário / Abstract: This dissertation presents the proposal for a software for simulation and analysis of power systems. The growing need for expansion of electrical systems, the need for validation of these systems in the most diverse state, make it increasingly necessary studies of these systems. The computer simulations are presented as an effective and low cost for carrying out this study, but these simulations ultimately generate a huge amount of information. The software proposed has a set of resources, including friendly graphical user interfaces and manipulation of the databases, which seek to provide the tools necessary to the process of analysis and effective search for solutions to the model of the electrical system studied. The software has been structured to facilitate an ongoing evolution and inclusion of new features and functionality. Keywords: Power System, Object Oriented, Graphical User Interface / Mestrado / Energia Eletrica / Mestre em Engenharia Elétrica
388

Desenvolvimento de um sistema para avaliação dos desvios da coluna vertebral em três dimensões- Spine3D / Development of a new three-dimensional system for evaluating spine deformities - Spine3D

Thomaz Nogueira Burke 21 May 2013 (has links)
Introdução: Escoliose é definida como um complexo desalinhamento tridimensional da coluna vertebral na qual há o aparecimento de uma curvatura lateral no plano coronal, normalmente associada com o aplanamento das curvaturas no plano sagital e rotação vertebral em seu eixo longitudinal. O padrão ouro para seu diagnóstico e monitoramento é a medida radiográfica pelo ângulo de Cobb, que possui como principais desvantagens o fato de não avaliar as curvas em três dimensões e expor os pacientes, principalmente os que estão em fase de crescimento, a consideráveis doses de radiação. Objetivo: Esta pesquisa teve como objetivo principal o desenvolvimento de um sistema de avaliação e representação da coluna vertebral em três dimensões, capaz de possibilitar ao usuário a análise quantitativa dos desvios da coluna vertebral nos planos coronal, sagital e transverso. São objetivos secundários estimar a precisão e a exatidão do sistema proposto, e avaliar a sua aplicabilidade a partir de um estudo de caso. Métodos: O Sistema desenvolvido, denominado de Spine 3D, é baseado no uso do controle de videogame Wiimote para rastrear LEDs infravermelhos que compõe um marcador multiplanar em uma cena, e tem como objetivo reconstruir em um ambiente 3D a pose das vértebras torácicas e lombares e, com isto, obter as variáveis angulares e de translação que descrevem seu alinhamento nos planos coronal, sagital e transverso. O experimento para a avaliação da exatidão e precisão consistiu em posicionar o marcador a 50 centímetros de distância do Wiimote, ambos alinhados em um mesmo plano. O marcador foi transladado em intervalos de 10 mm e rotacionado em 5°, 10°, 20° e 30° nos eixos X, Y e Z, com auxílio de um inclinômetro e um paquímetro digital. Os dados foram coletados a 100 Hz. A exatidão foi calculada comparando os resultados encontrados pelo sistema com os valores obtidos pelo inclinômetro e paquímetro digital. A precisão foi calculada a partir do desvio-padrão dos pontos coletados. Resultados: A exatidão média do sistema foi de 0,90° e 0,78mm. A precisão média do sistema foi de 0,62° e 0,42mm. Para o ângulo de Cobb na escoliose, a exatidão e precisão foram de 1,46° e 1,72°, e para a cifose torácica e lordose lombar, a exatidão e precisão foram de 2,82° e 1,60°, respectivamente. Durante o estudo de caso, a diferença entre o Spine3D e a radiografia, para o ângulo de Cobb foi de 1,3° para escoliose curva torácica e 2,24° para escoliose curva lombar. Conclusão: O sistema mostrou ter boa exatidão e precisão após os testes de validação interna. O estudo de caso sugere que a técnica possui potencial para aplicação clínica na avaliação dos desvios da coluna vertebral em três dimensões. / Introduction: Scoliosis is a complex three-dimensional malalignment of the vertebral column in which there is lateral curvature of the spine in the coronal plane, usually associated with flattening of the contour in the sagittal plane and rotation of the vertebrae around their longitudinal axes. Routine clinical analysis of the scoliotic spine is currently based on the radiographic measurement of Cobb angle. Although considered as the golden standard, it has the disadvantage of look over only the two-dimensional aspects of the curve and, over a period of years, the patient will be exposed to a large dose of radiation, especially in early onset curves. There is evidence that this may increase the risk of developing several types of cancer. Objective: This paper describes a new low-cost and radiation-free system to evaluate the three-dimensional aspects of scoliosis, and its concurrent validation in terms of accuracy and precision. Its applicability was tested in a case study. Methods: The system, named Spine3D, has the ability to track an infrared beacon equipped with LEDs (IRLED) to reconstruct the pose of each lumbar and thoracic vertebra in 3D space. The system also calculates the spine alignment to the coronal, sagittal and transverse planes. For accuracy and precision evaluation of the system, the beacon was positioned 50 cm away from the IR camera (Wiimote), aligned with in the same plane. The beacon was increasingly translated at 10 mm intervals and rotated at 5°, 10°, 20° and 30° on all three axes. The capture achieved rate was of 100 Hz roughly and accuracy was calculated comparing the results of Spine3D, digital paquimeter and digital inclinometer. Precision was considered as the standard deviation of the collected data. Results: The average accuracy obtained for the system is 0.90° and 0.78 mm, with precision of 0.62° and 0.42 mm. For Cobb angle calculations in coronal plane, accuracy and precision were of 1.46° and 1.72°, and for thoracic kyphosis and lumbar lordosis, the values were 2.82° and 1.60°. During the case study, the difference between the Cobb angle measured by Spine3D and radiography was 1.3° for thoracic scoliosis curve and 2.24° for lumbar scoliosis curve. Conclusion: The Spine3D system offers a non-invasive and radiation-free alternative for three-dimensional spine assessment and representation. Future studies should indicate if the measures taken by the Spine3D system have correlation with the Cobb angle measured by other methods.
389

EpiDoc®: plataforma de comunicação em epidemiologia / EpiDoc® : a communication platform in epidemiology

Humberto Reynales Londoño 01 April 2008 (has links)
Introdução: EpiDoc® é um modelo para transferência de conhecimento na área de metodologia da pesquisa. Está baseado no conceito de estratégias de colaboração para a aprendizagem (learning communities ou communities of practice) mediante a união de esforços entre os interesses comuns de um grupo de profissionais. O objetivo deste projeto é desenvolver uma plataforma de comunicação para a transferência de conhecimento e desenvolvimento de competências em uma comunidade de prática de metodologia da pesquisa em saúde. Métodos:. A plataforma de comunicação está desenvolvido com a tecnologia de páginas de servidor ASP (Active Server Pages), interagindo com uma base de dados Microsoft SQL Server 2000. Na fase da avaliação, tomou-se uma amostra de 38 pessoas para responder a pesquisa de opinião de 84 perguntas que inclui as diferentes áreas a avaliar como são os conteúdos, a tecnologia, o ambiente educativo, os problemas e dificuldades, assim como os elementos positivos do processo de aprendizagem. Resultados: A plataforma divide-se basicamente em 2 zonas, uma pública e outra privada, e pode ser observado em inglês, espanhol e português. A plataforma conta com os seguintes módulos: Controle de acesso; biblioteca; administração de cursos; apresentações; assinatura de usuários para distribuição eletrônica de materiais educativos; correio eletrônico e correio massivo; salas virtuais de Chat; foros de discussão; manipulação de documentos entre tutores e usuários; aplicação de provas de avaliação para os usuários; geração automática de certificados; métricas e relatórios de atividades. A avaliação foi feita com uma amostra de 38 estudantes de um curso de Epidemiologia Clínica. O 94 % dos estudantes ficaram satisfeitos ou muito satisfeitos com a experiência de aprendizagem. O 95% considerou que tinha adquirido novas habilidades de comunicação e colaboração ao estudar por meio virtual. Para o 76% facilitou-se o trabalho em equipe, assim como para o 84% melhorou a capacidade para aprender dos demais, interagindo entre outros. Conclusão: EpiDoc® utiliza uma plataforma ou mecanismo de comunicação baseado em tecnologias modernas por meio de Internet. Os resultados em geral confirmam que as novas tecnologias aplicadas ao processo de ensino da metodologia da pesquisa são bem recebidas por parte dos estudantes. Há uma atitude positiva em relação ao fato de incorporar esta modalidade em seus cursos regulares. / Introduction: Epidoc® is a model for the transference of knowledge in the field or research methodology. It is based on the concept of collaboration strategies for learning (learning communities or communities of practice) by the joint effort among common interests of a professional group. The objective of this project is to develop a communication platform for the knowledge transference and developing of competences in a community which practices the Research Methodology in the health field. Methods: The communication platform was designed with a technology of ASP (Active Server Pages) interacting with a Microsoft SQL Server 2000 data base. For the evaluation phase a sample of 38 people was taken to answer an opinion questionnaire of 84 questions which include the different areas to evaluate such as the contents, the technology, the learning environment, the problems and the difficulties and also all the positive elements of the learning process. Results: The communication platform is divided in two zones, one public and one private and is available in three different languajes: English, Spanish and Portuguese. The platform contains the following modules: access control; library; courses administration; presentations; subscriptions for electronic distribution of educational materials; electronic and massive mail; Chat virtual rooms; discussion forums; documents management between users and mentors; implementation of evaluation test for the users; generation of certificates; metrics and activities reports. The evaluation was implemented with a sample of 38 students from a Clinical Epidemiology course. 94% of the students were satisfied or very satisfied by the learning experience. 95% considered that they had acquired new communication and collaboration abilities at studying by the virtual way. For 76% the group work was eased as for 84% noticed an improve capacity to learn form the others, interacting among others. Conclusion: EpiDoc uses a platform of communication based in modern technologies by theinternet. In general, the results confirm that the new technologies applied to the teaching process of research methodology are very welcomed by the students. They have a positive attitude toward the fact of incorporating this modality in their regular courses.
390

Avaliação da utilização de um programa computadorizado para aplicação da escala de Basso, Beattie e Bresnahan (BBB) em ratos Wistar / Evaluation of the use of a computer software for the application of the Basso, Beattie e Bresnahan (BBB) scale in Wistar rats

Alessandra Eira Iague Sleiman Molina 31 October 2012 (has links)
A escala de Basso, Beattie e Brenahan (BBB) serve para avaliação da recuperação locomotora em ratos com lesão medular nos níveis torácicos. É baseada em critérios observacionais da movimentação do animal durante a marcha e atribui uma pontuação de 0 a 21 segundo a gravidade da lesão neurológica. Menor pontuação, maior gravidade. Tal escala pode ser aplicada de modo livre, em que o pesquisador observa o rato e emite uma nota; pode ser aplicada de modo dirigido, em que o pesquisador segue uma sequência de perguntas pré-estabelecidas e atribui uma nota; ou de modo automatizado, em que as respostas à mesma sequência de perguntas são fornecidas a um programa de computador, que emitirá uma nota com o grau de lesão. Trabalhos já publicados mostram que existe variação interobservadores na aplicação desta escala. O objetivo do trabalho foi avaliar a utilização de um programa de computador para auxiliar os pesquisadores na atribuição de notas na aplicação da escala BBB e comparar as notas obtidas por esses pesquisadores quando o fazem de modo livre, dirigido e utilizando um programa automatizado. Para testar o programa, foi realizada lesão medular padronizada em 12 ratos Wistar utilizando-se metodologia da New York University - Impactor System. Na sequência, filmou-se a movimentação dos ratos para aplicação da escala BBB no 28o dia. Foram convocados oito pesquisadores do laboratório de estudos de trauma raquimedular da Universidade de São Paulo. As avaliações de dois chefes do laboratório, com 15 anos de experiência na aplicação da escala, foram consideradas o padrão ouro na avaliação. Seis pesquisadores receberam as filmagens dos ratos com o objetivo de aplicar a escala BBB nas três metologias: livre, dirigida e automatizada, com 15 dias de intervalo entre as avaliações. A ordem da aplicação da escala foi randomizada entre os pesquisadores e a ordem dos ratos, nas análises das filmagens, também foi variada para evitar a memorização por parte dos pesquisadores. Os resultados interavaliadores e entre os métodos mostraram-se similares. A comparação dos resultados entre os seis pesquisadores e os dois considerados padrão ouro mostrou diferença para dois pesquisadores nos métodos livre e dirigido. Concluiu-se que a aplicação da escala BBB pelo modo automatizado não apresentou diferença em relação ao padrão ouro para todos os avaliadores, e que, quando feita pelo modo livre, dirigido e automatizado, não apresentou diferença em relação ao padrão ouro, considerando a média dos avaliadores em cada método / The BBB is an evaluation scale in the locomotor recovery in rats presenting thoracic medullar injury. It is based on observation criteria of animal movement while walking, and a provides a score ranging from 0 to 21 according to the severity of the neurological injury. The lower the score, the higher the severity. Such scale can be applied by using a free system of analysis, that is, when the researcher observes the rat and gives a score. The evaluation can also be made in an assisted way, where the researcher follows a series of pre-established questions and then gives a score,or in an automated manner, where the answers to the same sequence of questions are provided to a computer program, which provides a score with the degree of injury. Published research shows that there is a interobserver variation in the scale application The objective of the present study was to evaluate the use of a computer program for helping researchers in the scoring by the BBB scale, and comparing these grades obtained when they are making a free evaluation, in an assisted evaluation and while using a computer program. In order to test the program, a standardized spinal cord injury was performed in 12 Wistar rats in accordance with the methodology proposed by the New York University - Impactor System. Then, the rat movements were filmed on the 28th day, so that the Basso, Bettie and Bresnahan scale could be applied. Eight researchers working in the spinal cord injury laboratory in the University of São Paulo were invited for the study. Two heads of the laboratory, with a fifteen year-experience in the usage and application of the scale, were considered to be gold standard in the evaluation. Six researchers were shown the films and asked to apply the BBB scale by the three methodologies: free, assisted and computerized, with a fifteen-day interval between evaluations. The scale application order was randomized among the researchers as well as the order of the rats in the film analysis so as to avoid memorization on the part of the researchers. Results proved to be similar between researchers and methods. The comparison of results among the six researchers and the gold standard ones showed discrepancies in two of the researchers in the free and assisted methods of analysis. It was concluded that the BBB scale evaluated through the computer method was no different than the gold standard for all the researchers. When the analysis was performed using the free, assisted and computer-assisted methods, no difference was observed in relation to the gold standard considering the mean values in each method

Page generated in 0.0824 seconds