• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 2
  • Tagged with
  • 70
  • 70
  • 37
  • 28
  • 14
  • 14
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Metodologia para subamostragem em grandes bancos de dados amostrais complexos para realização de testes de hipóteses

Almeida Junior, Gilberto Rezende de 27 October 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-12-18T17:47:08Z No. of bitstreams: 1 2017_GilbertoRezendedeAlmeidaJunior.pdf: 993090 bytes, checksum: 4e9a2f4bb4f74621692a969251deeba3 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-02-15T18:47:41Z (GMT) No. of bitstreams: 1 2017_GilbertoRezendedeAlmeidaJunior.pdf: 993090 bytes, checksum: 4e9a2f4bb4f74621692a969251deeba3 (MD5) / Made available in DSpace on 2018-02-15T18:47:41Z (GMT). No. of bitstreams: 1 2017_GilbertoRezendedeAlmeidaJunior.pdf: 993090 bytes, checksum: 4e9a2f4bb4f74621692a969251deeba3 (MD5) Previous issue date: 2018-02-15 / A amostragem é uma metodologia utilizada para auxiliar a seleção de amostras e estimação de parâmetros com base nessas amostras. Usualmente é discutido o tamanho mínimo que deve se tomar em uma amostra. No entanto, ao utilizar amostras grandes, podem surgir problemas na realização de testes de hipóteses pois, segundo a propriedade da consistência dos estimadores, ao aumentar o tamanho amostral a variância do estimador diminui, podendo in uenciar no valor da estatística do teste de hipótese. O problema se agrava em amostras complexas. Neste trabalho é proposto uma técnica de subamostragem para ser aplicada nessas grandes amostras, assim como o algoritmo para fazer uma subamostragem de maneira correta. Um teste para o efeito do tamanho amostral na signi cância de teste de hipóteses também é apresentado. Foram simulados dados em que os resultados mostraram a importância dessa veri cação. Também foi feita uma aplicação utilizando os dados da Pesquisa Nacional por Amostra de Domicílios - PNAD, e os resultados mostraram uma mudança na inferência quando o tamanho da amostra foi reduzido. / Sampling is a statistical methodology used to aid the sample selection and the parameters estimation based on this sample. It is common to discuss the minimum size to be taken in a sample, however, when using large samples, problems may arise in performing hypothesis tests because, according to the consistency property of the estimators, by increasing the sample size the variance of the estimator decreases. This may in uence the value of the hypothesis test statistic. The problem is exacerbated in complex samples. In this work we propose a subsampling technique to be applied in large samples, as well as an algorithm to conduct resampling. A test for the e ect of sample size on the signi cance of the hypothesis test is also presented. Simulated data have been used and the results showed the importance of this method. In addition, in application to the Brazilian National Household Sample Survey (PNAD) showed that the inference was changed when the sample size was reduced.
2

Arquitetura de integração entre bancos de dados : uma abordagem aplicada à Secretaria de Estado de Educação do Distrito Federal - SEEDF

Fernandes, Eduardo Pires 12 December 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2018-07-10T21:59:00Z No. of bitstreams: 1 2017_EduardoPiresFernandes.pdf: 1664572 bytes, checksum: f0a2de4b715c76c0a0cfbdd5c47c8db9 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-07-14T19:19:54Z (GMT) No. of bitstreams: 1 2017_EduardoPiresFernandes.pdf: 1664572 bytes, checksum: f0a2de4b715c76c0a0cfbdd5c47c8db9 (MD5) / Made available in DSpace on 2018-07-14T19:19:54Z (GMT). No. of bitstreams: 1 2017_EduardoPiresFernandes.pdf: 1664572 bytes, checksum: f0a2de4b715c76c0a0cfbdd5c47c8db9 (MD5) Previous issue date: 2018-07-10 / Com o crescimento no número de dados e de sistemas nos últimos anos, a integração entre banco de dados heterogêneos, algo não trivial, porém de suma importância, deve ser feito em empresas que apresentam diversos sistemas de software disponíveis e que queiram uma integração entre os mesmos. Neste contexto, esta dissertação propõe uma solução para o problema que consiste na definição de mecanismos que permitam integrar Sistemas Gerenciadores de Bancos de Dados Relacionais (SGBDR) com um NoSQL que aceite comandos SQL por meio de ontologia, com ênfase no ecossistema educacional da Secretaria de Estado de Educação do Distrito Federal (SEEDF). A arquitetura de integração entre bancos de dados heterogêneos proposta, integra SGBD a NoSQL, a partir de ontologias. Para permitir tal integração, foram desenvolvidas primitivas de mapeamento entre os termos ontológicos, além da sincronização de dados de acordo com regras estabelecidas. O mecanismo proposto foi validado por meio de um middleware, denominado Noach, que realizou a integração entre banco de dados heterogêneos do ecossistema computacional da SEEDF. / With the growth in the number of data and systems in the last years, the integration between heterogeneous databases, which is not trivial but of great importance, should be done in companies that have several software systems available and wanting an integration between them. In this context, this dissertation proposes a solution to the problem that consists in the definition of mechanisms that allow integrating Relational Database Management Systems (RDBMS) with a NoSQL that accepts SQL commands through ontology, with emphasis on the educational ecosystem of the Secretariat of State of Education of the Federal District (SSEFD). The proposed heterogeneous database integration architecture integrates DBMS with NoSQL, based on ontologies. In order to allow such integration, mapping primitives were developed between the ontological terms, in addition to the synchronization of data according to established rules. The proposed mechanism was validated through a textit middleware, called Noach, which performed the integration between heterogeneous databases of the SSEFD computational ecosystem.
3

Uma abordagem baseada em contexto para reescrita de consultas a bancos de dados relacionais

MACIEL, Paulo Roberto Moreira 27 February 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2015-05-19T15:14:50Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Tese Paulo Maciel v3.3 final Biblioteca.pdf: 3364568 bytes, checksum: 5c97efe4cdbd3ac39e94ac9c4c1c9ebf (MD5) / Made available in DSpace on 2015-05-19T15:14:50Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Tese Paulo Maciel v3.3 final Biblioteca.pdf: 3364568 bytes, checksum: 5c97efe4cdbd3ac39e94ac9c4c1c9ebf (MD5) Previous issue date: 2015-02-27 / Com o desenvolvimento das tecnologias para Internet e sua utilização em larga escala, as consultas a bancos de dados não são mais realizadas como anos atrás, quando os usuários tinham um perfil conhecido e realizavam suas consultas em computadores de mesa, por meio de aplicações dedicadas. Atualmente, com a descentralização e o aumento massivo da distribuição de informação, há uma grande variedade de fatores presentes durante uma consulta, que podem influenciar na adequação e relevância das respostas fornecidas ao usuário, tais como: preferências pessoais, localização (e.g. casa, trabalho, hotel, avião), clima (e.g. chuvoso, ensolarado) ou dispositivo usado. Esses fatores usualmente não são levados em consideração, quando da realização de consultas a bancos de dados. O conjunto de condições e influências relevantes que tornam uma situação única e compreensível é entendido como contexto. Elementos contextuais são definidos como qualquer dado, informação ou conhecimento que permite caracterizar uma entidade em um domínio. O conjunto dos elementos contextuais instanciados, necessários para apoiar uma tarefa em um dado momento, denota o contexto. Embora adotem tecnologia madura e consagrada, os Sistemas Gerenciadores de Bancos de Dados relacionais não possuem os recursos necessários para responder consultas considerando o contexto. Este trabalho propõe uma abordagem denominada Texere, para que consultas a bancos de dados relacionais sejam dotadas de sensibilidade a contexto. A hipótese concebida para a solução do problema baseia-se na análise dos elementos contextuais associados a uma consulta (oriundos da aplicação, do dispositivo, do usuário e dos ambientes físico e computacional) e na utilização de diretivas de reescrita, capazes de alterar consultas convencionais, para que retornem respostas mais adequadas ao contexto sob as quais foram realizadas e mais relevantes para o usuário. Para avaliação do trabalho, experimentos foram realizados com um protótipo. A análise dos resultados produzidos pelo julgamento de usuários evidencia a viabilidade da abordagem e ganhos na adequação ao contexto e relevância das respostas produzidas pelas consultas reescritas. / With the development of Internet technologies and their large scale usage, database queries have evolved from situations where users had a known profile and submitted their queries on desktop computers through dedicated applications to situations with decentralized and massive information distribution. However, there are a variety of factors which may influence the appropriateness and relevance of the answers provided to users' queries, such as: personal preferences, location (e.g. home, work, hotel, plane), climate (e.g. rainy, sunny), and device used. These factors are not usually taken into consideration when submitting queries to databases. This set of relevant conditions and influences that make a situation unique and understandable is called context. Contextual elements are defined as any data, information or knowledge that allows us to characterize an entity in a domain. The set of instantiated contextual elements needed to support a task at a given time denotes the context. Although database management systems (DBMS) are a mature, widely known technology and are considered to be the most efficient systems to manage and respond to structured data queries, they currently lack the resources needed to meet the demand for information that is adapted to the current context. This work proposes an approach named Texere, that endows conventional relational database queries with context sensitivity. The solution is based on the analysis of contextual elements associated with a query (arising from the application, device, user and physical and computational environments) and the use of directives for query rewriting able to alter queries devoid of context awareness to others whose answers are more appropriate to the context in which they were made and thus are more relevant to the user. For the evaluation of this work, experiments were performed with a prototype. The results produced by the users’ evaluation points to the feasibility of the approach and gains in adaptation to the context and relevance of the answers produced by the rewritten queries.
4

SKDQL: Uma linguagem declarativa de especificação de consultas e processos para descoberta de conhecimento em bancos de dados e sua implementação

Pereira dos Santos Silva, Marcelino January 2002 (has links)
Made available in DSpace on 2014-06-12T15:59:24Z (GMT). No. of bitstreams: 2 arquivo5095_1.pdf: 666231 bytes, checksum: 6f519135fd58b1147e646d9a791953df (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2002 / As ferramentas e técnicas empregadas para análise automática e inteligente dos imensos repositórios de dados de indústrias, governos, corporações e institutos científicos são os objetos tratados pelo campo emergente da Descoberta de Conhecimento em Bancos de Dados (Knowledge Discovery in Databases - KDD). No contexto do MATRIKS, um framework para KDD, SKDQL (Structured Knowledge Discovery Query Language) é a proposta de uma linguagem de consulta estruturada para KDD, seguindo os padrões de SQL dentro de uma arquitetura aberta e extensível, suportando a heterogeneidade, iteratividade e interatividade dos processos de KDD, com recursos para acesso, limpeza, transformação, derivação e mineração de dados, bem como manipulação de conhecimento
5

Uma abordagem para publicação de visões RDF de dados relacionais / One approach to publishing RDF views of relational data

Teixeira Neto, Luis Eufrasio January 2014 (has links)
TEIXEIRA NETO, L. E. Uma abordagem para publicação de visões RDF de dados relacionais. 2014. 97 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T19:39:51Z No. of bitstreams: 1 2014_dis_letneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Approved for entry into archive by Nirlange Queiroz(nirlange@gmail.com) on 2015-06-09T14:15:58Z (GMT) No. of bitstreams: 1 2014_dis_letneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Made available in DSpace on 2015-06-09T14:15:58Z (GMT). No. of bitstreams: 1 2014_dis_letneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) Previous issue date: 2014 / The Linked Data initiative brought new opportunities for building the next generation of Web applications. However, the full potential of linked data depends on how easy it is to transform data stored in conventional, relational databases into RDF triples. Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called R2RML, to specify customized mappings between relational schemas and target RDF vocabularies. However, the generation of customized R2RML mappings is not an easy task. Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to terms from a RDF schema; (b) a process to support the publication of relational data into RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to formalize the mappings between relational schemas and RDF schemas. Views are created to publish data from a database to a new structure or schema. The definition of RDF views over relational data allows providing this data in terms of an OWL ontology structure without having to change the database schema. In this work, we propose a three-tier architecture – database, SQL views and RDF views – where the SQL views layer maps the database concepts into RDF terms. The creation of this intermediate layer facilitates the generation of R2RML mappings and prevents that changes in the data layer result in changes on R2RML mappings. Additionally, we define a three-step process to generate the RDF views of relational data. First, the user defines the schema of the relational database and the target OWL ontology. Then, he defines correspondence assertions that formally specify the relational database in terms of the target ontology. Using these assertions, an exported ontology is generated automatically. The second step produces the SQL views that perform the mapping defined by the assertions and a R2RML mapping between these views and the exported ontology. This dissertation describes a formalization of the correspondence assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a tool that supports the entire process and a case study to validate the results obtained. / A iniciativa Linked Data trouxe novas oportunidades para a construção da nova geração de aplicações Web. Entretanto, a utilização das melhores práticas estabelecidas por este padrão depende de mecanismos que facilitem a transformação dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propôs uma linguagem de mapeamento padrão, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulários RDF. No entanto, a geração de mapeamentos R2RML não é uma tarefa fácil. É imperativo, então, definir: (a) uma solução para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicação dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicação deste processo. Assertivas de correspondência são propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. Visões são usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A definição de visões RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessário alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em três camadas – de dados, de visões SQL e de visões RDF – onde a camada de visões SQL mapeia os conceitos da camada de dados nos termos da camada de visões RDF. A criação desta camada intermediária de visões facilita a geração dos mapeamentos R2RML e evita que alterações na camada de dados impliquem em alterações destes mapeamentos. Adicionalmente, definimos um processo em três etapas para geração das visões RDF. Na primeira etapa, o usuário define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondência que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada é gerada automaticamente. O segundo passo produz um esquema de visões SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visões para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visões RDF são publicadas em um SPARQL endpoint. Neste trabalho são detalhados as assertivas de correspondência, a arquitetura, o processo, os algoritmos necessários, uma ferramenta que suporta o processo e um estudo de caso para validação dos resultados obtidos.
6

BenchXtend: uma ferramenta para medir a elasticidade de sistemas de banco de dados em nuvem / BenchXtend: a tool to measure the elasticity of cloud database systems

Rodrigo FÃlix de Almeida 27 September 2013 (has links)
nÃo hà / In recent years, cloud computing has attracted attention from industry and academic world, becoming increasingly common to find cases of cloud adoption by companies and research institutions in the literature. Since the majority of cloud applications are data-driven, database management systems powering these applications are critical components in the application stack. Many novel database systems have emerged to fulfill new requirements of high-scalable cloud applications. Those systems have remarkable differences when compared to traditional relational databases. Moreover, since elasticity is a key feature in cloud computing and it is a differential of this computing paradigm, novel database systems must also provide elasticity. Altogether with the emergence of these new systems, the need of evaluating them comes up. Traditional benchmark tools for database systems are not sufficient to analyze some specificities of these systems in a cloud. Thus, new benchmark tools are required to properly evaluate such cloud systems and also to measure how elastic they are. Before actually benchmarking and measuring elasticity of cloud database systems, it becomes necessary to define a model with elasticity metrics that makes sense both for consumers and providers. In this work we present BenchXtend, a tool, that extends Yahoo! Cloud Serving Benchmark (YCSB), to benchmark cloud database systems and to measure elasticity of such systems. As part of this work, we propose a model with metrics from consumer and provider perspectives to measure elasticity. Finally, we evaluated our solution by performing experiments and we verified that our tool could properly vary the load during execution, as expected, and that our elasticity model could capture the elasticity differences between the studied scenarios. / Nos Ãltimos anos, a computaÃÃo em nuvem tem atraÃdo a atenÃÃo tanto da indÃstria quanto do meio acadÃmico, tornando-se comum encontrar na literatura relatos de adoÃÃo de computaÃÃo em nuvem por parte de empresas e instituiÃÃes acadÃmicas. Uma vez que a maioria das aplicaÃÃes em nuvem sÃo orientadas a dados, sistemas de gerenciamento de bancos de dados sÃo componentes crÃticos das aplicaÃÃes. Novos sistemas de bancos de dados surgiram para atender a novos requisitos de aplicaÃÃes altamente escalÃveis em nuvem. Esses sistemas possuem diferenÃas marcantes quando comparados com sistemas relacionais tradicionais. AlÃm disso, uma vez que elasticidade à um recurso chave da computaÃÃo em nuvem e um diferencial desse paradigma, esses novos sistemas de bancos de dados tambÃm devem prover elasticidade. Juntamente com o surgimento desses novos sistemas, surge tambÃm a necessidade de avaliÃ-los. Ferramentas tradicionais de benchmark para bancos de dados nÃo sÃo suficientes para analisar as especificidades desses sistemas em nuvem. Assim, novas ferramentas de benchmark sÃo necessÃrias para avaliar adequadamente esses sistemas em nuvem e como medir o quÃo elÃsticos eles sÃo. Antes de avaliar e calcular a elasticidade desses sistemas, se faz necessÃria a definiÃÃo de um modelo com mÃtricas de elasticidade que faÃam sentido tanto para consumidores quanto provedores. Nesse trabalho apresentamos BenchXtend, uma ferramenta, que estende o Yahoo! Cloud Serving Benchmark (YCSB), para benchmarking e mediÃÃo de elasticidade de bancos de dados em nuvem. Como parte desse trabalho, propomos um modelo com mÃtricas a partir das perspectivas dos consumidores e dos provedores para medir a elasticidade. Por fim, avaliamos nossa soluÃÃo atravÃs de experimentos e verificamos que nossa ferramenta foi capaz de variar a carga de trabalho, como esperado, e que nossas mÃtricas conseguiram capturar a variaÃÃo de elasticidade nos cenÃrios analisados.
7

Significado e importância do microsistema jurídico consumerista : a questão do superendividamento, perspectiva e soluções

CAMPOS, Idma Maria Rebouças January 2003 (has links)
Made available in DSpace on 2014-06-12T17:21:20Z (GMT). No. of bitstreams: 2 arquivo5573_1.pdf: 578398 bytes, checksum: c3e50d4626a4be04fff6b3376691790c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / A dissertação tem por finalidade advertir a sociedade de consumo do perigo decorrente do superendividamento, evidenciando mecanismos a obstar sua materialização na sociedade. O Código de Defesa do Consumidor define a abrangência dos termos intrínsecos da relação consumerista, pontuando suas correspondestes relações, além de tratar da evolução histórica sofrida no último século. Os princípios constitucionais limitam a ação ou omissão dos agentes do poder econômico para resguardar o consumidor; asseguram o dever governamental frente à vulnerabilidade do consumidor, aplicando o princípio da informação e de boa fé aos contraentes, com acesso à justiça e a preservação da privacidade dos consumidores. O crédito nas relações de consumo é a fonte de uma melhor qualidade de vida e de endividamento, apesar do seguro de crédito.Constantemente, há inserção dos nomes dos consumidores nos arquivos de consumo resultante da insuficiência financeira, ocorrendo ainda, inserção indevida ou abusiva, fato que comprova que os arquivos de consumo não se submetem às disposições do CDC, acarretando danos ao consumidor de ordem patrimonial ou extrapatrimonial e o dever de indenizar. Para o acesso as informações ou correção dos dados, o remédio constitucional é o habeas data. O ordenamento jurídico carece de normas consumerista ampliadas em conjugação com a revisão da Lei 9099/97, evitando-se perpetuar o endividamento dos consumidores brasileiros: o superendividamento. O processo de endividamento é evolutivo demandando medidas para proteger a sociedade e o mercado de consumo
8

Pregão eletrônico

Copalo, Edilane Del Rio January 2002 (has links)
Made available in DSpace on 2014-06-12T17:22:09Z (GMT). No. of bitstreams: 2 arquivo6030_1.pdf: 574217 bytes, checksum: e8cf5269cd7b6e2e0ac6c37339c09ad6 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2002 / A dissertação tem por finalidade advertir a sociedade de consumo do perigo decorrente do superendividamento, evidenciando mecanismos a obstar sua materialização na sociedade. O Código de Defesa do Consumidor define a abrangência dos termos intrínsecos da relação consumerista, pontuando suas correspondestes relações, além de tratar da evolução histórica sofrida no último século. Os princípios constitucionais limitam a ação ou omissão dos agentes do poder econômico para resguardar o consumidor; asseguram o dever governamental frente à vulnerabilidade do consumidor, aplicando o princípio da informação e de boa fé aos contraentes, com acesso à justiça e a preservação da privacidade dos consumidores. O crédito nas relações de consumo é a fonte de uma melhor qualidade de vida e de endividamento, apesar do seguro de crédito.Constantemente, há inserção dos nomes dos consumidores nos arquivos de consumo resultante da insuficiência financeira, ocorrendo ainda, inserção indevida ou abusiva, fato que comprova que os arquivos de consumo não se submetem às disposições do CDC, acarretando danos ao consumidor de ordem patrimonial ou extrapatrimonial e o dever de indenizar. Para o acesso as informações ou correção dos dados, o remédio constitucional é o habeas data. O ordenamento jurídico carece de normas consumerista ampliadas em conjugação com a revisão da Lei 9099/97, evitando-se perpetuar o endividamento dos consumidores brasileiros: o superendividamento. O processo de endividamento é evolutivo demandando medidas para proteger a sociedade e o mercado de consumo
9

Utilização de câmera por infravermelho para avaliação de diferentes patologias em clima tropical e uso conjunto de sistemas de banco de dados para detecção de câncer de mama

Costa de Araújo, Marcus 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T17:35:45Z (GMT). No. of bitstreams: 2 arquivo2067_1.pdf: 4714055 bytes, checksum: 7f623fa229cc342aa827d1eaf9b4c783 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A inspeção termográfica é uma técnica não-destrutiva e sem uso de radiações ionizantes, fator este que sem dúvida é sua grande vantagem para aplicação na medicina. Utiliza a radiação infravermelha emitida pelos corpos para medir temperaturas ou observar padrões diferenciais de distribuição de temperatura. Dentre as aplicações da termografia na medicina, destaca-se sua utilização na detecção de tumores mamários, nos quais as células produzem substâncias responsáveis pela criação de uma nova vascularização ao seu redor. Os novos vasos elevam a perfusão sangüínea, causando um aumento da temperatura no local, caracterizando-se assim como um teste fisiológico, enquanto que outros métodos tradicionais de diagnóstico, tais como ultrassom e mamografia, representam normalmente testes anatômicos. As imagens estão sendo obtidas com a utilização de uma câmera de infravermelho FLIR S45, adquirida pelo Departamento de Engenharia Mecânica (DEMEC) da Universidade Federal de Pernambuco, através do Edital FINEP 2003. Os exames são efetuados em pacientes do Hospital das Clínicas da UFPE. A aquisição de imagens termográficas de mama, de pessoas com suspeita de câncer ou outros distúrbios de mama, bem como o desenvolvimento de um portal eletrônico capaz de cruzar e de manipular dados e imagens termográficas desses pacientes, como um prontuário eletrônico de paciente, é o objetivo deste trabalho. O banco de dados (BD) desenvolvido funciona sobre um software escrito em PHP (Hipertext Preprocessor), uma linguagem não compilada, embutido em código HTML, usando bases de dados MySQL (sistema de gerenciamento de banco de dados que utiliza o padrão SQL). O sistema permite o acesso a usuários identificados por senha. Cada usuário mantém um nível de privilégio, garantindo apenas a visualização dos dados cadastrados ou permitindo o cadastro, alteração ou remoção de pacientes já cadastrados. Há ainda uma área para pesquisa de pacientes já cadastrados, na qual pode-se realizar a busca por pacientes como o resultado da combinação de variáveis de interesse. Cada paciente é visualizado em janelas independentes, facilitando a observação conjunta de vários pacientes. Os dados dos pacientes já cadastrados podem ser exportados para arquivos em formato Excel, o que permite a emissão de relatórios, gráficos e análises estatísticas sobre esses dados
10

[en] A NON-INTRUSIVE APPROACH FOR AUTOMATED PHYSICAL DESIGN TUNING / [pt] UMA ABORDAGEM NÃO-INTRUSIVA PARA A MANUTENÇÃO AUTOMÁTICA DO PROJETO FÍSICO DE BANCOS DE DADOS

JOSÉ MARIA DA SILVA MONTEIRO FILHO 14 January 2009 (has links)
[pt] O projeto físico de bancos de dados cumpre um papel primordial para assegurar um desempenho adequado. Atualmente, existe uma grande quantidade de trabalhos e ferramentas na área de seleção automática do projeto físico. Tais ferramentas, contudo, adotam uma abordagem offline na solução do problema e transferem para o DBA, dentre outras tarefas, a decisão de executar ou não as recomendações sugeridas. Todavia, em ambientes dinâmicos, com consultas ad-hoc, torna-se bastante complexo identificar configurações de projeto físico que sejam adequadas. Recentemente, algumas iniciativas apresentaram descrições de protótipos que implementam funcionalidades de sintonia automática. Estes trabalhos, porém, adotam uma abordagem intrusiva e funcionam apenas com um SGBD específico. Neste trabalho, propõe-se uma abordagem não-intrusiva para a manutenção automática e on-the-fly do projeto físico de bancos de dados. A abordagem proposta é completamente desacoplada do código do SGBD, pode ser utilizada com qualquer SGBD e executada sem intervenção humana. A estratégia adotada baseia-se em heurísticas que executam continuamente e, sempre que necessário, modificam o projeto físico corrente, reagindo a alterações na carga de trabalho. Para comprovar a viabilidade das idéias apresentadas, a abordagem proposta foi instanciada para solucionar dois importantes problemas relacionados ao projeto físico: a manutenção automática de índices e de clusters alternativos de dados. / [en] The physical design of a database plays a critical role in performance. There has been considerable work on automated physical design tuning for database systems. Existing solutions require offline invocations of the tuning tool and depend on DBAs identifying representative workloads manually. However, in dynamic environments involving various ad-hoc queries it is difficult to identify potentially useful physical design in advance. Recently, a few initiatives present brief descriptions of prototypes that address some aspects of online physical tuning. Nevertheless, these references work in an intrusive manner and work only with a specific DBMS. In this work, we propose a non intrusive approach to automated and on-the-fly physical design problems, in order to speed up processing of subsequent queries. Specifically, we design algorithms that are always-on and continuously modify the current physical design, reacting to changes in the query workload. To prove the viability of the presented ideas, the proposed approach was instantiated to solve two major problems related to the database physical design: indexing and alternative data clusters automatic maintenance.

Page generated in 0.0763 seconds