Spelling suggestions: "subject:"bancos dde dados"" "subject:"bancos dee dados""
1 |
Metodologia para subamostragem em grandes bancos de dados amostrais complexos para realização de testes de hipótesesAlmeida Junior, Gilberto Rezende de 27 October 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-12-18T17:47:08Z
No. of bitstreams: 1
2017_GilbertoRezendedeAlmeidaJunior.pdf: 993090 bytes, checksum: 4e9a2f4bb4f74621692a969251deeba3 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-02-15T18:47:41Z (GMT) No. of bitstreams: 1
2017_GilbertoRezendedeAlmeidaJunior.pdf: 993090 bytes, checksum: 4e9a2f4bb4f74621692a969251deeba3 (MD5) / Made available in DSpace on 2018-02-15T18:47:41Z (GMT). No. of bitstreams: 1
2017_GilbertoRezendedeAlmeidaJunior.pdf: 993090 bytes, checksum: 4e9a2f4bb4f74621692a969251deeba3 (MD5)
Previous issue date: 2018-02-15 / A amostragem é uma metodologia utilizada para auxiliar a seleção de amostras e estimação de parâmetros com base nessas amostras. Usualmente é discutido o tamanho mínimo que deve se tomar em uma amostra. No entanto, ao utilizar amostras grandes, podem surgir problemas na realização de testes de hipóteses pois, segundo a propriedade da consistência dos estimadores, ao aumentar o tamanho amostral a variância do estimador diminui, podendo in uenciar no valor da estatística do teste de hipótese. O problema se agrava em amostras complexas. Neste trabalho é proposto uma técnica de subamostragem para ser aplicada nessas grandes amostras, assim como o algoritmo para fazer uma subamostragem de maneira correta. Um teste para o efeito do tamanho amostral na signi cância de teste de hipóteses também é apresentado. Foram simulados dados em que os resultados mostraram a importância dessa veri cação. Também foi feita uma aplicação utilizando os dados da Pesquisa Nacional por Amostra de Domicílios - PNAD, e os resultados mostraram uma mudança na inferência quando o tamanho da amostra foi reduzido. / Sampling is a statistical methodology used to aid the sample selection and the parameters estimation based on this sample. It is common to discuss the minimum size to be taken in a sample, however, when using large samples, problems may arise in performing hypothesis tests because, according to the consistency property of the estimators, by increasing the sample size the variance of the estimator decreases. This may in uence the value of the hypothesis test statistic. The problem is exacerbated in complex samples. In this work we propose a subsampling technique to be applied in large samples, as well as an algorithm to conduct resampling. A test for the e ect of sample size on the signi cance of the hypothesis test is also presented. Simulated data have been used and the results showed the importance of this method. In addition, in application to the Brazilian National Household Sample Survey (PNAD) showed that the inference was changed when the sample size was reduced.
|
2 |
Arquitetura de integração entre bancos de dados : uma abordagem aplicada à Secretaria de Estado de Educação do Distrito Federal - SEEDFFernandes, Eduardo Pires 12 December 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2018-07-10T21:59:00Z
No. of bitstreams: 1
2017_EduardoPiresFernandes.pdf: 1664572 bytes, checksum: f0a2de4b715c76c0a0cfbdd5c47c8db9 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-07-14T19:19:54Z (GMT) No. of bitstreams: 1
2017_EduardoPiresFernandes.pdf: 1664572 bytes, checksum: f0a2de4b715c76c0a0cfbdd5c47c8db9 (MD5) / Made available in DSpace on 2018-07-14T19:19:54Z (GMT). No. of bitstreams: 1
2017_EduardoPiresFernandes.pdf: 1664572 bytes, checksum: f0a2de4b715c76c0a0cfbdd5c47c8db9 (MD5)
Previous issue date: 2018-07-10 / Com o crescimento no número de dados e de sistemas nos últimos anos, a integração entre banco de dados heterogêneos, algo não trivial, porém de suma importância, deve ser feito em empresas que apresentam diversos sistemas de software disponíveis e que queiram uma integração entre os mesmos. Neste contexto, esta dissertação propõe uma solução para o problema que consiste na definição de mecanismos que permitam integrar Sistemas Gerenciadores de Bancos de Dados Relacionais (SGBDR) com um NoSQL que aceite comandos SQL por meio de ontologia, com ênfase no ecossistema educacional da Secretaria de Estado de Educação do Distrito Federal (SEEDF). A arquitetura de integração entre bancos de dados heterogêneos proposta, integra SGBD a NoSQL, a partir de ontologias. Para permitir tal integração, foram desenvolvidas primitivas de mapeamento entre os termos ontológicos, além da sincronização de dados de acordo com regras estabelecidas. O mecanismo proposto foi validado por meio de um middleware, denominado Noach, que realizou a integração entre banco de dados heterogêneos do ecossistema computacional da SEEDF. / With the growth in the number of data and systems in the last years, the integration between heterogeneous databases, which is not trivial but of great importance, should be done in companies that have several software systems available and wanting an integration between them. In this context, this dissertation proposes a solution to the problem that consists in the definition of mechanisms that allow integrating Relational Database Management Systems (RDBMS) with a NoSQL that accepts SQL commands through ontology, with emphasis on the educational ecosystem of the Secretariat of State of Education of the Federal District (SSEFD). The proposed heterogeneous database integration architecture integrates DBMS with NoSQL, based on ontologies. In order to allow such integration, mapping primitives were developed between the ontological terms, in addition to the synchronization of data according to established rules. The proposed mechanism was validated through a textit middleware, called Noach, which performed the integration between heterogeneous databases of the SSEFD computational ecosystem.
|
3 |
Uma abordagem baseada em contexto para reescrita de consultas a bancos de dados relacionaisMACIEL, Paulo Roberto Moreira 27 February 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2015-05-19T15:14:50Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Tese Paulo Maciel v3.3 final Biblioteca.pdf: 3364568 bytes, checksum: 5c97efe4cdbd3ac39e94ac9c4c1c9ebf (MD5) / Made available in DSpace on 2015-05-19T15:14:50Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Tese Paulo Maciel v3.3 final Biblioteca.pdf: 3364568 bytes, checksum: 5c97efe4cdbd3ac39e94ac9c4c1c9ebf (MD5)
Previous issue date: 2015-02-27 / Com o desenvolvimento das tecnologias para Internet e sua utilização em larga escala, as consultas a bancos de dados não são mais realizadas como anos atrás, quando os usuários tinham um perfil conhecido e realizavam suas consultas em computadores de mesa, por meio de aplicações dedicadas. Atualmente, com a descentralização e o aumento massivo da distribuição de informação, há uma grande variedade de fatores presentes durante uma consulta, que podem influenciar na adequação e relevância das respostas fornecidas ao usuário, tais como: preferências pessoais, localização (e.g. casa, trabalho, hotel, avião), clima (e.g. chuvoso, ensolarado) ou dispositivo usado. Esses fatores usualmente não são levados em consideração, quando da realização de consultas a bancos de dados.
O conjunto de condições e influências relevantes que tornam uma situação única e compreensível é entendido como contexto. Elementos contextuais são definidos como qualquer dado, informação ou conhecimento que permite caracterizar uma entidade em um domínio. O conjunto dos elementos contextuais instanciados, necessários para apoiar uma tarefa em um dado momento, denota o contexto.
Embora adotem tecnologia madura e consagrada, os Sistemas Gerenciadores de Bancos de Dados relacionais não possuem os recursos necessários para responder consultas considerando o contexto. Este trabalho propõe uma abordagem denominada Texere, para que consultas a bancos de dados relacionais sejam dotadas de sensibilidade a contexto. A hipótese concebida para a solução do problema baseia-se na análise dos elementos contextuais associados a uma consulta (oriundos da aplicação, do dispositivo, do usuário e dos ambientes físico e computacional) e na utilização de diretivas de reescrita, capazes de alterar consultas convencionais, para que retornem respostas mais adequadas ao contexto sob as quais foram realizadas e mais relevantes para o usuário.
Para avaliação do trabalho, experimentos foram realizados com um protótipo. A análise dos resultados produzidos pelo julgamento de usuários evidencia a viabilidade da abordagem e ganhos na adequação ao contexto e relevância das respostas produzidas pelas consultas reescritas. / With the development of Internet technologies and their large scale usage, database queries have evolved from situations where users had a known profile and submitted their queries on desktop computers through dedicated applications to situations with decentralized and massive information distribution. However, there are a variety of factors which may influence the appropriateness and relevance of the answers provided to users' queries, such as: personal preferences, location (e.g. home, work, hotel, plane), climate (e.g. rainy, sunny), and device used. These factors are not usually taken into consideration when submitting queries to databases. This set of relevant conditions and influences that make a situation unique and understandable is called context. Contextual elements are defined as any data, information or knowledge that allows us to characterize an entity in a domain. The set of instantiated contextual elements needed to support a task at a given time denotes the context. Although database management systems (DBMS) are a mature, widely known technology and are considered to be the most efficient systems to manage and respond to structured data queries, they currently lack the resources needed to meet the demand for information that is adapted to the current context. This work proposes an approach named Texere, that endows conventional relational database queries with context sensitivity. The solution is based on the analysis of contextual elements associated with a query (arising from the application, device, user and physical and computational environments) and the use of directives for query rewriting able to alter queries devoid of context awareness to others whose answers are more appropriate to the context in which they were made and thus are more relevant to the user. For the evaluation of this work, experiments were performed with a prototype. The results produced by the users’ evaluation points to the feasibility of the approach and gains in adaptation to the context and relevance of the answers produced by the rewritten queries.
|
4 |
SKDQL: Uma linguagem declarativa de especificação de consultas e processos para descoberta de conhecimento em bancos de dados e sua implementaçãoPereira dos Santos Silva, Marcelino January 2002 (has links)
Made available in DSpace on 2014-06-12T15:59:24Z (GMT). No. of bitstreams: 2
arquivo5095_1.pdf: 666231 bytes, checksum: 6f519135fd58b1147e646d9a791953df (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2002 / As ferramentas e técnicas empregadas para análise automática e inteligente dos
imensos repositórios de dados de indústrias, governos, corporações e institutos científicos são
os objetos tratados pelo campo emergente da Descoberta de Conhecimento em Bancos de
Dados (Knowledge Discovery in Databases - KDD). No contexto do MATRIKS, um
framework para KDD, SKDQL (Structured Knowledge Discovery Query Language) é a
proposta de uma linguagem de consulta estruturada para KDD, seguindo os padrões de SQL
dentro de uma arquitetura aberta e extensível, suportando a heterogeneidade, iteratividade e
interatividade dos processos de KDD, com recursos para acesso, limpeza, transformação,
derivação e mineração de dados, bem como manipulação de conhecimento
|
5 |
Uma abordagem para publicação de visões RDF de dados relacionais / One approach to publishing RDF views of relational dataTeixeira Neto, Luis Eufrasio January 2014 (has links)
TEIXEIRA NETO, L. E. Uma abordagem para publicação de visões RDF de dados relacionais. 2014. 97 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T19:39:51Z
No. of bitstreams: 1
2014_dis_letneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Approved for entry into archive by Nirlange Queiroz(nirlange@gmail.com) on 2015-06-09T14:15:58Z (GMT) No. of bitstreams: 1
2014_dis_letneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Made available in DSpace on 2015-06-09T14:15:58Z (GMT). No. of bitstreams: 1
2014_dis_letneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5)
Previous issue date: 2014 / The Linked Data initiative brought new opportunities for building the next generation of Web applications. However, the full potential of linked data depends on how easy it is to transform data stored in conventional, relational databases into RDF triples. Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called R2RML, to specify customized mappings between relational schemas and target RDF vocabularies. However, the generation of customized R2RML mappings is not an easy task. Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to terms from a RDF schema; (b) a process to support the publication of relational data into RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to formalize the mappings between relational schemas and RDF schemas. Views are created to publish data from a database to a new structure or schema. The definition of RDF views over relational data allows providing this data in terms of an OWL ontology structure without having to change the database schema. In this work, we propose a three-tier architecture – database, SQL views and RDF views – where the SQL views layer maps the database concepts into RDF terms. The creation of this intermediate layer facilitates the generation of R2RML mappings and prevents that changes in the data layer result in changes on R2RML mappings. Additionally, we define a three-step process to generate the RDF views of relational data. First, the user defines the schema of the relational database and the target OWL ontology. Then, he defines correspondence assertions that formally specify the relational database in terms of the target ontology. Using these assertions, an exported ontology is generated automatically. The second step produces the SQL views that perform the mapping defined by the assertions and a R2RML mapping between these views and the exported ontology. This dissertation describes a formalization of the correspondence assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a tool that supports the entire process and a case study to validate the results obtained. / A iniciativa Linked Data trouxe novas oportunidades para a construção da nova geração de aplicações Web. Entretanto, a utilização das melhores práticas estabelecidas por este padrão depende de mecanismos que facilitem a transformação dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propôs uma linguagem de mapeamento padrão, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulários RDF. No entanto, a geração de mapeamentos R2RML não é uma tarefa fácil. É imperativo, então, definir: (a) uma solução para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicação dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicação deste processo. Assertivas de correspondência são propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. Visões são usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A definição de visões RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessário alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em três camadas – de dados, de visões SQL e de visões RDF – onde a camada de visões SQL mapeia os conceitos da camada de dados nos termos da camada de visões RDF. A criação desta camada intermediária de visões facilita a geração dos mapeamentos R2RML e evita que alterações na camada de dados impliquem em alterações destes mapeamentos. Adicionalmente, definimos um processo em três etapas para geração das visões RDF. Na primeira etapa, o usuário define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondência que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada é gerada automaticamente. O segundo passo produz um esquema de visões SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visões para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visões RDF são publicadas em um SPARQL endpoint. Neste trabalho são detalhados as assertivas de correspondência, a arquitetura, o processo, os algoritmos necessários, uma ferramenta que suporta o processo e um estudo de caso para validação dos resultados obtidos.
|
6 |
BenchXtend: uma ferramenta para medir a elasticidade de sistemas de banco de dados em nuvem / BenchXtend: a tool to measure the elasticity of cloud database systemsRodrigo FÃlix de Almeida 27 September 2013 (has links)
nÃo hà / In recent years, cloud computing has attracted attention from industry and academic world, becoming increasingly common to find cases of cloud adoption by companies and research institutions in the literature. Since the majority of cloud applications are data-driven, database management systems powering these applications are critical components in the application stack. Many novel database systems have emerged to fulfill new requirements of high-scalable cloud applications. Those systems have remarkable differences when compared to traditional relational databases. Moreover, since elasticity is a key feature in cloud computing and it is a differential of this computing paradigm, novel database systems must also provide elasticity. Altogether with the emergence of these new systems, the need of evaluating them comes up.
Traditional benchmark tools for database systems are not sufficient to analyze some specificities of these systems in a cloud. Thus, new benchmark tools are required to properly evaluate such cloud systems and also to measure how elastic they are. Before actually benchmarking and measuring elasticity of cloud database systems, it becomes necessary to define a model with elasticity metrics that makes sense both for consumers and providers.
In this work we present BenchXtend, a tool, that extends Yahoo! Cloud Serving Benchmark (YCSB), to benchmark cloud database systems and to measure elasticity of such systems. As part of this work, we propose a model with metrics from consumer and provider perspectives to measure elasticity. Finally, we evaluated our solution by performing experiments and we verified that our tool could properly vary the load during execution, as expected, and that our elasticity model could capture the elasticity differences between the studied scenarios. / Nos Ãltimos anos, a computaÃÃo em nuvem tem atraÃdo a atenÃÃo tanto da indÃstria quanto do meio acadÃmico, tornando-se comum encontrar na literatura relatos de adoÃÃo de computaÃÃo em nuvem por parte de empresas e instituiÃÃes acadÃmicas. Uma vez que a maioria das aplicaÃÃes em nuvem sÃo orientadas a dados, sistemas de gerenciamento de bancos de dados sÃo componentes crÃticos das aplicaÃÃes. Novos sistemas de bancos de dados surgiram para atender a novos requisitos de aplicaÃÃes altamente escalÃveis em nuvem. Esses sistemas possuem diferenÃas marcantes quando comparados com sistemas relacionais tradicionais. AlÃm disso, uma vez que elasticidade à um recurso chave da computaÃÃo em nuvem e um diferencial desse paradigma, esses novos sistemas de bancos de dados tambÃm devem prover elasticidade. Juntamente com o surgimento desses novos sistemas, surge tambÃm a necessidade de avaliÃ-los. Ferramentas tradicionais de benchmark para bancos de dados nÃo sÃo suficientes para analisar as especificidades desses sistemas em nuvem. Assim, novas ferramentas de benchmark sÃo necessÃrias para avaliar adequadamente esses sistemas em nuvem e como medir o quÃo elÃsticos eles sÃo. Antes de avaliar e calcular a elasticidade desses sistemas, se faz necessÃria a definiÃÃo de um modelo com mÃtricas de elasticidade que faÃam sentido tanto para consumidores quanto provedores. Nesse trabalho apresentamos BenchXtend, uma ferramenta, que estende o Yahoo! Cloud Serving Benchmark (YCSB), para benchmarking e mediÃÃo de elasticidade de bancos de dados em nuvem. Como parte desse trabalho, propomos um modelo com mÃtricas a partir das perspectivas dos consumidores e dos provedores para medir a elasticidade. Por fim, avaliamos nossa soluÃÃo atravÃs de experimentos e verificamos que nossa ferramenta foi capaz de variar a carga de trabalho, como esperado, e que nossas mÃtricas conseguiram capturar a variaÃÃo de elasticidade nos cenÃrios analisados.
|
7 |
Significado e importância do microsistema jurídico consumerista : a questão do superendividamento, perspectiva e soluçõesCAMPOS, Idma Maria Rebouças January 2003 (has links)
Made available in DSpace on 2014-06-12T17:21:20Z (GMT). No. of bitstreams: 2
arquivo5573_1.pdf: 578398 bytes, checksum: c3e50d4626a4be04fff6b3376691790c (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2003 / A dissertação tem por finalidade advertir a sociedade de consumo do perigo decorrente do superendividamento, evidenciando mecanismos a obstar sua materialização na sociedade. O Código de Defesa do Consumidor define a abrangência dos termos intrínsecos da relação consumerista, pontuando suas correspondestes relações, além de tratar da evolução histórica sofrida no último século.
Os princípios constitucionais limitam a ação ou omissão dos agentes do poder econômico para resguardar o consumidor; asseguram o dever governamental frente à vulnerabilidade do consumidor, aplicando o princípio da informação e de boa fé aos contraentes, com acesso à justiça e a preservação da privacidade dos consumidores.
O crédito nas relações de consumo é a fonte de uma melhor qualidade de vida e de endividamento, apesar do seguro de crédito.Constantemente, há inserção dos nomes dos consumidores nos arquivos de consumo resultante da insuficiência financeira, ocorrendo ainda, inserção indevida ou abusiva, fato que comprova que os arquivos de consumo não se submetem às disposições do CDC, acarretando danos ao consumidor de ordem patrimonial ou extrapatrimonial e o dever de indenizar. Para o acesso as informações ou correção dos dados, o remédio constitucional é o habeas data.
O ordenamento jurídico carece de normas consumerista ampliadas em conjugação com a revisão da Lei 9099/97, evitando-se perpetuar o endividamento dos consumidores brasileiros: o superendividamento. O processo de endividamento é evolutivo demandando medidas para proteger a sociedade e o mercado de consumo
|
8 |
Pregão eletrônicoCopalo, Edilane Del Rio January 2002 (has links)
Made available in DSpace on 2014-06-12T17:22:09Z (GMT). No. of bitstreams: 2
arquivo6030_1.pdf: 574217 bytes, checksum: e8cf5269cd7b6e2e0ac6c37339c09ad6 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2002 / A dissertação tem por finalidade advertir a sociedade de consumo do perigo decorrente do superendividamento, evidenciando mecanismos a obstar sua materialização na sociedade. O Código de Defesa do Consumidor define a abrangência dos termos intrínsecos da relação consumerista, pontuando suas correspondestes relações, além de tratar da evolução histórica sofrida no último século.
Os princípios constitucionais limitam a ação ou omissão dos agentes do poder econômico para resguardar o consumidor; asseguram o dever governamental frente à vulnerabilidade do consumidor, aplicando o princípio da informação e de boa fé aos contraentes, com acesso à justiça e a preservação da privacidade dos consumidores.
O crédito nas relações de consumo é a fonte de uma melhor qualidade de vida e de endividamento, apesar do seguro de crédito.Constantemente, há inserção dos nomes dos consumidores nos arquivos de consumo resultante da insuficiência financeira, ocorrendo ainda, inserção indevida ou abusiva, fato que comprova que os arquivos de consumo não se submetem às disposições do CDC, acarretando danos ao consumidor de ordem patrimonial ou extrapatrimonial e o dever de indenizar. Para o acesso as informações ou correção dos dados, o remédio constitucional é o habeas data.
O ordenamento jurídico carece de normas consumerista ampliadas em conjugação com a revisão da Lei 9099/97, evitando-se perpetuar o endividamento dos consumidores brasileiros: o superendividamento. O processo de endividamento é evolutivo demandando medidas para proteger a sociedade e o mercado de consumo
|
9 |
Utilização de câmera por infravermelho para avaliação de diferentes patologias em clima tropical e uso conjunto de sistemas de banco de dados para detecção de câncer de mamaCosta de Araújo, Marcus 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T17:35:45Z (GMT). No. of bitstreams: 2
arquivo2067_1.pdf: 4714055 bytes, checksum: 7f623fa229cc342aa827d1eaf9b4c783 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A inspeção termográfica é uma técnica não-destrutiva e sem uso de radiações ionizantes,
fator este que sem dúvida é sua grande vantagem para aplicação na medicina. Utiliza a
radiação infravermelha emitida pelos corpos para medir temperaturas ou observar padrões
diferenciais de distribuição de temperatura. Dentre as aplicações da termografia na
medicina, destaca-se sua utilização na detecção de tumores mamários, nos quais as células
produzem substâncias responsáveis pela criação de uma nova vascularização ao seu redor.
Os novos vasos elevam a perfusão sangüínea, causando um aumento da temperatura no
local, caracterizando-se assim como um teste fisiológico, enquanto que outros métodos
tradicionais de diagnóstico, tais como ultrassom e mamografia, representam normalmente
testes anatômicos. As imagens estão sendo obtidas com a utilização de uma câmera de
infravermelho FLIR S45, adquirida pelo Departamento de Engenharia Mecânica (DEMEC)
da Universidade Federal de Pernambuco, através do Edital FINEP 2003. Os exames são
efetuados em pacientes do Hospital das Clínicas da UFPE. A aquisição de imagens
termográficas de mama, de pessoas com suspeita de câncer ou outros distúrbios de mama,
bem como o desenvolvimento de um portal eletrônico capaz de cruzar e de manipular dados
e imagens termográficas desses pacientes, como um prontuário eletrônico de paciente, é o
objetivo deste trabalho. O banco de dados (BD) desenvolvido funciona sobre um software
escrito em PHP (Hipertext Preprocessor), uma linguagem não compilada, embutido em
código HTML, usando bases de dados MySQL (sistema de gerenciamento de banco de
dados que utiliza o padrão SQL). O sistema permite o acesso a usuários identificados por
senha. Cada usuário mantém um nível de privilégio, garantindo apenas a visualização dos
dados cadastrados ou permitindo o cadastro, alteração ou remoção de pacientes já
cadastrados. Há ainda uma área para pesquisa de pacientes já cadastrados, na qual pode-se
realizar a busca por pacientes como o resultado da combinação de variáveis de interesse.
Cada paciente é visualizado em janelas independentes, facilitando a observação conjunta de
vários pacientes. Os dados dos pacientes já cadastrados podem ser exportados para arquivos
em formato Excel, o que permite a emissão de relatórios, gráficos e análises estatísticas
sobre esses dados
|
10 |
[en] A NON-INTRUSIVE APPROACH FOR AUTOMATED PHYSICAL DESIGN TUNING / [pt] UMA ABORDAGEM NÃO-INTRUSIVA PARA A MANUTENÇÃO AUTOMÁTICA DO PROJETO FÍSICO DE BANCOS DE DADOSJOSÉ MARIA DA SILVA MONTEIRO FILHO 14 January 2009 (has links)
[pt] O projeto físico de bancos de dados cumpre um papel
primordial para
assegurar um desempenho adequado. Atualmente, existe uma
grande quantidade
de trabalhos e ferramentas na área de seleção automática do
projeto
físico. Tais ferramentas, contudo, adotam uma abordagem
offline na solução
do problema e transferem para o DBA, dentre outras tarefas,
a decisão
de executar ou não as recomendações sugeridas. Todavia, em
ambientes
dinâmicos, com consultas ad-hoc, torna-se bastante complexo
identificar
configurações de projeto físico que sejam adequadas.
Recentemente, algumas
iniciativas apresentaram descrições de protótipos que
implementam funcionalidades
de sintonia automática. Estes trabalhos, porém, adotam uma
abordagem intrusiva e funcionam apenas com um SGBD
específico. Neste
trabalho, propõe-se uma abordagem não-intrusiva para a
manutenção automática e on-the-fly do projeto físico de
bancos de dados. A abordagem proposta
é completamente desacoplada do código do SGBD, pode ser
utilizada
com qualquer SGBD e executada sem intervenção humana. A
estratégia
adotada baseia-se em heurísticas que executam continuamente
e, sempre
que necessário, modificam o projeto físico corrente,
reagindo a alterações na
carga de trabalho. Para comprovar a viabilidade das idéias
apresentadas, a
abordagem proposta foi instanciada para solucionar dois
importantes problemas
relacionados ao projeto físico: a manutenção automática de
índices e de clusters alternativos de dados. / [en] The physical design of a database plays a critical role in
performance.
There has been considerable work on automated physical
design tuning for
database systems. Existing solutions require offline
invocations of the tuning
tool and depend on DBAs identifying representative workloads
manually.
However, in dynamic environments involving various ad-hoc
queries it is
difficult to identify potentially useful physical design in
advance. Recently,
a few initiatives present brief descriptions of prototypes
that address some
aspects of online physical tuning. Nevertheless, these
references work in an
intrusive manner and work only with a specific DBMS. In this
work, we propose
a non intrusive approach to automated and on-the-fly
physical design
problems, in order to speed up processing of subsequent
queries. Specifically,
we design algorithms that are always-on and continuously
modify the current
physical design, reacting to changes in the query workload.
To prove
the viability of the presented ideas, the proposed approach
was instantiated
to solve two major problems related to the database physical
design:
indexing and alternative data clusters automatic maintenance.
|
Page generated in 0.0763 seconds