• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19624
  • 3369
  • 2417
  • 2007
  • 1551
  • 1432
  • 877
  • 406
  • 390
  • 359
  • 297
  • 233
  • 208
  • 208
  • 208
  • Tagged with
  • 38107
  • 12456
  • 9252
  • 7104
  • 6698
  • 5896
  • 5284
  • 5197
  • 4723
  • 3453
  • 3302
  • 2810
  • 2725
  • 2538
  • 2116
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
891

An Adaptable iOS Mobile Application for Mobile Data Collection

January 2016 (has links)
abstract: Mobile data collection (MDC) applications have been growing in the last decade especially in the field of education and research. Although many MDC applications are available, almost all of them are tailor-made for a very specific task in a very specific field (i.e. health, traffic, weather forecasts, …etc.). Since the main users of these apps are researchers, physicians or generally data collectors, it can be extremely challenging for them to make adjustments or modifications to these applications given that they have limited or no technical background in coding. Another common issue with MDC applications is that its functionalities are limited only to data collection and storing. Other functionalities such as data visualizations, data sharing, data synchronization and/or data updating are rarely found in MDC apps. This thesis tries to solve the problems mentioned above by adding the following two enhancements: (a) the ability for data collectors to customize their own applications based on the project they’re working on, (b) and introducing new tools that would help manage the collected data. This will be achieved by creating a Java standalone application where data collectors can use to design their own mobile apps in a userfriendly Graphical User Interface (GUI). Once the app has been completely designed using the Java tool, a new iOS mobile application would be automatically generated based on the user’s input. By using this tool, researchers now are able to create mobile applications that are completely tailored to their needs, in addition to enjoying new features such as visualize and analyze data, synchronize data to the remote database, share data with other data collectors and update existing data. / Dissertation/Thesis / Masters Thesis Computer Science 2016
892

Implementacao do sistema ERP no computador IBM-1620-mod. 2 de 40 K .Servico de calculo analogico e digital

CACERES AGUILERA, CIBAR 09 October 2014 (has links)
Made available in DSpace on 2014-10-09T12:24:08Z (GMT). No. of bitstreams: 0 / Made available in DSpace on 2014-10-09T14:07:43Z (GMT). No. of bitstreams: 1 00286.pdf: 1887691 bytes, checksum: 0b35d44eb4faaffcd6b6560579c5fcbf (MD5) / Dissertacao (Mestrado) / IEA/D / Escola Politecnica, Universidade de Sao Paulo - POLI/USP
893

Uma análise da aplicabilidade do Data Warehouse no comércio eletrônico, enfatizando o CRM analítico / An analysis of applicability of Data Warehouse in electronic commerce, with emphasis on the analytical CRM

Fabricia Vancim Frachone Neves 22 November 2001 (has links)
Atualmente, um dos grandes desafios enfrentados pelas empresas que operam no comércio eletrônico é de garantir a fidelidade de seus clientes. Devido a este fato, as empresas têm se preocupado cada vez mais na utilização de uma ferramenta capaz de integrar os dados distribuídos em banco de dados operacionais, para transformar suas informações em diferencial competitivo. Desta forma, a aplicabilidade da ferramenta Data Warehouse no comércio eletrônico, juntamente com a estratégia do Customer Relationship Management (CRM), surge como um elemento central da empresa focada no cliente, pois é capaz de fornecer informações competitivas e essenciais aos responsáveis pelas decisões estratégicas. Assim, através da ferramenta Data Warehouse sustentada pela estratégia de CRM, toda a \"sequência de cliques\" realizada pelos clientes do comércio eletrônico é armazenada historicamente, possibilitando a retenção destes com a empresa. Portanto o objetivo do presente trabalho é analisar a aplicabilidade do Data Warehouse no comércio eletrônico, visando o CRM analítico. O trabalho contribui também para mostrar às empresas que a integração entre tecnologia de informação (Data Warehouse) e marketing (CRM) em um ambiente Web oferece diferentes oportunidades de coleta de dados a respeito dos clientes, promovendo desta forma a personalização de produtos e serviços, garantindo maior lealdade destes com a empresa e, conseqüentemente, maior lucratividade. / Currently, one of the greatest challenges faced by companies that operate in the electronic commerce is to guarantee their customers\' fidelity. Due to this fact, these companies have been considering the employment of tools capable of integrating distributed data onto operational databases in order to transform information into a competitive and distinguishing asset. Thus, the applicability of Data Warehouse tools in Electronic Commerce, together with the strategy of Customer Relationship Management (CRM), appear as a key element for customer-oriented companies, since they are capable of supplying the ones responsible for strategic decisions with competitive and essential information . Hence, through Data Warehouse tools supported by the CRM strategy, all the \"clickstream\" carried out by the customers in electronic commerce, can be historically stored, making it possible, through further analyses, to identify potential customers, as well as keeping them with the company. The objective of the present research is to consider the applicability of Data Warehouse in Electronic Commerce, aiming at the analytical CRM. The research also shows companies that Data Warehouse, when combined with the CRM in a Web environment, offers alternative means for customer-related data collection, thus, providing the customization of products and services, reassuring clients\' loyalty to the company and, consequently, greater profits.
894

Uma metodologia para definição de requisitos em sistemas Data Warehouse

Rilston Silva Paim, Fabio January 2003 (has links)
Made available in DSpace on 2014-06-12T15:59:00Z (GMT). No. of bitstreams: 2 arquivo4810_1.pdf: 1354721 bytes, checksum: 80cc730731ef2ea75b86b00b305d1841 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / No início da década de 90, a tecnologia de Data Warehouse floresceu como uma solução à necessidade crescente de informações integradas pela gerência estratégica das organizações, como parte de processos decisórios de alto nível. A partir da análise histórica de dados operacionais, sistemas data warehouse possibilitam a descoberta de tendências de negócio que se traduzem em aumento da vantagem competitiva com a definição de processos operacionais mais precisos. Devido à complexidade e o volume de dados processados, o desenvolvimento de aplicações data warehouse tem sido fortemente influenciado, ao longo dos anos, pela organização física do banco de dados adotado e por outros aspectos implementacionais que têm como principal objetivo assegurar performance e integridade à aplicação. Contudo, apesar dos inegáveis benefícios, essa abordagem tem como conseqüência direta uma especificação de requisitos pobre, que não reflete de forma completa e adequada as necessidades do usuário. Em decorrência disso, soluções de suporte à decisão apresentam freqüentemente efeitos colaterais tais como altos índices de erro, escalabilidade limitada, baixa qualidade da informação agregada e um distanciamento acentuado entre desenvolvedores e usuários, contribuindo para o fracasso de inúmeros projetos. Esse cenário sugere a utilização de técnicas de Engenharia de Requisitos em suporte a uma especificação de requisitos de alta qualidade em sistemas data warehouse. Nesse sentido, uma abordagem metodológica é requerida para garantir (i) a correta identificação dos requisitos do usuário, (ii) um projeto de sistema afinado e (iii) a definição de um modelo dimensional que preencha todas as necessidades de análise estratégica dos usuários finais. Essa dissertação propõe uma metodologia para definição de requisitos em sistemas data warehouse. A abordagem adotada está centrada em um modelo de fases que direciona o processo de especificação dos requisitos, enquanto propõe um conjunto de artefatos para a coleta dos aspectos funcionais, não-funcionais e multidimensionais que integram a solicitação de serviço. Aliada a técnicas eficientes para gerenciamento de requisitos, a metodologia serve como um instrumento para rastrear as mudanças sofridas pelos requisitos ao longo do projeto, e assim possibilitar que ambas as visões dimensional e de requisitos estejam sempre ajustadas às necessidades do usuário. Os princípios que servem como pano de fundo à metodologia foram concebidos ao longo do desenvolvimento de um projeto data warehouse de larga escala conduzido pelo SERPRO, uma empresa do Ministério da Fazenda, em sua maior unidade de negócio, a SUNAT Superintendência de Negócios e Administração Tributária. Um estudo de caso ao final da dissertação apresenta as contribuições do uso da metodologia para o referido projeto
895

Um metamodelo e uma ferramenta case para data warehouse geográfico

Leão da Fonseca, Rafael 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:00:21Z (GMT). No. of bitstreams: 2 arquivo6380_1.pdf: 3396677 bytes, checksum: 2d600761b22792027904b0049e44268d (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / O processo de tomada de decisões pode envolver o uso de ferramentas como DW (Data Warehouse), OLAP (On-Line Analytical Processing) e SIG (Sistemas de Informações Geográficas). Diversos trabalhos têm o objetivo de integrar essas tecnologias. No entanto, a especificação de modelos dimensionais e geográficos para DWG (Data Warehouses Geográficos) ainda é um ponto em aberto. Nesse contexto, este trabalho propõe o metamodelo GeoDWM (Geographical Data Warehouse Metamodel) e a ferramenta GeoDWCASE (Geographical DW CASE) que, respectivamente, especifica e implementa um conjunto de metadados, regras OCL, estereótipos e pictogramas. GeoDWM é especificado em UML e se baseia nos padrões do CWM e do OGC e na proposta de GeoDWFrame para especificar como diferentes tipos de dimensões e de medidas podem ser organizadas para modelar o esquema dimensional e geográfico de um DWG. Para validar o metamodelo proposto, e tornar o seu uso mais prático, foi desenvolvida GeoDWCASE que é uma ferramenta aberta, extensível, independente de plataforma e que foi implementada sobre a plataforma Eclipse e o framework GMF. GeoDWCASE ajuda o projetista a construir o esquema dimensional e geográfico do DWG oferecendo uma rica interface de modelagem e mecanismos para a validação de consistência do esquema que está sendo desenvolvido. Além disso, é possível gerar automaticamente o esquema lógico do DWG para implementação em um sistema gerenciador de banco de dados com extensão espacial. Para demonstrar a aplicabilidade de GeoDWM e GeoDWCASE, foram realizados dois estudos de caso que contemplam a modelagem de DWG para dados meteorológicos e dados agrícolas
896

Implementacao do sistema ERP no computador IBM-1620-mod. 2 de 40 K .Servico de calculo analogico e digital

CACERES AGUILERA, CIBAR 09 October 2014 (has links)
Made available in DSpace on 2014-10-09T12:24:08Z (GMT). No. of bitstreams: 0 / Made available in DSpace on 2014-10-09T14:07:43Z (GMT). No. of bitstreams: 1 00286.pdf: 1887691 bytes, checksum: 0b35d44eb4faaffcd6b6560579c5fcbf (MD5) / Dissertacao (Mestrado) / IEA/D / Escola Politecnica, Universidade de Sao Paulo - POLI/USP
897

"Aplicação de técnicas de data mining em logs de servidores web"

Ramon Chiara 09 May 2003 (has links)
Com o advento da Internet, as empresas puderam mostrar-se para o mundo. A possibilidade de colocar um negócio na World Wide Web (WWW) criou um novo tipo de dado que as empresas podem utilizar para melhorar ainda mais seu conhecimento sobre o mercado: a sequência de cliques que um usuário efetua em um site. Esse dado pode ser armazenado em uma espécie de Data Warehouse para ser analisado com técnicas de descoberta de conhecimento em bases de dados. Assim, há a necessidade de se realizar pesquisas para mostrar como retirar conhecimento a partir dessas sequências de cliques. Neste trabalho são discutidas e analisadas algumas das técnicas utilizadas para atingir esse objetivo. é proposta uma ferramenta onde os dados dessas sequências de cliques são mapeadas para o formato atributo-valor utilizado pelo Sistema Discover, um sistema sendo desenvolvindo em nosso Laboratório para o planejamento e execução de experimentos relacionados aos algoritmos de aprendizado utilizados durante a fase de Mineração de Dados do processo de descoberta de conhecimento em bases de dados. Ainda, é proposta a utilização do sistema de Programação Lógica Indutiva chamado Progol para extrair conhecimento relacional das sessões de sequências de cliques que caracterizam a interação de usuários com as páginas visitadas no site. Experimentos iniciais com a utilização de uma sequência de cliques real foram realizados usando Progol e algumas das facilidades já implementadas pelo Sistema Discover.
898

Instembare erbiumgedoteerde optiesevesellasers met nou lynwydtes

Badenhorst, Christiaan Gerhardus 21 August 2012 (has links)
M.Ing. / Data communications have increased tremendously over the last few years. Therefore, it is important to use the potential large bandwidth of the existing optical fibre network to satisfy the demand. Wavelength-division multiplexing (WDM) enables one to have several channels on a single fibre while the system remains transparent for the bit rate and format of the signals on the individual channels. Erbium doped fibre lasers have narrow linewidths and the wavelength is tunable over the optical amplifier wavelength range. They are therefore very attractive sources to test WDM systems. The exciting possibility of simultaneous laser action at predetermined wavelengths X,, X2, ... , X, makes the fibre laser a very important source for WDM systems. In this work we concentrated on two ring laser configurations. The first one uses a tunable Fabry-Perot filter, whereas the second one has a polarization filter for tunability and wavelength selection. The Fabry-Perot filter had a finesse of 167, a bandwidth of 30.0 GHz and a free spectral range of 5010 GHz. This laser configuration was tunable from 1546.52 nm to 1584.04 nm (37.52 nm) and the linewidth was less than 0.037 nm. The polarization filter comprised a 31X-polarization controller, two XJ4-polarization controllers, a X/2-polarization controller for wavelength tunability and a polarizer. This ring laser was tunable from 1559.59 nm to 1568.69 nm (9.1 nm) and had a linewidth of less than 0.037 nm. We obtained a slope efficiency of 17.6 % for the erbium doped fibre laser. For the first time computer software was developed that makes use of the Poincare sphere and Jones matrices to present the state of polarization and the operation of a polarization filter visually. The power spectra of both ring laser configurations were determined as a function of the output coupling using signal flow diagrams and the power equations for the ring laser. According to our knowledge, the influence of the output coupler on the finesse and the linewidth of the fibre ring laser has been studied for the first time.
899

Internal control and systems software, including analysis of MVS/XA SP 2.2

Boessenkool, Marnix Guillaume 27 March 2014 (has links)
M.Com. (Computer Auditing) / In this chapter the actual topic will be presented. The reason for this study will be motivated with reference to current audit developments. This chapter will also highlight the constraints of the study. This is necessary to clearly identify the application of this essay in practice. The reader of this essay should be able to identify the relevance and possible applications of this study after having read chapter 1. In the past few years substantial attention has been given to auditing aspects of system software. The way system software operates and interacts, and the impact on the auditability of computer based systems were issues discussed in the EDP auditing environment. Auditors are now concentrating on using technology to assist in the performance of their audit procedures. The reasons for this are multiple, but for the purposes of this document only the major reasons will be highlighted.
900

The ecological interaction between habitat composition, habitat quality and abundance of some wild ungulates in India

Mathur, Vinod B. January 1991 (has links)
The ecological interrelationships between the habitat composition, habitat quality and abundance of three wild ungulate species, viz. Chital (Axis axis), Sambar (Cervus unicolor) and Nilgai (Boselaphus tragocamelus) were investigated in three National Parks in India. The study sites differ in the structure and composition of the habitat and also occur along a rainfall gradient. The study incorporates a new approach of using forest compartments for gathering baseline ecological data. The significance of these compartments in serving as ecological bench-marks for monitoring habitat condition has been demonstrated. Toe-point transect, a modification of the point-intercept method has been extensively used to obtain rapid, reliable but coarse ecological data on ground and aerial cover and the results obtained are compared with those from the visual estimation method. Motorcycle and foot-based line transects have been used to obtain data on animal abundance. The significance of the results indicating that motorcycle transects are an efficient and reliable means of estimating the abundance of Chital and Nilgai, while foot transects provide more reliable estimates of Sambar abundance is discussed. Data on 22 habitat variables were gathered in the summer and winter seasons from all the study sites and were statistically analysed using Generalized Linear Interactive Modelling (GLIM) procedures. The habitat requirements of the three ungulate species have been determined, which enhance our understanding of the complex herbivore-habitat relationships. Analyses of habitat selection, central to the understanding of animal ecology, has been done to understand the mechanisms which permit species to co-exist. The results indicate that the three species are ecologically separated and that resource partitioning is achieved primarily by habitat partitioning. Sambar, a forest ungulate, largely occurs in the forest-woodland habitats; Chital, a species of the habitat 'edge', occurs in the woodland-grassland habitats while Nilgai prefers the miscellaneousopen and grassland habitats. The three ungulate species together contribute more than 78% to the total wild ungulate biomass. This is presumably because these species are by nature generalist and are able to exploit the unpredictable resources more efficiently than specialist species. The differential biomass/rainfall relationships of three species observed in the study have been explained on the basis of habitat requirements and feeding strategies adopted by these species. The ecological biogeography of the three ungulate species has been discussed and their ecological equivalents in Africa have been examined. The significance of above in enhancing our understanding of evolutionary biology is discussed. The study has shown that habitat composition is an all-important factor in large herbivore biology and that animal density may be used as an indicator of habitat quality.

Page generated in 0.22 seconds