• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 451
  • 82
  • 77
  • 47
  • 41
  • 40
  • 38
  • 20
  • 13
  • 7
  • 7
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 981
  • 597
  • 329
  • 263
  • 138
  • 100
  • 98
  • 70
  • 69
  • 68
  • 68
  • 66
  • 62
  • 61
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Preenchimento automático de formulários na web oculta / Automatically filling in hiddenweb forms

Kantorski, Gustavo Zanini January 2014 (has links)
Muitas informações disponíveis na Web estão armazenadas em bancos de dados on-line e são acessíveis somente após um usuário enviar uma consulta por meio de uma interface de busca. Essas informações estão localizadas em uma parte da Web conhecida como Web Oculta ou Web Profunda e, geralmente, são inacessíveis por máquinas de busca tradicionais. Uma vez que a forma de acessar os dados na Web Oculta se dá por intermédio de submissões de consultas, muitos trabalhos têm focado em como preencher automaticamente campos de formulários. Esta tese apresenta uma metodologia para o preenchimento de formulários na Web Oculta. Além disso, descreve uma categorização das técnicas de preenchimento de formulários existentes no estado da arte de coleta na Web Oculta, produzindo uma análise comparativa entre elas. A solução proposta descreve um método automático para seleção de valores para campos de formulários combinando heurísticas e técnicas de aprendizagem de máquina. Experimentos foram realizados em formulários reais da Web, de vários domínios, e os resultados indicam que a abordagem proposta apresenta desempenho comparável aos obtidos pelas técnicas do estado da arte, sendo inclusive significativamente diferente com base em avaliação estatística. / A large portion of the information on the Web is stored inside online databases. Such information is accessible only after the users submit a query through a search interface. TheWeb portion in which that information is located is called HiddenWeb or DeepWeb, and generally this part is inaccessible by traditional search engines crawlers. Since the only way to access the Hidden Web pages is through the query submissions, many works have focused on how to fill in form fields automatically, aiming at enhancing the amount of distinct information hidden behind Web forms. This thesis presents an automatic solution to value selection for fields in Web forms. The solution combines heuristics and machine learning techniques for improving the selection of values. Furthermore, this proposal also describes a categorization of form filling techniques and a comparative analysis between works in the state of the art. Experiments were conducted on real Web sites and the results indicated that our approach significantly outperforms a baseline method in terms of coverage without additional computational cost.
352

Descoberta de ruído em páginas da web oculta através de uma abordagem de aprendizagem supervisionada / A supervised learning approach for noise discovery in web pages found in the hidden web

Lutz, João Adolfo Froede January 2013 (has links)
Um dos problemas da extração de dados na web é a remoção de ruído existente nas páginas. Esta tarefa busca identificar todos os elementos não informativos em meio ao conteúdo, como por exemplo cabeçalhos, menus ou propagandas. A presença de ruído pode prejudicar seriamente o desempenho de motores de busca e tarefas de mineração de dados na web. Este trabalho aborda o problema da descoberta de ruído em páginas da web oculta, a parte da web que é acessível apenas através do preenchimento de formulários. No processamento da web oculta, a extração de dados geralmente é precedida por uma etapa de inserção de dados, na qual os formulários que dão acesso às páginas ocultas são automaticamente ou semi-automaticamente preenchidos. Durante esta fase, são coleta- dos dados do domínio em questão, como os rótulos e valores dos campos. A proposta deste trabalho é agregar este tipo de dados com informações sintáticas dos elementos que compõem a página. É mostrado empiricamente que esta combinação atinge resultados melhores que uma abordagem baseada apenas em informações sintáticas. / One of the problems of data extraction from web pages is the identification of noise in pages. This task aims at identifying non-informative elements in pages, such as headers, menus, or advertisement. The presence of noise may hinder the performance of search engines and web mining tasks. In this paper we tackle the problem of discovering noise in web pages found in the hidden web, i.e., that part of the web that is only accessible by filling web forms. In hidden web processing, data extraction is usually preceeded by a form filling step, in which the query forms that give access to the hidden web pages are automatically or semi-automatically filled. During form filling relevant data about the queried domain are collected, as field names and field values. Our proposal combines this type of data with syntactic information about the nodes that compose the page. We show empirically that this combination achieves better results than an approach that is based solely on syntactic information. Keywords:
353

Randomização progressiva para esteganalise / Progressive randomization for steganalysis

Rocha, Anderson de Rezende, 1980- 17 February 2006 (has links)
Orientador: Siome Klein Goldenstein / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-06T04:51:36Z (GMT). No. of bitstreams: 1 Rocha_AndersondeRezende_M.pdf: 1408210 bytes, checksum: 086a5c63f2aeae657441d79fa179fe6c (MD5) Previous issue date: 2006 / Resumo: Neste trabalho, nós descrevemos uma nova metodologia para detectar a presença de conteúdo digital escondido nos bits menos significativos (LSBs) de imagens. Nós introduzimos a técnica de Randomização Progressiva (PR), que captura os artefatos estatísticos inseridos durante um processo de mascaramento com aleatoriedade espacial. Nossa metodologia consiste na progressiva aplicação de transformações de mascaramento nos LSBs de uma imagem. Ao receber uma imagem I como entrada, o método cria n imagens, que apenas se diferenciam da imagem original no canal LSB. Cada estágio da Randomização Progressiva representa possíveis processos de mascaramento com mensagens de tamanhos diferentes e crescente entropia no canal LSB. Analisando esses estágios, nosso arcabouço de detecção faz a inferência sobre a presença ou não de uma mensagem escondida na imagem I. Nós validamos nossa metodologia em um banco de dados com 20.000 imagens reais. Nosso método utiliza apenas descritores estatísticos dos LSBs e já apresenta melhor qualidade de classificação que os métodos comparáveis descritos na literatura / Abstract: In this work, we describe a new methodology to detect the presence of hidden digital content in the Least Significant Bits (LSBs) of images. We introduce the Progressive Randomization technique that captures statistical artifacts inserted during the hiding process. Our technique is a progressive application of LSB modifying transformations that receives an image as input, and produces n images that only differ in the LSB from the initial image. Each step of the progressive randomization approach represents a possible content-hiding scenario with increasing size, and increasing LSB entropy. Analyzing these steps, our detection framework infers whether or not the input image I contains a hidden message. We validate our method with 20,000 real, non-synthetic images. Our method only uses statistical descriptors of LSB occurrences and already performs better than comparable techniques in the literature / Mestrado / Visão Computacional / Mestre em Ciência da Computação
354

Estimação de modelos de Markov ocultos usando aritmética intervalar / Estimating hidden Markov model parameters using interval arithmetic

Tiago de Morais Montanher 24 April 2015 (has links)
Modelos de Markov ocultos (MMOs) são uma ferramenta importante em matemática aplicada e estatística. Eles se baseiam em dois processos estocásticos. O primeiro é uma cadeia de Markov, que não é observada diretamente. O segundo é observável e sua distribuição depende do estado na cadeia de Markov. Supomos que os processos são discretos no tempo e assumem um número finito de estados. Para extrair informações dos MMOs, é necessário estimar seus parâmetros. Diversos algoritmos locais têm sido utilizados nas últimas décadas para essa tarefa. Nosso trabalho estuda a estimação de parâmetros em modelos de Markov ocultos, do ponto de vista da otimização global. Desenvolvemos algoritmos capazes de encontrar, em uma execução bem sucedida, todos os estimadores de máxima verossimilhança globais de um modelo de Markov oculto. Para tanto, usamos aritmética intervalar. Essa aritmética permite explorar sistematicamente o espaço paramétrico, excluindo regiões que não contém soluções. O cálculo da função objetivo é feito através da recursão \\textit, descrita na literatura estatística. Modificamos a extensão intervalar natural dessa recursão usando programação linear. Nossa abordagem é mais eficiente e produz intervalos mais estreitos do que a implementação padrão. Experimentos mostram ganhos de 16 a 250 vezes, de acordo com a complexidade do modelo. Revisamos os algoritmos locais, tendo em vista sua aplicação em métodos globais. Comparamos os algoritmos de Baum-Welch, pontos interiores e gradientes projetados espectrais. Concluímos que o método de Baum-Welch é o mais indicado como auxiliar em otimização global. Modificamos o \\textit{interval branch and bound} para resolver a estimação de modelos com eficiência. Usamos as condições KKT e as simetrias do problema na construção de testes para reduzir ou excluir caixas. Implementamos procedimentos de aceleração da convergência, como o método de Newton intervalar e propagação de restrições e da função objetivo. Nosso algoritmo foi escrito em \\textit{C++}, usando programação genérica. Mostramos que nossa implementação dá resultados tão bons quanto o resolvedor global BARON, porém com mais eficiência. Em média, nosso algoritmo é capaz de resolver $50\\%$ mais problemas no mesmo período de tempo. Concluímos estudando aspectos qualitativos dos MMOs com mistura Bernoulli. Plotamos todos os máximos globais detectados em instâncias com poucas observações e apresentamos novos limitantes superiores da verossimilhança baseados na divisão de uma amostra grande em grupos menores. / Hidden Markov models(HMMs) are an important tool in statistics and applied mathematics. Our work deals with processes formed by two discrete time and finite state space stochastic processes. The first process is a Markov chain and is not directly observed. On the other hand, the second process is observable and its distribution depends on the current state of the hidden component. In order to extract conclusions from a Hidden Markov Model we must estimate the parameters that defines it. Several local algorithms has been used to handle with this task. We present a global optimization approach based on interval arithmetic to maximize the likelihood function. Interval arithmetic allow us to explore parametric space systematically, discarding regions which cannot contain global maxima. We evaluate the objective function and its derivatives by the so called backward recursion and show that is possible to obtain sharper interval extensions for such functions using linear programming. Numerical experiments shows that our approach is $16$ to $250$ times more efficient than standard implementations. We also study local optimization algorithms hidden Markov model estimation. We compare Baum-Welch procedure with interior points and spectral projected gradients. We conclude that Baum-Welch is the best option as a sub-algorithm in a global optimization framework. We improve the well known interval branch and bound algorithm to take advantages on the problem structure. We derive new exclusion tests, based on its KKT conditions and symmetries. We implement our approach in C++, under generic programming paradigm. We show that our implementation is compatible with global optimization solver BARON in terms of precision. We also show that our algorithm is faster than BARON. In average, we can handle with $50\\%$ more problems within the same amount of time. We conclude studying qualitative aspects of Bernoulli hidden Markov models. We plot all global maxima found in small observations instances and show a new upper bound of the likelihood based on splitting observations in small groups.
355

Pesquisa da infecção oculta pelo vírus da hepatite B e avaliação da resposta vacinal em pacientes com diabetes mellitus tipo II em Goiânia-Goiás / Search for hidden hepatitis B virus infection and evaluation of the vaccine response in patients with type II diabetes mellitus shows in Goiânia-Goiás

Pimentel, Kamilla Nogueira 27 September 2016 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-12-07T17:53:18Z No. of bitstreams: 2 Dissertação - Kamilla Nogueira Pimentel - 2016.pdf: 2443751 bytes, checksum: ca63d8c5718f805e8ab1913299696b99 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-12-08T10:35:41Z (GMT) No. of bitstreams: 2 Dissertação - Kamilla Nogueira Pimentel - 2016.pdf: 2443751 bytes, checksum: ca63d8c5718f805e8ab1913299696b99 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-12-08T10:35:41Z (GMT). No. of bitstreams: 2 Dissertação - Kamilla Nogueira Pimentel - 2016.pdf: 2443751 bytes, checksum: ca63d8c5718f805e8ab1913299696b99 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-09-27 / Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq / The hepatitis B virus infection (HBV) and diabetes mellitus type II represent serious public health problems and, the synergism between these two diseases, can affect the prognosis of the patients with increased risk of developing chronic liver disease, cirrhosis and hepatocellular carcinoma. The aims of the present study were to investigate the HBV occult infection and to evaluate the vaccine response in patients with diabetes mellitus type II, in Goiânia-Goiás. This study is part of the research "Investigation of the serological, epidemiological and molecular profile of the hepatitis B virus infection in patients with diabetes mellitus type 2 in Goiânia-Goiás" which was developed in five public health units Goiânia. After serologic screening of the population (n = 605), 108 anti-HBc positive patients/HBsAg negative were selected for the HBV-DNA research. For this, after extraction of viral genome, a semi-nested PCR was performed with primers complementary to region pre-S/S of HBV. Among the patients recruited in the units of the Family Health Program (N = 215) those susceptible to HBV infection (N = 172) were selected and invited to participate of the cohort about vacinal response. Thus, 128, 99 and 87 individuals agreed to receive the first, second, and third doses of recombinant vaccine Butang®, respectively. The subjects who received three doses of the vaccine and who agreed to participate in a new blood collection (N = 69) were evaluated for the quantitative detection of anti-HBs marker by enzyme-linked immunosorbent assay microparticle (MEIA) using the AxSYM system automation and AxSYM kits AUSAB (Brazil Abbot Laboratories). It was not found occult HBV infection in diabetic patients in Goiânia- Goiás, which is similar to that found in other population groups in Brazil. In relation to the vaccine response, of the 69 samples analyzed, was observed that 53.6% of patients were able to respond to vaccination, and the geometric mean of anti-HBs titres was 13.76 mIU/mL. The seroprotection rate found in diabetic patients in Goiânia- GO was considered low compared to the healthy adult population. Thus, the data obtained in this study may help in the planning of specific prevention actions of hepatitis B in a population that usually have comorbidities. / A infecção pelo vírus da hepatite B (HBV) e a diabetes mellitus tipo II representam sérios agravos de saúde pública e, quando associadas, podem piorar o prognóstico do paciente, com maior risco de desenvolvimento de doença hepática crônica, cirrose e carcinoma hepatocelular. Os objetivos deste estudo foram investigar o índice de infecção oculta pelo HBV e avaliar a resposta vacinal em pacientes com diabetes mellitus tipo II, em Goiânia-Goiás. Este estudo é parte do projeto intitulado “Investigação do perfil sorológico, epidemiológico e molecular da infecção pelo vírus da hepatite B em pacientes com diabetes mellitus tipo 2 em Goiânia-Goiás” desenvolvido em cinco unidades de saúde pública de Goiânia. Assim, após a triagem sorológica da população (n=605), foram selecionados 108 pacientes anti-HBc positivos/HBsAg negativos para a pesquisa do HBV-DNA. Para isso, após a extração do genoma viral, foi realizada uma semi-nested PCR utilizando primers complementares à região Pré-S/S do HBV. Para a avaliação da resposta vacinal, foram selecionados os pacientes atendidos nas unidades do Programa de Saúde da Família (N=215), sendo aqueles suscetíveis à infecção pelo HBV (N=158) convidados a fazer parte da coorte. Assim, 128, 99 e 87 indivíduos aceitaram receber a primeira, segunda e terceira doses da vacina recombinante Butang®, respectivamente. Os indivíduos que receberam as três doses da vacina e que aceitaram participar de uma nova coleta sanguínea (N=69) foram avaliados para a detecção quantitativa do marcador anti-HBs pelo ensaio imunoenzimático de micropartícula (MEIA), utilizando o Sistema AxSYM de automação e kits AxSYM AUSAB (Abbot Laboratórios do Brasil). Não foi detectada infecção oculta pelo HBV nos pacientes diabéticos de Goiânia-GO, sendo este resultado semelhante ao encontrado em outros grupos populacionais do Brasil. Em relação à resposta vacinal, das 69 amostras analisadas, 53,6% de pacientes foram capazes de responder à vacinação, sendo que a média geométrica de títulos de anti-HBs foi de 13,76 mUI/mL. A taxa de soroproteção encontrada nos pacientes diabéticos em GoiâniaGO foi considerada baixa se comparada à população adulta saudável. Dessa forma, os dados deste estudo servirão como base para o planejamento de ações específicas de prevenção da hepatite B em uma população que, geralmente, já apresenta comorbidades associadas.
356

Descendentes de (I)talianos de Cascavel/PR: língua e cultura encobertas / (I)talians descendants in Cascavel/PR: language and culture hidden

Alessandra Regina Ribeiro Honório 07 December 2016 (has links)
Trata-se de uma pesquisa qualitativa de abordagem interpretativista (cf. Bortoni, 2009; Flick, 2002; Denzin e Lincoln, 2010), cujo objetivo principal é investigar, nas práticas discursivas, o que há da língua e cultura do imigrado italiano no contexto cascavelense, mediante dados levantados por meio de observação simples da citada comunidade e entrevistas semiestruturadas, com pessoas de três gerações: jovens, adultos e idosos. Buscamos responder às seguintes perguntas de pesquisa: a língua e cultura do imigrado italiano existem em Cascavel? De que modo? Por esse âmbito, nosso objetivo maior foi descobrir formas de cultura e língua invisibilizadas e as razões que levaram e levam a tal situação. O aporte teórico se sustentou principalmente nas perspectivas teóricas de autores como Schlieben-Lange (1993), Rajagopalan (2002, 2003 e 2007), Bourdieu (1998), Burke (2003 e 2006), Bosi (1994 e 2003) e Halbawchs (1990) que nos direcionaram para a compreensão da linguagem a partir do contexto social. Assim pudemos compreender que: a) de fato, nem sempre a negação e ou indiferença sobre o conhecimento do talian é verdadeira; b) alguns estudiosos da linguagem, com suas linhas de pesquisas, infelizmente, enfatizam o desprestígio de uma língua minoritária e decretam sua morte; c) a ativação da memória tem o poder de desencadear discursos sobre o passado e trazer à tona língua e cultura étnica, evidenciando a possibilidade de manter viva a língua taliana em Cascavel. Nesse contexto, algumas vertentes teóricas, bem como poder político e história oficial têm trabalhado contra a memória oral, importante na formação ideológica do indivíduo. Tendo em conta esse aspecto, desejamos que a nossa pesquisa possa corroborar outros estudos de desvelamento linguístico cultural, e, ainda, que a memória e a história oficial possam trabalhar juntas na divulgação, valorização e resguardo dessa língua. / This qualitative research is based on an interpretative approach (cf. Bortoni, 2009; Flick, 2002; Denzin and Lincoln, 2010), whose main objective is to investigate, in the discursive practices, what exists in the language and culture of the immigrated Italian in the Cascavelense context, upon data researched through the simple observation of the cited community and semi-structured interviews, with people form three generations: youth, adults and elderly people. We seek to answer the following research questions: Do the language and the culture of the Italian immigrated exist in Cascavel? How? Through this framework, our major objective was to find out ways of invisible language and culture, and the reasons that took and take to this situation. The theoretical support is composed mainly by the theoretical perspectives of authors such as Schlieben-Lange (1993), Rajagopalan (2002, 2003 and 2007), Bourdieu (1998), Burke (2003 and 2006), Bosi (1994 and 2003) and Halbawchs (1990) who directed us to a better language comprehension from the social context. This way, we could understand that: a) Indeed, not always the negation and/or the indifference about the Talians knowledge is true; b) Some language scholars, with their line of research, unfortunately, emphasize the discredit of a minority language and declare its death; c) The activation of the memory has the power to trigger speeches about the past and elicits language and ethnic culture, highliting the possibility of keeping alive the Taliana language in Cascavel. In this scenario, some theoretical aspects, just like the political power and the official history have worked against the oral memory, important in the ideological formation of the individual. Considering this fact, we hope that our research can corroborate to other cultural linguistic unveiling studies and, still, that the memory and the official history can work together in the dissemination, appreciation and protection of this language.
357

Comparação de algoritmos usados na construção de mapas genéticos / Comparison of algorithms used in the construction of genetic linkage maps

Marcelo Mollinari 23 January 2008 (has links)
Mapas genéticos são arranjos lineares que indicam a ordem e distância entre locos nos cromossomos de uma determinada espécie. Recentemente, a grande disponibilidade de marcadores moleculares tem tornado estes mapas cada vez mais saturados, sendo necessários métodos eficientes para sua construção. Uma das etapas que merece mais atenção na construção de mapas de ligação é a ordenação dos marcadores genéticos dentro de cada grupo de ligação. Tal ordenação é considerada um caso especial do clássico problema do caixeiro viajante (TSP), que consiste em escolher a melhor ordem entre todas as possíveis. Entretanto, a estratégia de busca exaustiva torna-se inviável quando o número de marcadores é grande. Nesses casos, para que esses mapas possam ser construídos uma alternativa viável é a utilização de algoritmos que forneçam soluções aproximadas. O objetivo desse trabalho foi avaliar a eficiência dos algoritmos Try (TRY), Seriation (SER), Rapid Chain Delineation (RCD), Recombination Counting and Ordering (RECORD) e Unidirectional Growth (UG), além dos critérios PARF (produto mínimo das frações de recombinação adjacentes), SARF (soma mínima das frações de recombinação adjacentes), SALOD (soma máxima dos LOD scores adjacentes) e LMHC (verossimilhança via cadeias de Markov ocultas), usados juntamente com o algoritmo de verificação de erros RIPPLE, para a construção de mapas genéticos. Para tanto, foi simulado um mapa de ligação de uma espécie vegetal hipotética, diplóide e monóica, contendo 21 marcadores com distância fixa entre eles de 3 centimorgans. Usando o método Monte Carlo, foram obtidas aleatoriamente 550 populações F2 com 100 e 400 indivíduos, além de diferentes combinações de marcadores dominantes e codominantes. Foi ainda simulada perda de 10% e 20% dos dados. Os resultados mostraram que os algoritmos TRY e SER tiveram bons resultados em todas as situações simuladas, mesmo com presença de elevado número de dados perdidos e marcadores dominantes ligados em repulsão, podendo ser então recomendado em situações práticas. Os algoritmos RECORD e UG apresentaram bons resultados na ausência de marcadores dominantes ligados em repulsão, podendo então ser recomendados em situações com poucos marcadores dominantes. Dentre todos os algoritmos, o RCD foi o que se mostrou menos eficiente. O critério LHMC, aplicado com o algoritmo RIPPLE, foi o que apresentou melhores resultados quando se deseja fazer verificações de erros na ordenação. / Genetic linkage maps are linear arrangements showing the order and distance between loci in chromosomes of a particular species. Recently, the availability of molecular markers has made such maps more saturated and efficient methods are needed for their construction. One of the steps that deserves more attention in the construction of genetic linkage maps is the ordering of genetic markers within each linkage group. This ordering is considered a special case of the classic traveling salesman problem (TSP), which consists in choosing the best order among all possible ones. However, the strategy of exhaustive search becomes unfeasible when the number of markers is large. One possible alternative to construct such maps is to use algorithms that provide approximate solutions. Thus, the aim of this work was to evaluate the efficiency of algorithms Try (TRY), Seriation (SER), Rapid Chain Delineation (RCD), Recombination Counting and Ordering (RECORD) and Unidirectional Growth (UG), as well as the criteria PARF (product of adjacent recombination fractions), SARF (sum of adjacent recombination fractions), SALOD (sum of adjacent lod scores) and LMHC (likelihood via hidden Markov chains), used with the RIPPLE algorithm for error verification, in the construction of genetic linkage maps. For doing so, a linkage map of a hypothetical diploid and monoecious plant species was simulated, containing 21 markers with fixed distance of 3 centimorgans between them. Using Monte Carlo methods, 550 F2 populations were randomly simulated with 100 and 400 individuals, together with different combinations of dominant and codominant markers. 10 % and 20 % of missing data was also included. Results showed that the algorithms TRY and SER gave good results in all situations, even with presence of a large number of missing data and dominant markers linked in repulsion phase. Thus, these can be recommended for analyzing real data. The algorithms RECORD and UG gave good results in the absence of dominant markers linked in repulsion phase and can be used in this case. Among all algorithms, RCD was the least efficient. The criterion LHMC, applied with the RIPPLE algorithm, showed the best results when the goal is to check ordering errors.
358

Performance of IEEE 802.15.4 beaconless-enabled protocol for low data rate ad hoc wireless sensor networks

Iqbal, Muhamad Syamsu January 2016 (has links)
This thesis focuses on the enhancement of the IEEE 802.15.4 beaconless-enabled MAC protocol as a solution to overcome the network bottleneck, less flexible nodes, and more energy waste at the centralised wireless sensor networks (WSN). These problems are triggered by mechanism of choosing a centralised WSN coordinator to start communication and manage the resources. Unlike IEEE 802.11 standard, the IEEE 802.15.4 MAC protocol does not include method to overcome hidden nodes problem. Moreover, understanding the behaviour and performance of a large-scale WSN is a very challenging task. A comparative study is conducted to investigate the performance of the proposed ad hoc WSN both over the low data rate IEEE 802.15.4 and the high data rate IEEE 802.11 standards. Simulation results show that, in small-scale networks, ad hoc WSN over 802.15.4 outperforms the WSN where it improves 4-key performance indicators such as throughput, PDR, packet loss, and energy consumption by up to 22.4%, 17.1%, 34.1%, and 43.2%, respectively. Nevertheless, WSN achieves less end-to-end delay; in this study, it introduces by up to 2.0 ms less delay than that of ad hoc WSN. Furthermore, the ad hoc wireless sensor networks work well both over IEEE 802.15.4 and IEEE 802.11 protocols in small-scale networks with low traffic loads. The performance of IEEE 802.15.4 declines for the higher payload size since this standard is dedicated to low rate wireless personal access networks. A deep performance investigation of the IEEE 802.15.4 beaconless-enabled wireless sensor network (BeWSN) in hidden nodes environment has been conducted and followed by an investigation of network overhead on ad hoc networks over IEEE 802.11 protocol. The result of investigation evinces that the performance of beaconless-enabled ad hoc wireless sensor networks deteriorates as indicated by the degradation of throughput and packet reception by up to 72.66 kbps and 35.2%, respectively. In relation to end-to-end delay, however, there is no significant performance deviation caused by hidden nodes appearance. On the other hand, preventing hidden node effect by implementing RTS/CTS mechanism introduces significant overhead on the network that applies low packet size. Therefore, this handshaking method is not suitable for low rate communications protocol such as IEEE 802.15.4 standard. An evaluation study of a 101-node large-scale beaconless-enabled wireless sensor networks over IEEE 802.15.4 protocol has been carried out after the nodes deployment model was arranged. From the experiment, when the number of connection densely increases, then the probability of packet delivery decreases by up to 40.5% for the low payload size and not less than of 44.5% for the upper payload size. Meanwhile, for all sizes of payload applied to the large-scale ad hoc wireless sensor network, it points out an increasing throughput whilst the network handles more connections among sensor nodes. In term of dropped packet, it confirms that a fewer data drops at smaller number of connecting nodes on the network where the protocol outperforms not less than of 34% for low payload size of 30 Bytes. The similar trend obviously happens on packet loss. In addition, the simulation results show that the smaller payload size performs better than the bigger one in term of network latency, where the payload size of 30 Bytes contributes by up to 41.7% less delay compared with the contribution of the payload size of 90 Bytes.
359

Information Hiding : Steganografic Content in Streaming Media

Bayer, Peter, Widenfors, Henrik January 2002 (has links)
For a long time, information hiding has focused on carriers like images and audio files. A problem with these carriers is that they do not support hiding in new types of network-based services. Nowadays, these services often arise as a consequence of the increasingly demand for higher connection speed to the Internet. By introducing streaming media as a carrier of hidden information, hiding in new network-based services is supported. The main purposes with this thesis are to investigate how information can be hidden in streaming media and how it measures up compared to images and audio files. In order to evaluate the approach, we have developed a prototype and used it as a proof of concept. This prototype hides information in some of the TCP/IP header fields and is used to collect experimental data as well. As reference, measurements have been collected from other available carriers of hidden information. In some cases, the results of these experiments show that the TCP/IP header is a good carrier of information. Its performance is outstanding and well suited for hiding information quickly. The tests showed that the capacity is slightly worse though.
360

Link Extraction for Crawling Flash on the Web

Antelius, Daniel January 2015 (has links)
The set of web pages not reachable using conventional web search engines is usually called the hidden or deep web. One client-side hurdle for crawling the hidden web is Flash files. This thesis presents a tool for extracting links from Flash files up to version 8 to enable web crawling. The files are both parsed and selectively interpreted to extract links. The purpose of the interpretation is to simulate the normal execution of Flash in the Flash runtime of a web browser. The interpretation is a low level approach that allows the extraction to occur offline and without involving automation of web browsers. A virtual machine is implemented and a set of limitations is chosen to reduce development time and maximize the coverage of interpreted byte code. Out of a test set of about 3500 randomly sampled Flash files the link extractor found links in 34% of the files. The resulting estimated web search engine coverage improvement is almost 10%.

Page generated in 0.0728 seconds