• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 2
  • 1
  • Tagged with
  • 72
  • 58
  • 27
  • 22
  • 14
  • 13
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Estudos de eficiência em buscas aleatórias unidimensionais

Lima, Tiago Aécio Grangeiro de Souza Barbosa 23 July 2010 (has links)
Submitted by Sandra Maria Neri Santiago (sandra.neri@ufpe.br) on 2016-04-15T18:46:34Z No. of bitstreams: 2 license_rdf: 1379 bytes, checksum: ea56f4fcc6f0edcf0e7437b1ff2d434c (MD5) Dissertação_Tiago Aécio Grangeiro de Souza Barbosa Lima.pdf: 2215610 bytes, checksum: 8993869b89fc394d9e8171a017cfee6e (MD5) / Made available in DSpace on 2016-04-15T18:46:34Z (GMT). No. of bitstreams: 2 license_rdf: 1379 bytes, checksum: ea56f4fcc6f0edcf0e7437b1ff2d434c (MD5) Dissertação_Tiago Aécio Grangeiro de Souza Barbosa Lima.pdf: 2215610 bytes, checksum: 8993869b89fc394d9e8171a017cfee6e (MD5) Previous issue date: 2010-07-23 / Neste trabalho investigamos o problema do caminhante aleatório unidimensional como modelo para encontrar que distribuição de probabilidades é a melhor estratégia a ser utilizada na busca por sítios-alvos aleatoriamente distribuídos, cuja localização é desconhecida, na situação em que o buscador tem informação limitada sobre sua vizinhança. Embora tal problema tenha surgido na década de 1960, uma nova motivação surgiu nos anos 1990 quando dados empíricos mostraram que várias espécies de animais, sob condições gerais (especialmente escassez de comida), não usam estratégias brownianas de busca, mas sim distribuições de Lévy. A principal diferença entre elas é que as distribuições de Lévy decaem muito mais lentamente com a distância (com cauda do tipo lei de potência no limite de longos passos), não obedecendo, portanto, ao Teorema do Limite Central, e apresentam propriedades interessantes, como fractalidade, superdifusão e autoafinidade. Estes experimentos, juntamente com conceitos evolucionistas, levantaram a suspeita de que tal escolha pode ter sido adotada por ser mais vantajosa para o buscador, uma idéia conhecida como Lévy Flight Foraging Hypothesis. Em nosso estudo, definimos a eficiência da busca e obtemos a sua expressão analítica para o modelo. Utilizamos métodos computacionais para comparar as eficiências associadas às distribuições de Lévy e duas outras dentre as mais citadas na literatura, a gama e a "stretched exponential", concluindo que a de Lévy representa a melhor estratégia. Finalmente, empregamos métodos variacionais de extremização e obtemos a equação de Euler do problema. / In this work we study the one-dimensional random walk problem as a model to find which probability distribution function (pdf) is the best strategy when looking for randomly istributed target sites whose locations are not known, when the searcher has only limited information about its vicinity. Although research on this problem dates back to the 1960’s, a new motivation arose in the 1990’s when empirical data showed that many animal species, under broad conditions (especially scarcity of food), do not use Brownian strategies when looking for food, but Lévy distributions instead. The main difference between them is that the Lévy distribution decay much slower with distance (with a power-law tail in the long-range limit), thereby not obeying the Central Limit Theorem, and present interesting properties, like fractality, superdiffusivityand self-affinity. These experiments, coupled with evolutionary concepts, lead to suspicions that this choice might have been adopted because it is more advantageous for the searcher, an idea now termed as the Lévy Flight Foraging Hypothesis. To study the problem, we define a search efficiency function and obtain its analytical expression for our model. We use computational methods to compare the efficiencies associated with the Lévy and two of the most cited pdfs in the literature, the stretched exponential and Gamma distributions, showing that Lévy is the best search strategy. Finally, we employ variational extremization methods to obtain the problem’s Euler equation.
52

Análise dos resultados de ensaios de proficiência via modelos de regressão com variável explicativa aleatória / Analysis of proficiency tests results via regression models with random explanatory variable

Aline Othon Montanari 21 June 2004 (has links)
Em um programa de ensaio de prociência (EP) conduzido pelo Grupo de Motores, um grupo de onze laboratórios da área de temperatura realizaram medições em cinco pontos da escala de um termopar. Neste trabalho, propomos um modelo de regressão com variável explicativa X (aleatória) representando o termopar padrão que denominaremos por artefato e a variável dependente Y representando as medições dos laboratórios. O procedimento para a realização da comparação é simples, ambos termopares são colocados no forno e as diferenças entre as medições são registradas. Para a análise dos dados, vamos trabalhar com a diferença entre a diferença das medições do equipamento do laboratório e o artefato, e o valor de referência (que é determinado por 2 laboratórios que pertencem a Rede Brasileira de Calibração (RBC)). O erro de medição tem variância determinada por calibração, isto é, conhecida. Assim, vamos encontrar aproximações para as estimativas de máxima verossimilhança para os parâmetros do modelo via algoritmo EM. Além disso, propomos uma estratégia para avaliar a consistência dos laboratórios participantes do programa de EP / In a program of proficiency assay, a group of eleven laboratories of the temperature area had carried through measurements in ¯ve points on the scale of the thermopair. In this work, we propose a regression model with a random explanatory variable representing the temperature measured by the standard thermopair, which will be called device. The procedure for the comparison accomplishment is as follows. The device and the laboratory\'s thermopair to be tested are placed in the oven and the difererences between the measurements are registered. For the analysis of the data, the response variable is the diference between those diference and the reference value, which is determined by two laboratories that belong to the Brazilian Net of Calibration (RBC). The measurement error has variance determined by calibration which is known. Therefore, we ¯and the maximum likelihood estimates for the parameters of the model via EM algorithm. We consider a strategy to establish the consistency of the participant laboratories of the program of proficiency assay
53

Métodos de busca em coordenada / Coordinate descent methods

Luiz Gustavo de Moura dos Santos 22 November 2017 (has links)
Problemas reais em áreas como aprendizado de máquina têm chamado atenção pela enorme quantidade de variáveis (> 10^6) e volume de dados. Em problemas dessa escala o custo para se obter e trabalhar com informações de segunda ordem são proibitivos. Tais problemas apresentam características que podem ser aproveitadas por métodos de busca em coordenada. Essa classe de métodos é caracterizada pela alteração de apenas uma ou poucas variáveis a cada iteração. A variante do método comumente descrita na literatura é a minimização cíclica de variáveis. Porém, resultados recentes sugerem que variantes aleatórias do método possuem melhores garantias de convergência. Nessa variante, a cada iteração, a variável a ser alterada é sorteada com uma probabilidade preestabelecida não necessariamente uniforme. Neste trabalho estudamos algumas variações do método de busca em coordenada. São apresentados aspectos teóricos desses métodos, porém focamos nos aspectos práticos de implementação e na comparação experimental entre variações do método de busca em coordenada aplicados a diferentes problemas com aplicações reais. / Real world problemas in areas such as machine learning are known for the huge number of decision variables (> 10^6) and data volume. For such problems working with second order derivatives is prohibitive. These problems have properties that benefits the application of coordinate descent/minimization methods. These kind of methods are defined by the change of a single, or small number of, decision variable at each iteration. In the literature, the commonly found description of this type of method is based on the cyclic change of variables. Recent papers have shown that randomized versions of this method have better convergence properties. This version is based on the change of a single variable chosen randomly at each iteration, based on a fixed, but not necessarily uniform, distribution. In this work we present some theoretical aspects of such methods, but we focus on practical aspects.
54

Avaliação da técnica de amostragem respondent-driven sampling na estimação de prevalências de doenças transmissíveis em populações organizadas em redes complexas / Evaluation of sampling respondent-driven sampling in the estimation of prevalence of diseases in populations organized in complex networks

Albuquerque, Elizabeth Maciel de January 2009 (has links)
Made available in DSpace on 2011-05-04T12:36:24Z (GMT). No. of bitstreams: 0 Previous issue date: 2009 / Diversos fatores podem dificultar a caracterização acurada do perfil de umapopulação por amostragem. Se a característica que define a população é de difícil observação seja porque exige testes caros para detecção ou porque é uma característica de comportamento ilegal ou estigmatizado que dificulta a identificação, torna-se praticamente impossível aplicar os métodos clássicos de amostragem, pois não se pode definir uma base de amostragem (sampling frame). Populações desse tipo são conhecidas como populações ocultas, ou escondidas, e alguns exemplos comumente estudados são homens que fazem sexo com homens, trabalhadores do sexo e usuários de drogas. Essa dissertação discute a técnica de amostragem conhecida como Respondent-Driven Sampling (RDS), originalmente proposta por Heckathorn (1997), e que vem sendo amplamente utilizada na estimação de prevalências de doenças transmissíveis em populações ocultas. Esse método pertence à família de amostragens por bola-de-neve, na qual os elementos seguintes da amostra são recrutados a partir da rede de conhecidos dos elementos já presentes na amostra, formando as cadeias de referência. Com este método, além das informações individuais, é possível estudar também as relações entre os indivíduos. O recrutamento por bola de neve não gera uma amostra aleatória, e está sujeito às propriedades das redes sociais das populações em estudo, que deve mudar de lugar para lugar e potencialmente influenciar as medidas de prevalência geradas. As redes sociais são estruturas complexas, e compreender como que a amostragem RDS é influenciada por estas estruturas é um dos objetivos dessa dissertação. Além disso, se o interesse de um estudo epidemiológico é estimar a prevalência de uma doença transmissível, há de se considerar que muitas vezes a própria rede social pode estar correlacionada com as redes de transmissão, gerando potenciais dependências entre o processo de amostragem e a distribuição da variável desfecho. Essa dissertação teve por objetivo avaliar estimativas de prevalência geradas a partir de amostras obtidas com a utilização da metodologia RDS, considerando estruturas populacionais complexas, ou seja, populações com estruturas distintas de ligação entre os indivíduos e de disseminação de doenças. Para isso, foram realizados experimentos de simulação combinando quatro modelos geradores de redes sociais e quatro modelos de distribuição de casos infectados na população. Para cada uma, foram obtidas amostras utilizando RDS e as respectivas prevalências foram estimadas.Com os resultados encontrados, foi possível realizar uma avaliação tanto do RDS como forma de recrutamento, como o modelo proposto por Heckathorn (2002) para a ponderação e estimação de prevalências. Basicamente, três aspectos foram considerados nessa avaliação: 1. o tempo necessário para concluir a amostragem, 2. a precisão das estimativas obtidas, independente da ponderação, e 3. o método deponderação. De forma geral, o método apresentou bons resultados sob esses três aspectos, refletindo a possibilidade de sua utilização, ainda que exigindo cautela. Os achados apresentam-se limitados, pois são escassos os trabalhos que abordem essa metodologia e que permitam estabelecer comparações. Espera-se, no entanto,despertar o interesse para que outros trabalhos nessa linha sejam desenvolvidos. / Several factors may hamper the accurate characterization of a population. If the defining feature of the population is difficult to apply - either because it requires expensive tests for detection or because it is a stigmatized or illegal behavior that hinders the identification, it is virtually impossible to apply traditional methods for sampling, because sampling frame cannot be define. The latter are called “hidden populations”, and some examples are men who have sex with men, sexual workers and drug users. This dissertation focus on Respondent-Driven Sampling (RDS), a sampling method originally proposed by Heckathorn (1997), which has been widely used to estimate the prevalence of infectious diseases in hidden populations. RDS is a snowball sampling method, in which new elements for the sample are recruited from the network of the elements already present in the sample, forming reference chains. With this method, besides individual informations, it is also possible to study the relationships between individuals. Snowball sampling does not generate random samples, and its properties are likely to depend on the properties of the social networks underlying the recruitment process, which may change from place to place and potentially influence the measures of prevalence generated. Social networks are complex structures, and understanding how the different implementations of RDS sampling is influenced by these structures is one of the objectives of this dissertation. Moreover, if the interest of an epidemiological study is to estimate the prevalence of a disease, it is should be considered that very often, social network may be correlated with the transmission networks, generating potential dependencies between the process of sampling and distribution of outcome variable. The aim of this dissertation was to assess the behavior of prevalence estimators using RDS data in scenarios of populations organized in complex structures, i.e. Combinations of social networks structures and spreading patterns. To achieve that, theoretical experiments were performed using simulation models combining four generators of social networks and four models of distribution of infected cases in the population. For each one, samples were obtained using RDS and prevalence, estimated. Findings were used to evaluate RDS as a recruiting process itself, as well as Heckathorn’s (2002) model to estimate prevalences. Three aspects were considered in such analyses: 1. the time elapsed before obtaining the sample; 2. the accuracy of the estimates without taking in consideration the weighting strategies; and 3. the weighting strategy. Overall, RDS performed well in these three areas, showing it is a valid method to assess hidden populations, despite the fact its use should be made with the necessary caution. The interpretation of our findings was constrained by the scarcity of studies using the same methodology, what compromised the comparability of our findings. We hope, however, that our findings may foster the development of additional studies in this field.
55

Impacto da solução de Carnoy no número de linfonodos resgatados em peças cirúrgicas de câncer gástrico: estudo prospectivo randomizado / Impact of Carnoy\'s solution in lymph node retrieval following D2 gastrectomy for gastric cancer: prospective randomized trial

Dias, Andre Roncon 25 August 2014 (has links)
Introdução: O adenocarcinoma gástrico é uma doença de elevada incidência e alta mortalidade. A gastrectomia com linfadenectomia é tratamento potencialmente curativo, promovendo controle loco-regional da doença e fornecendo material para análise histopatológica. Para o adequado estadiamento dos pacientes é recomendado que pelo menos 16 linfonodos sejam examinados pela patologia, entretanto, espera-se maior sobrevida quando >= 30 linfonodos são avaliados, mesmo em pacientes com tumores precoces. A justificativa para este achado é o sub-estadiamento de pacientes com poucos linfonodos examinados. Linfonodos pequenos são particularmente difíceis de serem encontrados, mas podem conter metástases e impactar negativamente na sobrevida. Visando facilitar sua identificação, soluções clareadoras de gordura foram propostas, entretanto não há evidência clara de seu benefício clínico. Objetivos: Comparar as soluções de Carnoy e de formalina neutra tamponada em relação ao número absoluto de linfonodos encontrados na peça cirúrgica de pacientes submetidos a gastrectomia. Averiguar se linfonodos retirados cirurgicamente são perdidos com a fixação em formalina e, caso isso ocorra, se este fato é relevante para o estadiamento. Observar se o protocolo de pesquisa influenciou o número de linfonodos encontrados. Métodos: Cinquenta produtos de gastrectomia subtotal com linfadenectomia D2 por adenocarcinoma gástrico foram randomizados para fixação em Carnoy ou formalina com posterior dissecção da peça em busca de linfonodos. Após a dissecção do grupo Formalina, a gordura residual a ser desprezada foi imersa em Carnoy e reavaliada posteriormente. Os dados de 25 gastrectomias D2 operadas previamente ao estudo também foram avaliados. Resultados: A média de linfonodos encontrados nos grupos Carnoy e Formalina foi de 50,4 e 34,8; respectivamente (p < 0,001). Na gordura residual foram encontrados linfonodos em todos os casos (média 16,9 linfonodos), elevando a média do grupo Formalina para 51,7 (valor similar ao do grupo Carnoy, p=0,809). Com exceção de 1 linfonodo de 7mm, todos os demais encontrados na gordura residual mediram <= 3mm. Treze linfonodos metastáticos passaram despercebidos com a fixação em formalina e a revisão da gordura residual determinou a mudança de estadiamento de 2 (8%) pacientes. Os linfonodos encontrados no Carnoy possuíam tamanho significativamente menor quando comparados aos do grupo Formalina (p=0,01). A média de linfonodos encontrados no grupo retrospectivo foi similar ao do grupo Formalina prospectivo (p=0,802). Conclusões: Quando comparada à formalina, a solução de Carnoy permite encontrar número maior de linfonodos no espécime cirúrgico de gastrectomias com linfadenectomia. Linfonodos milimétricos foram perdidos após a fixação em formalina, estes foram identificados com o Carnoy e são clinicamente relevantes, pois podem conter metástases modificando assim, o estádio clínico e prognóstico do paciente. A implementação de protocolo de pesquisa não influenciou o número de linfonodos encontrados neste estudo / Background: Gastric adenocarcinoma is a frequent disease with high mortality ratio. Gastrectomy with lymphadenectomy is potentially curative, allows local control of the disease and provides material for TNM classification. While pathology examination of at least 16 lymph nodes is recommended following surgery, longer survival rates are expected when >=30 lymph nodes are examined, even for early gastric cancer. The understaging of patients with less examined lymph nodes justifies this findings. Small lymph nodes are particularly difficult to identify and fat clearing solutions have been proposed to improve this, but there is no evidence of their clinical benefit. Objectives: Compare Carnoy\'s solution (CS) and formalin in terms of the total number of examined lymph nodes following gastrectomy. Verify if surgically retrieved lymph nodes are lost with the formalin fixation and if this fact is clinically significant. Observe if a research protocol influences the number of examined lymph nodes. Methods: Fifty specimens of gastrectomy with D2 lymphadenectomy were randomized for fixation in CS or formalin with posterior dissection in search for lymph nodes. In the Formalin group, the residual fat to be discarded was immersed in CS and dissected again. Data from 25 D2 gastrectomies performed previously the present study were retrospectively analyzed. Results: The medium number of examined lymph nodes was 50.4 and 34.8 for CS and formalin, respectively (p < 0.001). Lost lymph nodes were found in all cases in the Residual Fat group (medium 16.9), this increased the Formalin group average to 51.7 (which is similar to the CS group, p=0.809). With one exception (7mm), all other examined lymph nodes in the Residual Fat group measured <= 3mm. Thirteen lymph nodes from this group were metastatic, this determined the upstaging of 2 (8%) patients. Lymph nodes from the CS group were smaller than those found in the formalin group (p=0.01). The medium number of retrieved lymph nodes in the retrospective group was similar to the formalin group (p=0.802). Conclusions: When compared to formalin, Carnoy\'s solution increases lymph node detection following gastrectomy with lymphadenectomy. CS identifies small lymph nodes lost with formalin fixation and that are clinically significant, since they may contain metastasis, modifying the TNM classification. No influence of the research protocol over the number of examined lymph nodes was observed in the present study.
56

Modelos baseados no planejamento para análise de populações finitas / Design-based models for the analysis of finite populations

González Garcia, Luz Mery 23 April 2008 (has links)
Estudamos o problema de obtenção de estimadores/preditores ótimos para combinações lineares de respostas coletadas de uma população finita por meio de amostragem aleatória simples. Nesse contexto, estendemos o modelo misto para populações finitas proposto por Stanek, Singer & Lencina (2004, Journal of Statistical Planning and Inference) para casos em que se incluem erros de medida (endógenos e exógenos) e informação auxiliar. Admitindo que as variâncias são conhecidas, mostramos que os estimadores/preditores propostos têm erro quadrático médio menor dentro da classe dos estimadores lineares não viciados. Por meio de estudos de simulação, comparamos o desempenho desses estimadores/preditores empíricos, i.e., obtidos com a substituição das componentes de variância por estimativas, com aquele de competidores tradicionais. Também, estendemos esses modelos para análise de estudos com estrutura do tipo pré-teste/pós-teste. Também por intermédio de simulação, comparamos o desempenho dos estimadores empíricos com o desempenho do estimador obtido por meio de técnicas clássicas de análise de medidas repetidas e com o desempenho do estimador obtido via análise de covariância por meio de mínimos quadrados, concluindo que os estimadores/ preditores empíricos apresentaram um menor erro quadrático médio e menor vício. Em geral, sugerimos o emprego dos estimadores/preditores empíricos propostos para dados com distribuição assimétrica ou amostras pequenas. / We consider optimal estimation of finite population parameters with data obtained via simple random samples. In this context, we extend a finite population mixed model proposed by Stanek, Singer & Lencina (2004, Journal of Statistical Planning and Inference) by including measurement errors (endogenous or exogenous) and auxiliary information. Assuming that variance components are known, we show that the proposed estimators/predictors have the smallest mean squared error in the class of unbiased estimators. Using simulation studies, we compare the performance of the empirical estimators/predictors obtained by replacing variance components with estimates with the performance of a traditional estimator. We also extend the finite population mixed model to data obtained via pretest-posttest designs. Through simulation studies, we compare the performance of the empirical estimator of the difference in gain between groups with the performance of the usual repeated measures estimator and with the performance of the usual analysis of covariance estimator obtained via ordinary least squares. The empirical estimator has smaller mean squared error and bias than the alternative estimators under consideration. In general, we recommend the use of the proposed estimators/ predictors for either asymmetric response distributions or small samples.
57

Soluções aproximadas para algoritmos escaláveis de mineração de dados em domínios de dados complexos usando GPGPU / On approximate solutions to scalable data mining algorithms for complex data problems using GPGPU

Mamani, Alexander Victor Ocsa 22 September 2011 (has links)
A crescente disponibilidade de dados em diferentes domínios tem motivado o desenvolvimento de técnicas para descoberta de conhecimento em grandes volumes de dados complexos. Trabalhos recentes mostram que a busca em dados complexos é um campo de pesquisa importante, já que muitas tarefas de mineração de dados, como classificação, detecção de agrupamentos e descoberta de motifs, dependem de algoritmos de busca ao vizinho mais próximo. Para resolver o problema da busca dos vizinhos mais próximos em domínios complexos muitas abordagens determinísticas têm sido propostas com o objetivo de reduzir os efeitos da maldição da alta dimensionalidade. Por outro lado, algoritmos probabilísticos têm sido pouco explorados. Técnicas recentes relaxam a precisão dos resultados a fim de reduzir o custo computacional da busca. Além disso, em problemas de grande escala, uma solução aproximada com uma análise teórica sólida mostra-se mais adequada que uma solução exata com um modelo teórico fraco. Por outro lado, apesar de muitas soluções exatas e aproximadas de busca e mineração terem sido propostas, o modelo de programação em CPU impõe restrições de desempenho para esses tipos de solução. Uma abordagem para melhorar o tempo de execução de técnicas de recuperação e mineração de dados em várias ordens de magnitude é empregar arquiteturas emergentes de programação paralela, como a arquitetura CUDA. Neste contexto, este trabalho apresenta uma proposta para buscas kNN de alto desempenho baseada numa técnica de hashing e implementações paralelas em CUDA. A técnica proposta é baseada no esquema LSH, ou seja, usa-se projeções em subespac¸os. O LSH é uma solução aproximada e tem a vantagem de permitir consultas de custo sublinear para dados em altas dimensões. Usando implementações massivamente paralelas melhora-se tarefas de mineração de dados. Especificamente, foram desenvolvidos soluções de alto desempenho para algoritmos de descoberta de motifs baseados em implementações paralelas de consultas kNN. As implementações massivamente paralelas em CUDA permitem executar estudos experimentais sobre grandes conjuntos de dados reais e sintéticos. A avaliação de desempenho realizada neste trabalho usando GeForce GTX470 GPU resultou em um aumento de desempenho de até 7 vezes, em média sobre o estado da arte em buscas por similaridade e descoberta de motifs / The increasing availability of data in diverse domains has created a necessity to develop techniques and methods to discover knowledge from huge volumes of complex data, motivating many research works in databases, data mining and information retrieval communities. Recent studies have suggested that searching in complex data is an interesting research field because many data mining tasks such as classification, clustering and motif discovery depend on nearest neighbor search algorithms. Thus, many deterministic approaches have been proposed to solve the nearest neighbor search problem in complex domains, aiming to reduce the effects of the well-known curse of dimensionality. On the other hand, probabilistic algorithms have been slightly explored. Recently, new techniques aim to reduce the computational cost relaxing the quality of the query results. Moreover, in large-scale problems, an approximate solution with a solid theoretical analysis seems to be more appropriate than an exact solution with a weak theoretical model. On the other hand, even though several exact and approximate solutions have been proposed, single CPU architectures impose limits on performance to deliver these kinds of solution. An approach to improve the runtime of data mining and information retrieval techniques by an order-of-magnitude is to employ emerging many-core architectures such as CUDA-enabled GPUs. In this work we present a massively parallel kNN query algorithm based on hashing and CUDA implementation. Our method, based on the LSH scheme, is an approximate method which queries high-dimensional datasets with sub-linear computational time. By using the massively parallel implementation we improve data mining tasks, specifically we create solutions for (soft) realtime time series motif discovery. Experimental studies on large real and synthetic datasets were carried out thanks to the highly CUDA parallel implementation. Our performance evaluation on GeForce GTX 470 GPU resulted in average runtime speedups of up to 7x on the state-of-art of similarity search and motif discovery solutions
58

Invaginações (plicaturas) da grande curvatura gástrica e da parede anterior do estômago para controle de peso: modelos experimentais / Greater gastric curvature and anterior gastric wall invaginations (plications) for weight management: experimental models

Fusco, Pedro Ehrmann Brasiliense 07 January 2010 (has links)
INTRODUÇÃO: Muitos procedimentos cirúrgicos e endoscópicos bariátricos realizados atualmente diminuem o volume da luz gástrica de forma isolada ou associados a intervenção sobre o intestino. Uma forma de invaginação ou plicatura gástrica associada ao envolvimento protético do estômago foi usada para tratamento cirúrgico da obesidade. O procedimento foi abandonado devido à elevada taxa de complicações e re-intervenções causadas pelo contato da prótese com as vísceras abdominais. A fundoplicatura a Nissen usada para tratamento de refluxo gastroesofágico leva a emagrecimento pequeno, mas significativo. Na fundoplicatura a Nissen não são usados (e, portanto, não há complicações relacionadas a) secção, grampeamento, anastomose, bandas, anéis ou corpos estranhos. Neste trabalho formulamos a hipótese que a invaginação da grande curvatura gástrica levaria a perda de peso em ratos (Série A - primeira série de experimentos). Confirmada esta hipótese, testamos se a invaginação da parede gástrica anterior teria efeito semelhante (Série B - segunda série de experimentos). A invaginação da parede gástrica anterior evitaria a mobilização do grande omento. MÉTODO: Na Série A, trinta ratos foram sorteados em três grupos. Os dez ratos do primeiro grupo, chamado ACTR- ANEST, foram anestesiados e pesados. Aos dez ratos do segundo grupo, chamado A-CTR-LAP, foram adicionadas laparotomia e manipulação visceral à anestesia. Ao terceiro grupo, chamado A-INV-CURV, foi adicionada uma invaginação da grande curvatura gástrica à anestesia e laparotomia. Os animais da Série A foram pesados novamente no sétimo dia após os procedimentos; pesados, sacrificados e necropsiados no vigésimo - primeiro dia após os procedimentos. Na segunda série de experimentos (Série B), vinte ratos foram sorteados em dois grupos. A parede gástrica anterior foi invaginada em dez ratos no primeiro grupo (B-INV-ANT). A grande curvatura gástrica foi invaginada em dez ratos no segundo grupo (B-INV-CURV). Nesta Série B, os ratos foram pesados semanalmente por quatro semanas, sacrificados e necropsiados no vigésimo - oitavo dia após os procedimentos. RESULTADOS: Na Série A, a média de pesos corporais do grupo A-INV-CURV (311,41g) tornou-se menor que a dos grupos A-CTR-LAP (346,18g) e A-CTR-ANEST (362,48), p<0,001 (ANOVA medidas repetidas). A média de pesos das gorduras peri-testiculares foi significativamente diferente somente entre os grupos A-INV-CURV (4364mg) e A-CTR-ANEST (5059mg), p<0,02 (teste de Dunn). Na Série B, a média de pesos corporais do grupo B-INV-CURV (341,90g) tornou-se menor que a do grupo B-INV-ANT (370,56g) no vigésimo - primeiro dia após os procedimentos, p<0,03 (ajuste de Tukey). Os pesos das gorduras peri-testiculares e os volumes gástricos luminais não foram diferentes no vigésimo - oitavo dia após os procedimentos (sacrifício). CONCLUSÃO: A invaginação da grande curvatura gástrica leva a redução de peso em ratos quando comparada a anestesia isolada, a anestesia seguida de laparotomia, e a invaginação da parede gástrica anterior. / BACKGROUND: Many bariatric endoscopic or surgical procedures performed today reduce gastric luminal volume, alone or in combination with a distal enteric intervention. A form of prosthetic wrap of the folded (or plicated) stomach was used in the past for treating obesity with a high rate of prosthesis-related reintervention. Nissen gastric fundoplication used in the treatment of gastroesophageal reflux disease induces a small but significant weight loss without gastric stapling, partitioning, or prosthesis-related morbidity. We hypothesized greater gastric curvature invagination would lead to weight loss in rats (first series of experiments named Set A). Once confirmed this hypothesis, we compared anterior gastric wall and greater gastric curvature invaginations for weight loss (second series of experiments - Set B). The anterior invagination would be technically easier as it would avoid mobilization of the greater omentum. METHODS: In Set A, 30 rats were randomly divided into 3 groups. 10 rats in the first group (A-CTRANEST) were anesthetized and weighed. The rats from the second group (ACTR- LAP) were in addition submitted to a laparotomy plus visceral manipulation. In the third group (A-INV-CURV), invagination of the greater curvature of the stomach was added. All animals were weighed on the 7th and 21st days. They were then autopsied on the 21st day. In Set B, 20 rats were randomized in 2 groups. The anterior gastric wall of 10 rats was invaginated in the first group (B-INV-ANT). The greater gastric curvature of 10 rats was invaginated in the second group (B-INV-CURV). All animals were weighed weekly for 4 weeks. They were then autopsied on the 28th day. RESULTS: In Set A, the mean body weight of the A-INV-CURV (311,41g) group became less than the A-CTR-LAP (346,18g) and A-CTR-ANEST (362,48) groups, p<0,001 (repeated measures ANOVA). The mean weight of the peritesticular fat pad from the A-INV-CURV group (4364mg) was also significantly less than from the A-CTR-ANEST group (5059mg), p<0,02 (Dunn test), the other peritesticular fat comparisons were indifferent. In Set B, the mean body weight of the B-INV-CURV group (341,90g) became less than the B-INV-ANT group (370,56g) at 21 days, p<0,03 (Tukeys adjustment). The mean weight of the peritesticular fat pad and the mean gastric volume were not different at 28 days (sacrifice). CONCLUSION: Greater gastric curvature invagination (plication) significantly reduces weight compared to isolated anesthesia, to anesthesia and laparotomy, and to anterior gastric wall invagination.
59

Modelos baseados no planejamento para análise de populações finitas / Design-based models for the analysis of finite populations

Luz Mery González Garcia 23 April 2008 (has links)
Estudamos o problema de obtenção de estimadores/preditores ótimos para combinações lineares de respostas coletadas de uma população finita por meio de amostragem aleatória simples. Nesse contexto, estendemos o modelo misto para populações finitas proposto por Stanek, Singer & Lencina (2004, Journal of Statistical Planning and Inference) para casos em que se incluem erros de medida (endógenos e exógenos) e informação auxiliar. Admitindo que as variâncias são conhecidas, mostramos que os estimadores/preditores propostos têm erro quadrático médio menor dentro da classe dos estimadores lineares não viciados. Por meio de estudos de simulação, comparamos o desempenho desses estimadores/preditores empíricos, i.e., obtidos com a substituição das componentes de variância por estimativas, com aquele de competidores tradicionais. Também, estendemos esses modelos para análise de estudos com estrutura do tipo pré-teste/pós-teste. Também por intermédio de simulação, comparamos o desempenho dos estimadores empíricos com o desempenho do estimador obtido por meio de técnicas clássicas de análise de medidas repetidas e com o desempenho do estimador obtido via análise de covariância por meio de mínimos quadrados, concluindo que os estimadores/ preditores empíricos apresentaram um menor erro quadrático médio e menor vício. Em geral, sugerimos o emprego dos estimadores/preditores empíricos propostos para dados com distribuição assimétrica ou amostras pequenas. / We consider optimal estimation of finite population parameters with data obtained via simple random samples. In this context, we extend a finite population mixed model proposed by Stanek, Singer & Lencina (2004, Journal of Statistical Planning and Inference) by including measurement errors (endogenous or exogenous) and auxiliary information. Assuming that variance components are known, we show that the proposed estimators/predictors have the smallest mean squared error in the class of unbiased estimators. Using simulation studies, we compare the performance of the empirical estimators/predictors obtained by replacing variance components with estimates with the performance of a traditional estimator. We also extend the finite population mixed model to data obtained via pretest-posttest designs. Through simulation studies, we compare the performance of the empirical estimator of the difference in gain between groups with the performance of the usual repeated measures estimator and with the performance of the usual analysis of covariance estimator obtained via ordinary least squares. The empirical estimator has smaller mean squared error and bias than the alternative estimators under consideration. In general, we recommend the use of the proposed estimators/ predictors for either asymmetric response distributions or small samples.
60

Avaliação da Pesca da Lagosta Vermelha (Panulirus argus) e da Lagosta verde (Panulirus laevicauda) na Plataforma Continental do Brasil. / Assessment of the fishing of spiny lobsters (Panulirus argus and Panulirus laevicauda) in the continental shelf of Brazil

Barroso, Juarez Coelho January 2012 (has links)
BARROSO, Juarez Coelho. Avaliação da Pesca da Lagosta Vermelha (Panulirus argus) e da Lagosta verde (Panulirus laevicauda) na Plataforma Continental do Brasil. 2012. 109 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências Agrárias, Departamento de Engenharia de Pesca, Fortaleza-CE, 2012 / Submitted by Nádja Goes (nmoraissoares@gmail.com) on 2016-07-18T13:17:31Z No. of bitstreams: 1 2012_dis_jcbarroso.pdf: 2594115 bytes, checksum: ce2b67584a13e444ae16d1c1c08898f1 (MD5) / Approved for entry into archive by Nádja Goes (nmoraissoares@gmail.com) on 2016-07-18T13:17:44Z (GMT) No. of bitstreams: 1 2012_dis_jcbarroso.pdf: 2594115 bytes, checksum: ce2b67584a13e444ae16d1c1c08898f1 (MD5) / Made available in DSpace on 2016-07-18T13:17:44Z (GMT). No. of bitstreams: 1 2012_dis_jcbarroso.pdf: 2594115 bytes, checksum: ce2b67584a13e444ae16d1c1c08898f1 (MD5) Previous issue date: 2012 / Extractive fishing lobster in Brazil is an important economic activity which includes different social sectors in the coastal region and provides an average annual income of USD$ 84 million. The great demand for the product, the high value in international market, expansion of the artisanal fleet, failure in enforce of conservation measures, the fishing impact on ecosystems and perhaps climate variability, have led to a high exploitation or overexploitation of the crustacean stocks. The evaluation and fishery prediction depends of biological and fisheries data collection, in the last two decades the absence of these data and the lack in the life cycle study generated a high level of uncertainty in the management of the fishery. In the present study, a comprehensive analysis is done of biological and fishery information generated by the thesis project and the data that precedes. The areas of the stock aggregation were distributed into 31 strata covering an area of 356.610 km², divided into two regions: shallow < 50 m (160.510 km²) and depth between 50 and 100 m (196.100 km²). The medium productivity index (1999-2006) between species was 29,75 kg/km² in Panulirus argus and 8,39 kg/km² in P. laevicauda; in different strata varied between 0.02 and 217.0 kg/km² (both species). Catchability coefficients ranged between 0.10 and 0.14, showing that the fishing gears (caçoeira, manzuá and cangalha) have a low efficiency in the lobster fishery. The sampling of landings between different fishing periods (1970-1979, 1980-1988 and 1989-1993) showed a progressive decrease in the small lobsters and as a result the mean length showed an increasing trend. The random samples on boats that fished between 20 and 35 m (1999), revealed that lobsters recruited (50 and 75 mm, Lc) accounted for 91% (P. argus) and 96% (P. laevicauda) of the total catch, which with the expansion of fishing (increased effort) was accompanied by a decreasing of the CPUE by fishing grids (between 1974 and 1991), showed a growth overfishing which are probably influencing in the high variations of the annual catches and its negative trend observed in the last fifteen years (1995-2009). The analysis between CPUE and abundance (N), revealed a lack of proportionality (hyperstability) between both parameters, which could be affecting the relationship between CPUE and effort and overestimating yield maximum sustainable (YMS). We estimated a yield maximum sustainable per unit area of 14 kg/km² and a yield maximum sustainable preliminary between 5,000 and 5,604 t. This empirical result should be confirmed through the development of stratified random sampling is proposed in this study. There is not evidence of recruitment overfishing in the stocks, but high rates of exploitation in the deep stock (50 to 100 m) of P. argus, composed mainly of older specimens and high reproductive power, could be accentuating the risk of low recruitment and collapse. This high level of uncertainty which takes the lobster fishery on the continental shelf of Brazil must be addressed by new ways of thinking, by a long-term and acquiring new skills and knowledge to develop fisheries sustainable. / A pesca extrativa de lagosta no Brasil é uma atividade econômica importante que engloba diferentes setores sociais na região costeira e que aporta um ingresso médio anual de 84 milhões de dólares. A grande demanda do produto, o elevado valor no mercado internacional, a expansão da frota artesanal, o não cumprimento das medidas de conservação, o impacto da pesca no ecossistema e possivelmente a variabilidade do clima, tem propiciado uma elevada explotação ou sobre-explotação dos estoques destes crustáceos. A avaliação e previsão da pescaria dependem da coleta de informação biológica e pesqueira, em que nas duas últimas décadas a ausência destes dados e a falta de estudo do ciclo de vida gerou um elevado nível de incerteza na administração da pescaria. No presente estudo, foi realizada uma análise integral da informação biológico-pesqueira gerada pelo projeto de mestrado e pelos dados que o precedem. As zonas de agregação dos estoques pesqueiros se distribuíram em 31 estratos que cobrem uma área de 356.610 km², divididos em duas regiões: rasa < 50 m (160.510 km²) e profunda entre 50 e 100 m (196.100 km²). O índice de produtividade médio (1999-2006) entre espécies foi de 29,75 kg/km² em Panulirus argus e de 8,39 kg/km² em P. laevicauda; nos diferentes estratos variou entre 0,02 e 217,0 kg/km² (ambas as espécies). Os coeficientes de capturabilidade variaram entre 0,10 e 0,14, demonstrando-se que os aparelhos de pesca (caçoeira, manzuá e cangalha) apresentam uma baixa eficiência na pescaria de lagosta. A amostragem dos desembarques entre diferentes períodos de pesca (1970-1979, 1980-1988 e 1989-1993) mostrou uma diminuição progressiva das lagostas pequenas e, como resultado, o comprimento médio mostrou uma tendência crescente. As amostragens aleatórias nas embarcações que pescaram entre 20 e 35 m (1999) revelaram que as lagostas recrutadas (50 e 75 mm, CC) representaram 91% (P. argus) e 96% (P. laevicauda) do total capturado, que conjuntamente com a expansão da área de pesca (aumento do esforço) e a diminuição da CPUE por quadrículas de pesca (entre 1974 e 1991), evidenciaram uma sobrepesca de crescimento que provavelmente esteja influenciando nas elevadas variações das capturas anuais e em sua tendência negativa observada nos últimos 15 anos (1995-2009). A análise realizada entre a CPUE e a abundância (N), revelou uma falta de proporcionalidade (hiperestabilidade) entre ambos os parâmetros, que poderia estar afetando a relação entre a CPUE e o esforço, e sobre-estimando as estimativas do rendimento máximo sustentável (RMS). Foi estimado um rendimento máximo sustentável por unidade de área de 14 kg/km² e um rendimento máximo sustentável preliminar entre 5.000 e 5.604 t. Este resultado empírico deve ser corroborado a partir do desenvolvimento da amostragem aleatória estratificada que foi proposto no presente estudo. Não existem evidências de uma sobrepesca de recrutamento nos estoques, mas as altas taxas de explotação no estoque do setor profundo (50 e 100 m) de P. argus, composto principalmente por exemplares mais velhos e de elevado poder reprodutor, poderia estar acentuando o risco dos recrutamentos baixos e dos colapsos. Este grande nível de incerteza pelo que transcorre a pescaria de lagosta na plataforma continental do Brasil deve ser abordado por formas de pensar novas e diferentes, por uma visão em longo prazo e pela obtenção de novos conhecimentos científicos que permitam desenvolver uma pesca sustentável.

Page generated in 0.0379 seconds