• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 2
  • 1
  • Tagged with
  • 72
  • 58
  • 27
  • 22
  • 14
  • 13
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Um novo método híbrido aplicado à solução de sistemas não-lineares com raízes múltiplas / A new hybrid method applied to the solution of nonlinear systems with multiple roots

Maurício Rodrigues Silva 22 June 2009 (has links)
Este trabalho tem como objetivo apresentar soluções de sistemas não-lineares com raízes múltiplas, através de um algoritmo híbrido. Para esta finalidade foi desenvolvido e implementado um algoritmo de busca aleatória baseado no método proposto por Luus e Jaakola (1973) como etapa de busca aleatória dos pontos iniciais, que são refinados através do algoritmo de Hooke e Jeeves. O diferencial deste trabalho foi propor um algoritmo híbrido, utilizando as características dos algoritmos Luus-Jaakola e Hooke e Jeeves como etapas de busca e refinamento respectivamente. Para isso, os algoritmos acima são encapsulados em funções no algoritmo híbrido. Além destas duas etapas, o algoritmo híbrido possui duas outras características importantes, que é a execução repetida até que se alcance um número suficiente de soluções distintas, que são então submetidas a um processo de classificação de soluções por intervalo, onde cada intervalo gera um conjunto de soluções próximas, que por sua vez, são submetidas à etapa final de minimização, resultando em apenas um valor de solução por classe. Desta forma cada classe produz uma única solução, que faz parte do conjunto final de soluções do problema, pois este algoritmo é aplicado a problemas com múltiplas soluções. Então, o algoritmo híbrido desenvolvido foi testado, tendo como padrão, vários problemas clássicos de programação não-linear, em especial os problemas irrestritos com múltiplas soluções. Após os testes, os resultados foram comparados com o algoritmo Luus-Jaakola, e o Método de Newton Intervalar / Bisseção Generalizada (IN/GB - Interval Newton/Generalized Bisection), com a finalidade de se obter uma análise quantitativa e qualitativa de seu desempenho. Por fim comprovou-se que o algortimo Híbrido obteve resultados superiores quando comparados com os demais. / This paper aims to present solutions for nonlinear systems with multiple roots, using a hybrid algorithm. For this purpose was developed and implemented an algorithm based on random search method proposed by Luus and Jaakola (1973) as a step in search of random starting points, which will be refined through the algorithm of Hooke and Jeeves. The differential of this work is to propose a hybrid algorithm, using the characteristics of the Luus-Jaakola algorithm and Hooke and Jeeves as a search and refinement stages respectively. For this, the above algorithms are encapsulated in functions in the hybrid algorithm. Besides these two steps, the hybrid algorithm has two other important characteristics, which is the execution repeated until to reach a sufficient number of distinct solutions, which is then undergo a process of classification of solutions by interval, where each interval generates a set solutions to close, which in turn is subject to the final stage of minimization, resulting in only one value per class of solution. Thus each class provides a unique solution, which is part of the final set of solutions of the problem, because this algorithm is applied to problems with multiple solutions. So, the hybrid algorithm developed was tested, with the standard, several problems of classical non-linear programming, in particular the unrestricted problems with multiple solutions. After the tests, the results were compared with algorithm Luus-Jaakola, and the Interval Newton/Generalized Bisection method (IN/GB), in order to obtain a quantitative and qualitative analysis of their performance. Finally it was found that the hybrid algortimo achieved higher when compared to the others.
62

Um novo método híbrido aplicado à solução de sistemas não-lineares com raízes múltiplas / A new hybrid method applied to the solution of nonlinear systems with multiple roots

Maurício Rodrigues Silva 22 June 2009 (has links)
Este trabalho tem como objetivo apresentar soluções de sistemas não-lineares com raízes múltiplas, através de um algoritmo híbrido. Para esta finalidade foi desenvolvido e implementado um algoritmo de busca aleatória baseado no método proposto por Luus e Jaakola (1973) como etapa de busca aleatória dos pontos iniciais, que são refinados através do algoritmo de Hooke e Jeeves. O diferencial deste trabalho foi propor um algoritmo híbrido, utilizando as características dos algoritmos Luus-Jaakola e Hooke e Jeeves como etapas de busca e refinamento respectivamente. Para isso, os algoritmos acima são encapsulados em funções no algoritmo híbrido. Além destas duas etapas, o algoritmo híbrido possui duas outras características importantes, que é a execução repetida até que se alcance um número suficiente de soluções distintas, que são então submetidas a um processo de classificação de soluções por intervalo, onde cada intervalo gera um conjunto de soluções próximas, que por sua vez, são submetidas à etapa final de minimização, resultando em apenas um valor de solução por classe. Desta forma cada classe produz uma única solução, que faz parte do conjunto final de soluções do problema, pois este algoritmo é aplicado a problemas com múltiplas soluções. Então, o algoritmo híbrido desenvolvido foi testado, tendo como padrão, vários problemas clássicos de programação não-linear, em especial os problemas irrestritos com múltiplas soluções. Após os testes, os resultados foram comparados com o algoritmo Luus-Jaakola, e o Método de Newton Intervalar / Bisseção Generalizada (IN/GB - Interval Newton/Generalized Bisection), com a finalidade de se obter uma análise quantitativa e qualitativa de seu desempenho. Por fim comprovou-se que o algortimo Híbrido obteve resultados superiores quando comparados com os demais. / This paper aims to present solutions for nonlinear systems with multiple roots, using a hybrid algorithm. For this purpose was developed and implemented an algorithm based on random search method proposed by Luus and Jaakola (1973) as a step in search of random starting points, which will be refined through the algorithm of Hooke and Jeeves. The differential of this work is to propose a hybrid algorithm, using the characteristics of the Luus-Jaakola algorithm and Hooke and Jeeves as a search and refinement stages respectively. For this, the above algorithms are encapsulated in functions in the hybrid algorithm. Besides these two steps, the hybrid algorithm has two other important characteristics, which is the execution repeated until to reach a sufficient number of distinct solutions, which is then undergo a process of classification of solutions by interval, where each interval generates a set solutions to close, which in turn is subject to the final stage of minimization, resulting in only one value per class of solution. Thus each class provides a unique solution, which is part of the final set of solutions of the problem, because this algorithm is applied to problems with multiple solutions. So, the hybrid algorithm developed was tested, with the standard, several problems of classical non-linear programming, in particular the unrestricted problems with multiple solutions. After the tests, the results were compared with algorithm Luus-Jaakola, and the Interval Newton/Generalized Bisection method (IN/GB), in order to obtain a quantitative and qualitative analysis of their performance. Finally it was found that the hybrid algortimo achieved higher when compared to the others.
63

Pupilometria na investigação de diabetes mellitus tipo II / Pupilometry in the Investigation of diabetes mellitus type II

Silva, Cleyton Rafael Gomes 28 September 2018 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2018-11-14T12:45:33Z No. of bitstreams: 2 Dissertação - Cleyton Rafael Gomes Silva - 2018.pdf: 3259568 bytes, checksum: 21f7d8194e8929ef29e8df95ef8f6a0a (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-11-14T13:02:15Z (GMT) No. of bitstreams: 2 Dissertação - Cleyton Rafael Gomes Silva - 2018.pdf: 3259568 bytes, checksum: 21f7d8194e8929ef29e8df95ef8f6a0a (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-11-14T13:02:15Z (GMT). No. of bitstreams: 2 Dissertação - Cleyton Rafael Gomes Silva - 2018.pdf: 3259568 bytes, checksum: 21f7d8194e8929ef29e8df95ef8f6a0a (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-09-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Examining human pupillary behavior is a non-invasive, low-cost method for assessing neurological activity. Changes in this behavior are correlated to various health conditions, such as: Parkinson’s, Alzheimer’s, autism and diabetes. In order to obtain information about the pupillary behavior, it is necessary to measure the pupil diameter in procedures that induce pupillary reflexes, known as Pupilometry. Pupillary measurement is made by filming the procedures when applying computer vision techniques for pupil recognition. The objective of this research was to develop an Automated Pupilometry System (SAP) to support the investigation of patients with type II diabetes mellitus. SAP was able to record, induce, and extract 96 pupil features. In the experiment with 15 healthy patients and 16 diabetics, a 94% accuracy in the identification of diabetics type II was obtained, demonstrating the efficiency of SAP for the performance of examinations, and evidencing the potential of pupil use in the investigation of diabetes mellitus type II. / Examinar o comportamento pupilar humano é um método não-invasivo e de baixo-custo para avaliar atividade neurológica. Alterações neste comportamento são correlacionadas a várias condições de saúde, como: Parkinson, Alzheimer, autismo e diabetes. Para se obter informações do comportamento pupilar é necessário medir o diâmetro da pupila em procedimentos que induzem os reflexos pupilares, conhecidos como Pupilometria. A medição pupilar é feita por meio da filmagem dos procedimentos ao aplicar-se técnicas de visão computacional para reconhecimento da pupila. O objetivo desta pesquisa foi desenvolver um Sistema Automatizado de Pupilometria (SAP) para apoiar a investigação de pacientes com diabetes mellitus tipo II. O SAP foi capaz de gravar, induzir, e extrair 96 característicaspupilares. No experimento com 15 pacientes saudáveis e 16 diabéticos foi obtida uma acurácia de 94% na identificação de diabéticos tipo II, demonstrando a eficiência do SAP para a performance de exames, e evidenciando o potencial do uso da pupila na investigação de diabetes mellitus tipo II.
64

Impacto da solução de Carnoy no número de linfonodos resgatados em peças cirúrgicas de câncer gástrico: estudo prospectivo randomizado / Impact of Carnoy\'s solution in lymph node retrieval following D2 gastrectomy for gastric cancer: prospective randomized trial

Andre Roncon Dias 25 August 2014 (has links)
Introdução: O adenocarcinoma gástrico é uma doença de elevada incidência e alta mortalidade. A gastrectomia com linfadenectomia é tratamento potencialmente curativo, promovendo controle loco-regional da doença e fornecendo material para análise histopatológica. Para o adequado estadiamento dos pacientes é recomendado que pelo menos 16 linfonodos sejam examinados pela patologia, entretanto, espera-se maior sobrevida quando >= 30 linfonodos são avaliados, mesmo em pacientes com tumores precoces. A justificativa para este achado é o sub-estadiamento de pacientes com poucos linfonodos examinados. Linfonodos pequenos são particularmente difíceis de serem encontrados, mas podem conter metástases e impactar negativamente na sobrevida. Visando facilitar sua identificação, soluções clareadoras de gordura foram propostas, entretanto não há evidência clara de seu benefício clínico. Objetivos: Comparar as soluções de Carnoy e de formalina neutra tamponada em relação ao número absoluto de linfonodos encontrados na peça cirúrgica de pacientes submetidos a gastrectomia. Averiguar se linfonodos retirados cirurgicamente são perdidos com a fixação em formalina e, caso isso ocorra, se este fato é relevante para o estadiamento. Observar se o protocolo de pesquisa influenciou o número de linfonodos encontrados. Métodos: Cinquenta produtos de gastrectomia subtotal com linfadenectomia D2 por adenocarcinoma gástrico foram randomizados para fixação em Carnoy ou formalina com posterior dissecção da peça em busca de linfonodos. Após a dissecção do grupo Formalina, a gordura residual a ser desprezada foi imersa em Carnoy e reavaliada posteriormente. Os dados de 25 gastrectomias D2 operadas previamente ao estudo também foram avaliados. Resultados: A média de linfonodos encontrados nos grupos Carnoy e Formalina foi de 50,4 e 34,8; respectivamente (p < 0,001). Na gordura residual foram encontrados linfonodos em todos os casos (média 16,9 linfonodos), elevando a média do grupo Formalina para 51,7 (valor similar ao do grupo Carnoy, p=0,809). Com exceção de 1 linfonodo de 7mm, todos os demais encontrados na gordura residual mediram <= 3mm. Treze linfonodos metastáticos passaram despercebidos com a fixação em formalina e a revisão da gordura residual determinou a mudança de estadiamento de 2 (8%) pacientes. Os linfonodos encontrados no Carnoy possuíam tamanho significativamente menor quando comparados aos do grupo Formalina (p=0,01). A média de linfonodos encontrados no grupo retrospectivo foi similar ao do grupo Formalina prospectivo (p=0,802). Conclusões: Quando comparada à formalina, a solução de Carnoy permite encontrar número maior de linfonodos no espécime cirúrgico de gastrectomias com linfadenectomia. Linfonodos milimétricos foram perdidos após a fixação em formalina, estes foram identificados com o Carnoy e são clinicamente relevantes, pois podem conter metástases modificando assim, o estádio clínico e prognóstico do paciente. A implementação de protocolo de pesquisa não influenciou o número de linfonodos encontrados neste estudo / Background: Gastric adenocarcinoma is a frequent disease with high mortality ratio. Gastrectomy with lymphadenectomy is potentially curative, allows local control of the disease and provides material for TNM classification. While pathology examination of at least 16 lymph nodes is recommended following surgery, longer survival rates are expected when >=30 lymph nodes are examined, even for early gastric cancer. The understaging of patients with less examined lymph nodes justifies this findings. Small lymph nodes are particularly difficult to identify and fat clearing solutions have been proposed to improve this, but there is no evidence of their clinical benefit. Objectives: Compare Carnoy\'s solution (CS) and formalin in terms of the total number of examined lymph nodes following gastrectomy. Verify if surgically retrieved lymph nodes are lost with the formalin fixation and if this fact is clinically significant. Observe if a research protocol influences the number of examined lymph nodes. Methods: Fifty specimens of gastrectomy with D2 lymphadenectomy were randomized for fixation in CS or formalin with posterior dissection in search for lymph nodes. In the Formalin group, the residual fat to be discarded was immersed in CS and dissected again. Data from 25 D2 gastrectomies performed previously the present study were retrospectively analyzed. Results: The medium number of examined lymph nodes was 50.4 and 34.8 for CS and formalin, respectively (p < 0.001). Lost lymph nodes were found in all cases in the Residual Fat group (medium 16.9), this increased the Formalin group average to 51.7 (which is similar to the CS group, p=0.809). With one exception (7mm), all other examined lymph nodes in the Residual Fat group measured <= 3mm. Thirteen lymph nodes from this group were metastatic, this determined the upstaging of 2 (8%) patients. Lymph nodes from the CS group were smaller than those found in the formalin group (p=0.01). The medium number of retrieved lymph nodes in the retrospective group was similar to the formalin group (p=0.802). Conclusions: When compared to formalin, Carnoy\'s solution increases lymph node detection following gastrectomy with lymphadenectomy. CS identifies small lymph nodes lost with formalin fixation and that are clinically significant, since they may contain metastasis, modifying the TNM classification. No influence of the research protocol over the number of examined lymph nodes was observed in the present study.
65

Eficiência do pré-escrutínio rápido, revisão aleatória de 10% e critérios clínicos de risco como métodos de controle interno da qualidade dos exames citopatológicos cervicais / Efficiency of rapid prescreening, 10% random review and review based on clinical risk criteria as methods of internal quality control of cervical smear testing

TAVARES, Suelene Brito do Nascimento 06 September 2007 (has links)
Made available in DSpace on 2014-07-29T15:29:13Z (GMT). No. of bitstreams: 1 Dissertacao Suelene Brito do Nascimento Tavares.pdf: 1452329 bytes, checksum: 6d86236e3c08daf9227c6b9f207128b7 (MD5) Previous issue date: 2007-09-06 / Cytopathology is an effective method of screening for cervical cancer; however, this method has high rates of false-negative results (FNR). To reduce FNR, routine measures of internal and external quality control are required in laboratories. The 10% random review of negative smears (R-10%) is the most commonly used method; however, it is not effective in reducing FNR. Nevertheless, there is evidence that the review of smears selected according to clinical risk factors (RCRF) and rapid prescreening (RPS) of all smears present good results. This study evaluated the performance of RPS, R-10% and RCRF as methods of internal quality control of cervical smear testing. The sample was composed of a total of 6,135 cervical smears from women who had attended Basic Health Clinics in Goiânia Goiás between March 2006 and March 2007. The cytopathological results were classified according to the 2001 Bethesda System. Initially, 6,135 smears were submitted to RPS followed by routine scrutiny (RS). Following RS, smears classified as negative were selected on the basis of clinical risk criteria, while 10% of all the smears were selected randomly, both sets then being submitted to the respective reviews. Four cytologists were responsible for RPS, RS, R-10% and RCRF, and three for reviewing the abnormal and discordant smears from any of the reviews. The smears classified as negative in RPS, RS, R-10% and RCRF were considered to have a final diagnosis (FD) of negative. Smears considered suspect or unsatisfactory at RPS were analyzed separately by two other cytologists. Smears considered abnormal or unsatisfactory at RS, R-10% and/or RCRF were likewise reviewed. When the two reviewing cytologists reached concordant diagnoses, these were considered the FD. Discordant results were analyzed by a third cytologist and a consensus meeting was held to define the FD. All stages of the study were performed blinded except for the consensus meeting. Smears classified as negative at RS, which were suspect at RPS and/or considered abnormal at R-10% and RCRF and confirmed abnormal in the FD, were considered FN results. Of the 6,135 smears, 5,522 were classified as negative, 84 as unsatisfactory and 529 as abnormal in the FD. Sensitivity of RPS was 63.0% for all abnormalities and 96.7% for high-grade squamous intraepithelial lesion (HSIL) compared to RS. The sensitivity of RPS was 74.9% for all abnormalities and 95.0% for HSIL compared to FD. The sensitivity of R-10% was 53.8% for all abnormalities when compared to FD. R-10% failed to detect any cases of HSIL. The sensitivity of RCRF was 64.0% for all abnormalities and 75.0% for HSIL compared to the FD. RPS identified an additional 132 (2.15%) abnormal smears, whereas R-10% and RCRF identified an additional 7 (0.11%) and 32 (0.52%), respectively. In conclusion, RPS is an effective method of internal quality control and has better sensitivity than R-10% and RCRF for the detection of FN results. It also allows the FN rate of the laboratory to be monitored and permits continuous evaluation of the prescreening cytologist and the routine screening cytologist. / O exame citopatológico é um método eficiente para prevenir o câncer do colo do útero, no entanto, apresenta altas taxas de resultados falso-negativos (RFN). Para reduzir os RFN, são necessárias medidas de controle interno e externo da qualidade na rotina dos laboratórios. O método de revisão aleatória de 10% dos esfregaços negativos (R-10%) é o mais utilizado, no entanto, não é eficiente para reduzir os RFN. Porém, há evidências de que a revisão dos esfregaços selecionados por critérios clínicos de risco (RCCR) e o pré-escrutínio rápido (PER) apresentam bons resultados. Esse estudo comparou o desempenho do PER, R-10% e RCCR como métodos de controle interno da qualidade dos esfregaços cervicais. A casuística foi constituída por 6.135 esfregaços citopatológicos cervicais de mulheres atendidas nas Unidades Básicas de Saúde de Goiânia GO, no período de março de 2006 a março de 2007. Os resultados citopatológicos foram classificados de acordo com o Sistema de Bethesda 2001. Inicialmente 6.135 esfregaços foram submetidos ao PER e em seguida ao escrutínio de rotina (ER). Após o ER os esfregaços classificados como negativos foram selecionados com base em critérios clínicos de risco e aleatoriamente 10% do total de esfregaços e submetidos às respectivas revisões. Quatro citologistas foram responsáveis pelo PER, ER, R-10% e RCCR e três pelas revisões dos esfregaços alterados e discordantes em qualquer revisão. Os esfregaços com resultados negativos no PER, ER, R-10% e RCCR foram considerados diagnóstico final (DF). Os esfregaços com resultados suspeitos ou insatisfatórios, pelo PER, foram analisados separadamente por dois outros citologistas. Também os esfregaços cujos resultados foram considerados alterados ou insatisfatórios pelo ER, R-10% e/ou RCCR foram igualmente revisados. Quando os dois citologistas revisores emitiram diagnósticos concordantes estes foram considerados DF. Os resultados discordantes foram analisados por um terceiro citologista e em uma reunião de consenso foi definido o DF. Todas as etapas do estudo foram realizadas às cegas, exceto na reunião de consenso. Os esfregaços classificados como negativos pelo ER que foram suspeitos pelo PER e/ou alterados nas R-10% e RCCR e confirmados pelo DF foram considerados RFN. Dos 6.135 esfregaços, 5.522 foram classificados como negativos, 84 como insatisfatórios e 529 como alterados pelo DF. A sensibilidade do PER foi de 63,0% para todas as anormalidades e de 96,7% para lesão intra-epitelial escamosa de alto grau (HSIL) quando comparado ao ER. A sensibilidade do PER foi de 74,9% para todas as anormalidades e de 95,0% para HSIL quando comparado ao DF. A sensibilidade da R-10% foi de 53,8% para todas as anormalidades quando comparado ao DF e não detectou nenhuma HSIL, enquanto a sensibilidade da RCCR foi de 64,0% para todas as anormalidades e de 75,0% para HSIL quando comparado ao DF. O PER acrescentou 132 (2,15%) esfregaços alterados, enquanto que a R-10% e a RCCR acrescentaram sete (0,11%) e 32 (0,52%), respectivamente. Enfim, o PER é uma alternativa eficiente de controle interno da qualidade, apresentando maior sensibilidade que as R-10% e RCCR na detecção de RFN. Permite, ainda, monitorar a taxa de RFN do laboratório, assim como avaliar continuamente o desempenho tanto do pré-escrutinador quanto do escrutinador de rotina.
66

Invaginações (plicaturas) da grande curvatura gástrica e da parede anterior do estômago para controle de peso: modelos experimentais / Greater gastric curvature and anterior gastric wall invaginations (plications) for weight management: experimental models

Pedro Ehrmann Brasiliense Fusco 07 January 2010 (has links)
INTRODUÇÃO: Muitos procedimentos cirúrgicos e endoscópicos bariátricos realizados atualmente diminuem o volume da luz gástrica de forma isolada ou associados a intervenção sobre o intestino. Uma forma de invaginação ou plicatura gástrica associada ao envolvimento protético do estômago foi usada para tratamento cirúrgico da obesidade. O procedimento foi abandonado devido à elevada taxa de complicações e re-intervenções causadas pelo contato da prótese com as vísceras abdominais. A fundoplicatura a Nissen usada para tratamento de refluxo gastroesofágico leva a emagrecimento pequeno, mas significativo. Na fundoplicatura a Nissen não são usados (e, portanto, não há complicações relacionadas a) secção, grampeamento, anastomose, bandas, anéis ou corpos estranhos. Neste trabalho formulamos a hipótese que a invaginação da grande curvatura gástrica levaria a perda de peso em ratos (Série A - primeira série de experimentos). Confirmada esta hipótese, testamos se a invaginação da parede gástrica anterior teria efeito semelhante (Série B - segunda série de experimentos). A invaginação da parede gástrica anterior evitaria a mobilização do grande omento. MÉTODO: Na Série A, trinta ratos foram sorteados em três grupos. Os dez ratos do primeiro grupo, chamado ACTR- ANEST, foram anestesiados e pesados. Aos dez ratos do segundo grupo, chamado A-CTR-LAP, foram adicionadas laparotomia e manipulação visceral à anestesia. Ao terceiro grupo, chamado A-INV-CURV, foi adicionada uma invaginação da grande curvatura gástrica à anestesia e laparotomia. Os animais da Série A foram pesados novamente no sétimo dia após os procedimentos; pesados, sacrificados e necropsiados no vigésimo - primeiro dia após os procedimentos. Na segunda série de experimentos (Série B), vinte ratos foram sorteados em dois grupos. A parede gástrica anterior foi invaginada em dez ratos no primeiro grupo (B-INV-ANT). A grande curvatura gástrica foi invaginada em dez ratos no segundo grupo (B-INV-CURV). Nesta Série B, os ratos foram pesados semanalmente por quatro semanas, sacrificados e necropsiados no vigésimo - oitavo dia após os procedimentos. RESULTADOS: Na Série A, a média de pesos corporais do grupo A-INV-CURV (311,41g) tornou-se menor que a dos grupos A-CTR-LAP (346,18g) e A-CTR-ANEST (362,48), p<0,001 (ANOVA medidas repetidas). A média de pesos das gorduras peri-testiculares foi significativamente diferente somente entre os grupos A-INV-CURV (4364mg) e A-CTR-ANEST (5059mg), p<0,02 (teste de Dunn). Na Série B, a média de pesos corporais do grupo B-INV-CURV (341,90g) tornou-se menor que a do grupo B-INV-ANT (370,56g) no vigésimo - primeiro dia após os procedimentos, p<0,03 (ajuste de Tukey). Os pesos das gorduras peri-testiculares e os volumes gástricos luminais não foram diferentes no vigésimo - oitavo dia após os procedimentos (sacrifício). CONCLUSÃO: A invaginação da grande curvatura gástrica leva a redução de peso em ratos quando comparada a anestesia isolada, a anestesia seguida de laparotomia, e a invaginação da parede gástrica anterior. / BACKGROUND: Many bariatric endoscopic or surgical procedures performed today reduce gastric luminal volume, alone or in combination with a distal enteric intervention. A form of prosthetic wrap of the folded (or plicated) stomach was used in the past for treating obesity with a high rate of prosthesis-related reintervention. Nissen gastric fundoplication used in the treatment of gastroesophageal reflux disease induces a small but significant weight loss without gastric stapling, partitioning, or prosthesis-related morbidity. We hypothesized greater gastric curvature invagination would lead to weight loss in rats (first series of experiments named Set A). Once confirmed this hypothesis, we compared anterior gastric wall and greater gastric curvature invaginations for weight loss (second series of experiments - Set B). The anterior invagination would be technically easier as it would avoid mobilization of the greater omentum. METHODS: In Set A, 30 rats were randomly divided into 3 groups. 10 rats in the first group (A-CTRANEST) were anesthetized and weighed. The rats from the second group (ACTR- LAP) were in addition submitted to a laparotomy plus visceral manipulation. In the third group (A-INV-CURV), invagination of the greater curvature of the stomach was added. All animals were weighed on the 7th and 21st days. They were then autopsied on the 21st day. In Set B, 20 rats were randomized in 2 groups. The anterior gastric wall of 10 rats was invaginated in the first group (B-INV-ANT). The greater gastric curvature of 10 rats was invaginated in the second group (B-INV-CURV). All animals were weighed weekly for 4 weeks. They were then autopsied on the 28th day. RESULTS: In Set A, the mean body weight of the A-INV-CURV (311,41g) group became less than the A-CTR-LAP (346,18g) and A-CTR-ANEST (362,48) groups, p<0,001 (repeated measures ANOVA). The mean weight of the peritesticular fat pad from the A-INV-CURV group (4364mg) was also significantly less than from the A-CTR-ANEST group (5059mg), p<0,02 (Dunn test), the other peritesticular fat comparisons were indifferent. In Set B, the mean body weight of the B-INV-CURV group (341,90g) became less than the B-INV-ANT group (370,56g) at 21 days, p<0,03 (Tukeys adjustment). The mean weight of the peritesticular fat pad and the mean gastric volume were not different at 28 days (sacrifice). CONCLUSION: Greater gastric curvature invagination (plication) significantly reduces weight compared to isolated anesthesia, to anesthesia and laparotomy, and to anterior gastric wall invagination.
67

Soluções aproximadas para algoritmos escaláveis de mineração de dados em domínios de dados complexos usando GPGPU / On approximate solutions to scalable data mining algorithms for complex data problems using GPGPU

Alexander Victor Ocsa Mamani 22 September 2011 (has links)
A crescente disponibilidade de dados em diferentes domínios tem motivado o desenvolvimento de técnicas para descoberta de conhecimento em grandes volumes de dados complexos. Trabalhos recentes mostram que a busca em dados complexos é um campo de pesquisa importante, já que muitas tarefas de mineração de dados, como classificação, detecção de agrupamentos e descoberta de motifs, dependem de algoritmos de busca ao vizinho mais próximo. Para resolver o problema da busca dos vizinhos mais próximos em domínios complexos muitas abordagens determinísticas têm sido propostas com o objetivo de reduzir os efeitos da maldição da alta dimensionalidade. Por outro lado, algoritmos probabilísticos têm sido pouco explorados. Técnicas recentes relaxam a precisão dos resultados a fim de reduzir o custo computacional da busca. Além disso, em problemas de grande escala, uma solução aproximada com uma análise teórica sólida mostra-se mais adequada que uma solução exata com um modelo teórico fraco. Por outro lado, apesar de muitas soluções exatas e aproximadas de busca e mineração terem sido propostas, o modelo de programação em CPU impõe restrições de desempenho para esses tipos de solução. Uma abordagem para melhorar o tempo de execução de técnicas de recuperação e mineração de dados em várias ordens de magnitude é empregar arquiteturas emergentes de programação paralela, como a arquitetura CUDA. Neste contexto, este trabalho apresenta uma proposta para buscas kNN de alto desempenho baseada numa técnica de hashing e implementações paralelas em CUDA. A técnica proposta é baseada no esquema LSH, ou seja, usa-se projeções em subespac¸os. O LSH é uma solução aproximada e tem a vantagem de permitir consultas de custo sublinear para dados em altas dimensões. Usando implementações massivamente paralelas melhora-se tarefas de mineração de dados. Especificamente, foram desenvolvidos soluções de alto desempenho para algoritmos de descoberta de motifs baseados em implementações paralelas de consultas kNN. As implementações massivamente paralelas em CUDA permitem executar estudos experimentais sobre grandes conjuntos de dados reais e sintéticos. A avaliação de desempenho realizada neste trabalho usando GeForce GTX470 GPU resultou em um aumento de desempenho de até 7 vezes, em média sobre o estado da arte em buscas por similaridade e descoberta de motifs / The increasing availability of data in diverse domains has created a necessity to develop techniques and methods to discover knowledge from huge volumes of complex data, motivating many research works in databases, data mining and information retrieval communities. Recent studies have suggested that searching in complex data is an interesting research field because many data mining tasks such as classification, clustering and motif discovery depend on nearest neighbor search algorithms. Thus, many deterministic approaches have been proposed to solve the nearest neighbor search problem in complex domains, aiming to reduce the effects of the well-known curse of dimensionality. On the other hand, probabilistic algorithms have been slightly explored. Recently, new techniques aim to reduce the computational cost relaxing the quality of the query results. Moreover, in large-scale problems, an approximate solution with a solid theoretical analysis seems to be more appropriate than an exact solution with a weak theoretical model. On the other hand, even though several exact and approximate solutions have been proposed, single CPU architectures impose limits on performance to deliver these kinds of solution. An approach to improve the runtime of data mining and information retrieval techniques by an order-of-magnitude is to employ emerging many-core architectures such as CUDA-enabled GPUs. In this work we present a massively parallel kNN query algorithm based on hashing and CUDA implementation. Our method, based on the LSH scheme, is an approximate method which queries high-dimensional datasets with sub-linear computational time. By using the massively parallel implementation we improve data mining tasks, specifically we create solutions for (soft) realtime time series motif discovery. Experimental studies on large real and synthetic datasets were carried out thanks to the highly CUDA parallel implementation. Our performance evaluation on GeForce GTX 470 GPU resulted in average runtime speedups of up to 7x on the state-of-art of similarity search and motif discovery solutions
68

Machine learning via dynamical processes on complex networks / Aprendizado de máquina via processos dinâmicos em redes complexas

Cupertino, Thiago Henrique 20 December 2013 (has links)
Extracting useful knowledge from data sets is a key concept in modern information systems. Consequently, the need of efficient techniques to extract the desired knowledge has been growing over time. Machine learning is a research field dedicated to the development of techniques capable of enabling a machine to \"learn\" from data. Many techniques have been proposed so far, but there are still issues to be unveiled specially in interdisciplinary research. In this thesis, we explore the advantages of network data representation to develop machine learning techniques based on dynamical processes on networks. The network representation unifies the structure, dynamics and functions of the system it represents, and thus is capable of capturing the spatial, topological and functional relations of the data sets under analysis. We develop network-based techniques for the three machine learning paradigms: supervised, semi-supervised and unsupervised. The random walk dynamical process is used to characterize the access of unlabeled data to data classes, configuring a new heuristic we call ease of access in the supervised paradigm. We also propose a classification technique which combines the high-level view of the data, via network topological characterization, and the low-level relations, via similarity measures, in a general framework. Still in the supervised setting, the modularity and Katz centrality network measures are applied to classify multiple observation sets, and an evolving network construction method is applied to the dimensionality reduction problem. The semi-supervised paradigm is covered by extending the ease of access heuristic to the cases in which just a few labeled data samples and many unlabeled samples are available. A semi-supervised technique based on interacting forces is also proposed, for which we provide parameter heuristics and stability analysis via a Lyapunov function. Finally, an unsupervised network-based technique uses the concepts of pinning control and consensus time from dynamical processes to derive a similarity measure used to cluster data. The data is represented by a connected and sparse network in which nodes are dynamical elements. Simulations on benchmark data sets and comparisons to well-known machine learning techniques are provided for all proposed techniques. Advantages of network data representation and dynamical processes for machine learning are highlighted in all cases / A extração de conhecimento útil a partir de conjuntos de dados é um conceito chave em sistemas de informação modernos. Por conseguinte, a necessidade de técnicas eficientes para extrair o conhecimento desejado vem crescendo ao longo do tempo. Aprendizado de máquina é uma área de pesquisa dedicada ao desenvolvimento de técnicas capazes de permitir que uma máquina \"aprenda\" a partir de conjuntos de dados. Muitas técnicas já foram propostas, mas ainda há questões a serem reveladas especialmente em pesquisas interdisciplinares. Nesta tese, exploramos as vantagens da representação de dados em rede para desenvolver técnicas de aprendizado de máquina baseadas em processos dinâmicos em redes. A representação em rede unifica a estrutura, a dinâmica e as funções do sistema representado e, portanto, é capaz de capturar as relações espaciais, topológicas e funcionais dos conjuntos de dados sob análise. Desenvolvemos técnicas baseadas em rede para os três paradigmas de aprendizado de máquina: supervisionado, semissupervisionado e não supervisionado. O processo dinâmico de passeio aleatório é utilizado para caracterizar o acesso de dados não rotulados às classes de dados configurando uma nova heurística no paradigma supervisionado, a qual chamamos de facilidade de acesso. Também propomos uma técnica de classificação de dados que combina a visão de alto nível dos dados, por meio da caracterização topológica de rede, com relações de baixo nível, por meio de medidas de similaridade, em uma estrutura geral. Ainda no aprendizado supervisionado, as medidas de rede modularidade e centralidade Katz são aplicadas para classificar conjuntos de múltiplas observações, e um método de construção evolutiva de rede é aplicado ao problema de redução de dimensionalidade. O paradigma semissupervisionado é abordado por meio da extensão da heurística de facilidade de acesso para os casos em que apenas algumas amostras de dados rotuladas e muitas amostras não rotuladas estão disponíveis. É também proposta uma técnica semissupervisionada baseada em forças de interação, para a qual fornecemos heurísticas para selecionar parâmetros e uma análise de estabilidade mediante uma função de Lyapunov. Finalmente, uma técnica não supervisionada baseada em rede utiliza os conceitos de controle pontual e tempo de consenso de processos dinâmicos para derivar uma medida de similaridade usada para agrupar dados. Os dados são representados por uma rede conectada e esparsa na qual os vértices são elementos dinâmicos. Simulações com dados de referência e comparações com técnicas de aprendizado de máquina conhecidas são fornecidos para todas as técnicas propostas. As vantagens da representação de dados em rede e de processos dinâmicos para o aprendizado de máquina são evidenciadas em todos os casos
69

O modelo de regressão odd log-logística gama generalizada com aplicações em análise de sobrevivência / The regression model odd log-logistics generalized gamma with applications in survival analysis

Prataviera, Fábio 11 July 2017 (has links)
Propor uma família de distribuição de probabilidade mais ampla e flexível é de grande importância em estudos estatísticos. Neste trabalho é utilizado um novo método de adicionar um parâmetro para uma distribuição contínua. A distribuição gama generalizada, que tem como casos especiais a distribuição Weibull, exponencial, gama, qui-quadrado, é usada como distribuição base. O novo modelo obtido tem quatro parâmetros e é chamado odd log-logística gama generalizada (OLLGG). Uma das características interessante do modelo OLLGG é o fato de apresentar bimodalidade. Outra proposta deste trabalho é introduzir um modelo de regressão chamado log-odd log-logística gama generalizada (LOLLGG) com base na GG (Stacy e Mihram, 1965). Este modelo pode ser muito útil, quando por exemplo, os dados amostrados possuem uma mistura de duas populações estatísticas. Outra vantagem da distribuição OLLGG consiste na capacidade de apresentar várias formas para a função de risco, crescente, decrescente, na forma de U e bimodal entre outras. Desta forma, são apresentadas em ambos os casos as expressões explícitas para os momentos, função geradora e desvios médios. Considerando dados nãocensurados e censurados de forma aleatória, as estimativas para os parâmetros de interesse, foram obtidas via método da máxima verossimilhança. Estudos de simulação, considerando diferentes valores para os parâmetros, porcentagens de censura e tamanhos amostrais foram conduzidos com o objetivo de verificar a flexibilidade da distribuição e a adequabilidade dos resíduos no modelo de regressão. Para ilustrar, são realizadas aplicações em conjuntos de dados reais. / Providing a wider and more flexible probability distribution family is of great importance in statistical studies. In this work a new method of adding a parameter to a continuous distribution is used. In this study the generalized gamma distribution (GG) is used as base distribution. The GG distribution has, as especial cases, Weibull distribution, exponential, gamma, chi-square, among others. For this motive, it is considered a flexible distribution in data modeling procedures. The new model obtained with four parameters is called log-odd log-logistic generalized gamma (OLLGG). One of the interesting characteristics of the OLLGG model is the fact that it presents bimodality. In addition, a regression model regression model called log-odd log-logistic generalized gamma (LOLLGG) based by GG (Stacy e Mihram, 1965) is introduced. This model can be very useful when, the sampled data has a mixture of two statistical populations. Another advantage of the OLLGG distribution is the ability to present various forms for the failing rate, as increasing, as decreasing, and the shapes of bathtub or U. Explicity expressions for the moments, generating functions, mean deviations are obtained. Considering non-censored and randomly censored data, the estimates for the parameters of interest were obtained using the maximum likelihood method. Simulation studies, considering different values for the parameters, percentages of censoring and sample sizes were done in order to verify the distribuition flexibility, and the residues distrbutuon in the regression model. To illustrate, some applications using real data sets are carried out.
70

O modelo de regressão odd log-logística gama generalizada com aplicações em análise de sobrevivência / The regression model odd log-logistics generalized gamma with applications in survival analysis

Fábio Prataviera 11 July 2017 (has links)
Propor uma família de distribuição de probabilidade mais ampla e flexível é de grande importância em estudos estatísticos. Neste trabalho é utilizado um novo método de adicionar um parâmetro para uma distribuição contínua. A distribuição gama generalizada, que tem como casos especiais a distribuição Weibull, exponencial, gama, qui-quadrado, é usada como distribuição base. O novo modelo obtido tem quatro parâmetros e é chamado odd log-logística gama generalizada (OLLGG). Uma das características interessante do modelo OLLGG é o fato de apresentar bimodalidade. Outra proposta deste trabalho é introduzir um modelo de regressão chamado log-odd log-logística gama generalizada (LOLLGG) com base na GG (Stacy e Mihram, 1965). Este modelo pode ser muito útil, quando por exemplo, os dados amostrados possuem uma mistura de duas populações estatísticas. Outra vantagem da distribuição OLLGG consiste na capacidade de apresentar várias formas para a função de risco, crescente, decrescente, na forma de U e bimodal entre outras. Desta forma, são apresentadas em ambos os casos as expressões explícitas para os momentos, função geradora e desvios médios. Considerando dados nãocensurados e censurados de forma aleatória, as estimativas para os parâmetros de interesse, foram obtidas via método da máxima verossimilhança. Estudos de simulação, considerando diferentes valores para os parâmetros, porcentagens de censura e tamanhos amostrais foram conduzidos com o objetivo de verificar a flexibilidade da distribuição e a adequabilidade dos resíduos no modelo de regressão. Para ilustrar, são realizadas aplicações em conjuntos de dados reais. / Providing a wider and more flexible probability distribution family is of great importance in statistical studies. In this work a new method of adding a parameter to a continuous distribution is used. In this study the generalized gamma distribution (GG) is used as base distribution. The GG distribution has, as especial cases, Weibull distribution, exponential, gamma, chi-square, among others. For this motive, it is considered a flexible distribution in data modeling procedures. The new model obtained with four parameters is called log-odd log-logistic generalized gamma (OLLGG). One of the interesting characteristics of the OLLGG model is the fact that it presents bimodality. In addition, a regression model regression model called log-odd log-logistic generalized gamma (LOLLGG) based by GG (Stacy e Mihram, 1965) is introduced. This model can be very useful when, the sampled data has a mixture of two statistical populations. Another advantage of the OLLGG distribution is the ability to present various forms for the failing rate, as increasing, as decreasing, and the shapes of bathtub or U. Explicity expressions for the moments, generating functions, mean deviations are obtained. Considering non-censored and randomly censored data, the estimates for the parameters of interest were obtained using the maximum likelihood method. Simulation studies, considering different values for the parameters, percentages of censoring and sample sizes were done in order to verify the distribuition flexibility, and the residues distrbutuon in the regression model. To illustrate, some applications using real data sets are carried out.

Page generated in 0.0624 seconds