• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 3
  • 3
  • Tagged with
  • 48
  • 48
  • 12
  • 9
  • 9
  • 8
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Análise de sensibilidade do modelo de fluxos de detritos : Kanako-2D / Sensitivity analysis of debris flow model : Kanako-2D

Paixão, Maurício Andrades January 2017 (has links)
Por se tratar de um fenômeno complexo, a modelagem computacional tem sido utilizada na tentativa de simular o comportamento de fluxos de detritos. Um dos modelos computacionais é o Kanako-2D. O presente trabalho realizou análise de sensibilidade desse modelo em relação a alcance, área de erosão, área de deposição, área total atingida e largura do fluxo. Os valores dos parâmetros de entrada do Kanako-2D, cujas faixas de variação foram estabelecidas a partir de revisão bibliográfica, foram alterados individualmente enquanto os demais eram mantidos nos valores padrão do modelo. Os parâmetros analisados foram: diâmetro dos sedimentos, coeficiente de rugosidade de Manning, coeficiente de taxa de deposição, coeficiente de taxa de erosão, massa específica da fase fluida, massa específica do leito, concentração de sedimentos e ângulo de atrito interno. Foi utilizada uma vertente real com histórico de ocorrência de fluxos de detritos (bacia hidrográfica do arroio Böni, em Alto Feliz e São Vendelino/RS) e uma vertente hipotética com as mesmas características da vertente real para avaliar o efeito da topografia na propagação do fluxo. Também foram simuladas diferentes condições de terreno na propagação do fluxo de detritos. A sensibilidade do modelo foi quantificada a partir de três métodos: (a) análise por rastreamento, que indicou massa específica do leito, ângulo de atrito interno e concentração de sedimentos como os parâmetros que causam maior sensibilidade do modelo; (b) análise regional, indicando que os parâmetros massa específica do leito, ângulo de atrito interno e massa específica da fase fluida apresentaram maior sensibilidade do modelo; e (c) análise das variâncias, em que os parâmetros que mais causaram sensibilidade ao modelo foram coeficiente de taxa de erosão, diâmetro dos sedimentos e massa específica do leito. Os resultados apontaram que, de maneira geral, os parâmetros que geram maior sensibilidade no modelo são massa específica do leito, ângulo de atrito interno e concentração de sedimentos. As maiores variações relativas, no entanto, foram observadas nos parâmetros massa específica do leito, ângulo de atrito interno e massa específica da fase fluida. As maiores sensibilidades foram verificadas, em ordem decrescente, para área de erosão, área total, área de erosão, área de deposição, alcance e largura na vertente real e, para área total, alcance e largura na vertente hipotética. A condição de terreno que gerou maior alcance e área atingida foi de 45° de inclinação na encosta e 17° de inclinação na planície aluvial. / Due to a complex phenomenon, computational modeling has been used in an attempt to simulate the behavior of debris flows. One of the computational models is Kanako-2D. The present work carried out sensitivity analysis of this model in relation to length, erosion area, deposition area, total reached area and flow width. The values of the Kanako-2D input parameters, which ranges were established from literature review, were individually changed while the others were kept at the standard values of the model. The analyzed parameters were: sediment diameter, Manning roughness coefficient, coefficient of deposition rate, coefficient of erosion rate, mass density of the fluid phase, mass density of bed material, sediment concentration and internal friction angle. It was used a real slope-site with a history of occurrences of debris flow (Böni river basin in Alto Feliz and São Vendelino/RS) and a hypothetical slope-site with the same characteristics of the real one to evaluate the effect of the topography in the propagation of the flow. Different hillslope and alluvial fan conditions were also simulated in order to evaluate the length and reached area in the propagation of the flow. The sensitivity was quantified from three methods: (a) screening analysis, which indicated mass density of bed material, internal friction angle and sediment concentration as the parameters that cause bigger sensitivity in the model; (b) regionalized analysis, indicate that the parameters mass density of bed material, internal friction angle and mass density of the fluid phase showed higher sensitivity in the model; and (c) variances analysis, indicated that coefficient of erosion rate, sediment diameter and mass density of bed material showed higher sensitivity in the model. The results showed that, in general, the parameters that generate the higher sensitivity in the model are mass density of bed material, internal friction angle and concentration. The largest relative variation, however, in the response of the model were observed in mass density of bed material, internal friction angle and mass density of fluid phase. In descending order, the highest sensitivities were verified for erosion area, total area, deposition area, length and width for the real slope-site and total area, length and width for the hypothetical slope-site. The terrain condition that generated the largest length and reached area was 45° on the hillslope and 17º on the alluvial fan.
32

Técnicas para o gerenciamento quanti-qualitativo de reservatórios com usos múltiplos da água: estudo de caso do reservatório de Barra Bonita - SP / Techniques for quantitative and qualitative management of reservoirs with multiple uses of water: a case study of the reservoir of Barra Bonita-SP

James Lacerda Maia 27 July 2009 (has links)
Os aspectos quantitativos regem as práticas de engenharia visando o gerenciamento de reservatórios. Entretanto, a preocupação em relação aos aspectos qualitativos da água tem aumentado, já que um número cada vez maior de reservatórios estão sendo utilizados para vários tipos de usos. No processo de gerenciamento de reservatórios é necessário que se leve em consideração todos os usos que serão beneficiados pelo sistema em questão. Nesse sentido, o objetivo do trabalho foi o emprego de técnicas computacionais para análise quanti-qualitativa dos usos múltiplos do reservatório de Barra Bonita - SP, realizando simulações computacionais através do modelo MIKE BASIN; propondo e testando um modelo de otimização com programação não-linear baseado no método das restrições e incorporando o uso de geotecnologias para análise espacial (distribuição horizontal) e temporal (sazonalidade) da qualidade da água do reservatório. Selecionou-se o reservatório de Barra Bonita para análise, devido aos usos múltiplos da água (geração de energia, navegação, recreação, turismo e pesca) e a presença de uma eclusa para transposição do desnível entre a jusante da barragem e o reservatório de acumulação da hidrelétrica, o que torna o reservatório uma área de estudo diferenciada. Os resultados das simulações realizadas no modelo MIKE BASIN para avaliar os usos múltiplos do reservatório, demonstraram que o melhor cenário foi o que estabeleceu prioridades iguais para a geração de energia e a navegação. A maximização da geração de energia hidroelétrica, através do modelo de otimização, não prejudicou os outros usos do reservatório (principalmente a navegação) e, mesmo no período seco, a energia média gerada pelo modelo registrou valores acima da energia média real gerada pela Usina Hidrelétrica de Barra Bonita-SP (período de 2001 a 2005). O emprego de geotecnologias (software Surfer) proporcionou boas condições para análise espaço-temporal da qualidade da água, quando aliado ao conhecimento sobre as características e condições do ambiente de estudo. Os dados obtidos em campo, demonstraram que algumas variáveis analisadas, como a condutividade elétrica e a turbidez aumentam significativamente do período seco para o chuvoso, pois estão diretamente relacionados com o aporte de material orgânico e inorgânico. O potencial hidrogeniônico (pH) sofre uma variação muito pequena do período seco para o chuvoso, mas seus valores variam espacialmente, sendo encontrados valores maiores no compartimento da barragem para o período seco, e no final do braço do rio Piracicaba para o período chuvoso. Quanto ao oxigênio dissolvido, este aumenta bastante do período chuvoso para o seco, mas em ambos os períodos as maiores concentrações são encontradas no final do braço do rio Piracicaba - SP. Ressalta-se, que apenas o oxigênio dissolvido (estação seca) não se enquadrou no padrão da Resolução CONAMA nº 357/2005, para águas de classe II. / The quantitative aspects rule the engineering practices aimed at reservoirs management. However, the concern about the qualitative aspects of water has increased, since a growing number of reservoirs are being used for many kinds of applications. In the process of reservoir management it is necessary to take into consideration all the uses that will benefit from the system itself. Hence, the objective of this study was the use of computational techniques for quantitative and qualitative analysis of the multiple applications of the reservoir of Barra Bonita - SP, performing computer simulations using the model MIKE BASIN, proposing and testing an optimization model with non-linear programming based on the constraint method and incorporating the use of geotechnologies for spatial (horizontal distribution) and time (seasonal distribution) analysis of the reservoir water quality. It was selected the reservoir of Barra Bonita for analysis because of the multiple applications of the water (power generation, navigation, recreation, tourism and fishing) and the presence of a lock for transposition of the gap between the dam downstream and the power plant accumulation reservoir, which makes the reservoir a different area of study. The results of the simulations performed in MIKE BASIN model to evaluate the multiple applications of the reservoir showed that the best scenario was the one in which the priorities were the same for power generation and navigation. The maximization of the hydropower generation through the optimization model, did not impair other uses of the reservoir (mainly navigation) and even in the dry season, the average power generated by the model registered values above the average real power generated by the Hydroelectric Power Plant of Barra Bonita-SP (from 2001 to 2005). The use of geotechnologies (Surfer software) provided good conditions for space-time analysis of water quality when coupled with the knowledge about the characteristics and conditions of the studied environment. The data obtained showed that some variables, such as electrical conductivity and turbidity significantly increase from the dry season to the rainy season, since they are directly related to the supply of organic and inorganic materials. The hydrogen potential (pH) undergoes a very small variation from the dry season to the rainy season, but its values vary spatially, with higher values found in the compartment of the dam during the dry season, and at the end of the arm of the Piracicaba river during the wet season. The dissolved oxygen greatly increases from the rainy season to the dry one, but in both periods the highest concentrations are found at the end of the arm of the river Piracicaba - SP. It is emphasized that only the dissolved oxygen (dry season) did not fit the pattern of CONAMA Resolution nº 357/2005, to class II waters.
33

Análise de sensibilidade do modelo de fluxos de detritos : Kanako-2D / Sensitivity analysis of debris flow model : Kanako-2D

Paixão, Maurício Andrades January 2017 (has links)
Por se tratar de um fenômeno complexo, a modelagem computacional tem sido utilizada na tentativa de simular o comportamento de fluxos de detritos. Um dos modelos computacionais é o Kanako-2D. O presente trabalho realizou análise de sensibilidade desse modelo em relação a alcance, área de erosão, área de deposição, área total atingida e largura do fluxo. Os valores dos parâmetros de entrada do Kanako-2D, cujas faixas de variação foram estabelecidas a partir de revisão bibliográfica, foram alterados individualmente enquanto os demais eram mantidos nos valores padrão do modelo. Os parâmetros analisados foram: diâmetro dos sedimentos, coeficiente de rugosidade de Manning, coeficiente de taxa de deposição, coeficiente de taxa de erosão, massa específica da fase fluida, massa específica do leito, concentração de sedimentos e ângulo de atrito interno. Foi utilizada uma vertente real com histórico de ocorrência de fluxos de detritos (bacia hidrográfica do arroio Böni, em Alto Feliz e São Vendelino/RS) e uma vertente hipotética com as mesmas características da vertente real para avaliar o efeito da topografia na propagação do fluxo. Também foram simuladas diferentes condições de terreno na propagação do fluxo de detritos. A sensibilidade do modelo foi quantificada a partir de três métodos: (a) análise por rastreamento, que indicou massa específica do leito, ângulo de atrito interno e concentração de sedimentos como os parâmetros que causam maior sensibilidade do modelo; (b) análise regional, indicando que os parâmetros massa específica do leito, ângulo de atrito interno e massa específica da fase fluida apresentaram maior sensibilidade do modelo; e (c) análise das variâncias, em que os parâmetros que mais causaram sensibilidade ao modelo foram coeficiente de taxa de erosão, diâmetro dos sedimentos e massa específica do leito. Os resultados apontaram que, de maneira geral, os parâmetros que geram maior sensibilidade no modelo são massa específica do leito, ângulo de atrito interno e concentração de sedimentos. As maiores variações relativas, no entanto, foram observadas nos parâmetros massa específica do leito, ângulo de atrito interno e massa específica da fase fluida. As maiores sensibilidades foram verificadas, em ordem decrescente, para área de erosão, área total, área de erosão, área de deposição, alcance e largura na vertente real e, para área total, alcance e largura na vertente hipotética. A condição de terreno que gerou maior alcance e área atingida foi de 45° de inclinação na encosta e 17° de inclinação na planície aluvial. / Due to a complex phenomenon, computational modeling has been used in an attempt to simulate the behavior of debris flows. One of the computational models is Kanako-2D. The present work carried out sensitivity analysis of this model in relation to length, erosion area, deposition area, total reached area and flow width. The values of the Kanako-2D input parameters, which ranges were established from literature review, were individually changed while the others were kept at the standard values of the model. The analyzed parameters were: sediment diameter, Manning roughness coefficient, coefficient of deposition rate, coefficient of erosion rate, mass density of the fluid phase, mass density of bed material, sediment concentration and internal friction angle. It was used a real slope-site with a history of occurrences of debris flow (Böni river basin in Alto Feliz and São Vendelino/RS) and a hypothetical slope-site with the same characteristics of the real one to evaluate the effect of the topography in the propagation of the flow. Different hillslope and alluvial fan conditions were also simulated in order to evaluate the length and reached area in the propagation of the flow. The sensitivity was quantified from three methods: (a) screening analysis, which indicated mass density of bed material, internal friction angle and sediment concentration as the parameters that cause bigger sensitivity in the model; (b) regionalized analysis, indicate that the parameters mass density of bed material, internal friction angle and mass density of the fluid phase showed higher sensitivity in the model; and (c) variances analysis, indicated that coefficient of erosion rate, sediment diameter and mass density of bed material showed higher sensitivity in the model. The results showed that, in general, the parameters that generate the higher sensitivity in the model are mass density of bed material, internal friction angle and concentration. The largest relative variation, however, in the response of the model were observed in mass density of bed material, internal friction angle and mass density of fluid phase. In descending order, the highest sensitivities were verified for erosion area, total area, deposition area, length and width for the real slope-site and total area, length and width for the hypothetical slope-site. The terrain condition that generated the largest length and reached area was 45° on the hillslope and 17º on the alluvial fan.
34

Evaluation of code-based information to architectural module identification / Avaliação da relevância de informações do código fonte para identificar módulos da arquitetura de software

Zapalowski, Vanius January 2014 (has links)
Arquitetura de software desempenha um importante papel no desenvolvimento de software, quando explicitamente documentada, ela melhora o entendimento sobre o sistema implementado e torna possível entender a forma com que requisitos não funcionais são tratados. Apesar da relevância da arquitetura de software, muitos sistemas não possuem uma arquitetura documentada, e nos casos em que a arquitetura existe, ela pode estar desatualizada por causa da evolução descontrolada do software. O processo de recuperação de arquitetura de um sistema depende principalmente do conhecimento que as pessoas envolvidas com o software tem. Isso acontece porque a recuperação de arquitetura é uma tarefa que demanda muita investigação manual do código fonte. Pesquisas sobre recuperação de arquitetura objetivam auxiliar esse processo. A maioria dos métodos de recuperação existentes são baseados em dependência entre elementos da arquitetura, padrões arquiteturais ou similaridade semântica do código fonte. Embora as abordagem atuais ajudem na identi cação de módulos arquiteturais, os resultados devem ser melhorados de forma signi cativa para serem considerados con áveis. Então, nesta dissertação, objetivamos melhorar o suporte a recuperação de arquitetura explorando diferentes fontes de informação e técnicas de aprendizado de máquina. Nosso trabalho consiste de uma análise, considerando cinco estudo de casos, da utilidade de usar um conjunto de características de código (features, no contexto de aprendizado de máquina) para agrupar elementos em módulos da arquitetura. Atualmente não são conhecidas as características que afetam a identificação de papéis na arquitetura de software. Por isso, nós avaliamos a relação entre diferentes conjuntos de características e a acurácia obtida por um algoritmo não supervisionado na identificação de módulos da arquitetura. Consequentemente, nós entendemos quais dessas características revelam informação sobre a organização de papéis do código fonte. Nossa abordagem usando características de elementos de software atingiu uma acurácia média significativa. Indicando a relevância das informações selecionadas para recuperar a arquitetura. Além disso, nós desenvolvemos uma ferramenta para auxílio ao processo de recuperação de arquitetura de software. Nossa ferramenta tem como principais funções a avaliação da recuperação de arquitetura e apresentação de diferentes visualizações arquiteturais. Para isso, apresentamos comparações entre a arquitetura concreta e a arquitetura sugerida. / Software architecture plays an important role in the software development, and when explicitly documented, it allows understanding an implemented system and reasoning about how non-functional requirements are addressed. In spite of that, many developed systems lack proper architecture documentation, and if it exists, it may be outdated due to software evolution. The process of recovering the architecture of a system depends mainly on developers' knowledge requiring a manual inspection of the source code. Research on architecture recovery provides support to this process. Most of the existing approaches are based on architectural elements dependency, architectural patterns or source code semantics, but even though they help identifying architectural modules, the obtained results must be signi cantly improved to be considered reliable. We thus aim to support this task by the exploitation of di erent code-oriented information and machine learning techniques. Our work consists of an analysis, involving ve case studies, of the usefulness of adopting a set of code-level characteristics (or features, in the machine learning terminology) to group elements into architectural modules. The characteristics mainly source code metrics that a ect the identi cation of what role software elements play in software architecture are unknown. Then, we evaluate the relationship between di erent sets of characteristics and the accuracy achieved by an unsupervised algorithm the Expectation Maximization in identifying architectural modules. Consequently, we are able to understand which of those characteristics reveal information about the source code structure. By the use of code-oriented information, our approach achieves a signi cant average accuracy, which indicates the importance of the selected information to recover software architecture. Additionally, we provide a tool to support research on architecture recovery providing software architecture measurements and visualizations. It presents comparisons between predicted architectures and concrete architectures.
35

Modelo para a Corte Penal Internacional

Schneider, Éder Mílton January 2013 (has links)
O presente trabalho discute o papel de instituições internacionais, particularmente a Corte Penal Internacional (CPI) como maneira efetiva de reduzir o número e/ou gravidade de crimes contra a humanidade, crimes de guerra e genocídio. A ação da CPI é direcionada contra líderes, ou seja, autoridades políticas, comandantes de forças armadas, autoridades civis, etc, que autorizam ou promovem estes tipos de crimes. Para simular a ação da CPI são utilizadas redes complexas visando construir uma sociedade hierárquica onde os líderes de maior importância são os de maior conectividade, podendo espalhar seus pontos de vista ou ordens através de uma cadeia de indivíduos progressivamente menos conectados. Desta forma se estes líderes praticam improbidade, corrupção ou qualquer tipo de ação criminosa contra indivíduos ou grupos, é muito difícil e improvável que sejam processados pelas cortes de seu próprio país. Foi para aliviar esta situação, combatendo a impunidade nos altos escalões, que a CPI foi formada. Sua missão é processar e condenar crimes contra a humanidade, crimes de guerra e o crime de genocídio através de uma organização supra-nacional capaz de agir sobre líderes criminosos em qualquer país. No presente estudo a ação da CPI é simulada pela remoção do líder corrupto e substituição do mesmo por uma liderança não criminosa. As práticas criminosas do líder corrupto podem no entanto ter se espalhado entre a população antes da ação da CPI. Neste trabalho procuramos determinar a possibilidade de uma única ação da CPI ser suficiente ou se intervenções futuras são necessárias dependendo do grau de deterioração dos direitos humanos no país hipotético. Os resultados evidenciam o efeito positivo das ações da CPI para uma quantidade relativamente pequena de intervenções. Também comparam-se os efeitos da CPI com as ações do sistema judiciário nacional local, onde os lideres são de certa forma difíceis de processar criminalmente. Resultados mostram evidência de que a impunidade de líderes corruptos prejudica a habilidade das cortes em combater violações dos direitos humanos em toda a sociedade. / This work discuss the role of international institutions, like the International Criminal Court (ICC), as an effective way of reducing the number and/or gravity of crimes against humanity, war crimes and genocide. The action of the ICC is directed against leaders, i.e. political autho- rities, army commanders, civil leaders, etc, that authorize or promote these kinds of crimes. In order to simulate the action of the ICC the framework of scale free networks is used to build a hierarchical society where the most important leaders have the highest connectivity and can spread their points of view, or their orders, through a chain of less but still highly connected deputy chiefs or opinion chieftains. In this way, if they practice misconduct, corruption, or any kind of discriminatory or criminal actions against individuals or groups, it would very difficult and improbable that they will be prosecuted by the courts of their own country. It is to alleviate this situation and to fight impunity that the ICC was created. Its mission is to process and con- demn crimes against humanity, war crimes and the crime of genocide though a supranational organism that can act on criminal leaders in any country. In this study, the action of the ICC is simulated by removing the corrupt leader and replacing it by a ”decent”one. However, as the criminal action of the corrupt leader could have spread among the population by the time the ICC acts, we try to determine if a unique action of the ICC is sufficient or if further actions are required, depending on the degree of deterioration of the human rights in the hypothetical country. The results evidence the positive effect of the ICC action with a relatively low number of interventions. The effect of the ICC is also compared with the action of the local national judiciary system, where the leaders are somewhat difficult from process. Results show evidence that the impunity of corrupt leaders hinders the ability of the courts to fight human rights violations on the whole society.
36

Evaluation of code-based information to architectural module identification / Avaliação da relevância de informações do código fonte para identificar módulos da arquitetura de software

Zapalowski, Vanius January 2014 (has links)
Arquitetura de software desempenha um importante papel no desenvolvimento de software, quando explicitamente documentada, ela melhora o entendimento sobre o sistema implementado e torna possível entender a forma com que requisitos não funcionais são tratados. Apesar da relevância da arquitetura de software, muitos sistemas não possuem uma arquitetura documentada, e nos casos em que a arquitetura existe, ela pode estar desatualizada por causa da evolução descontrolada do software. O processo de recuperação de arquitetura de um sistema depende principalmente do conhecimento que as pessoas envolvidas com o software tem. Isso acontece porque a recuperação de arquitetura é uma tarefa que demanda muita investigação manual do código fonte. Pesquisas sobre recuperação de arquitetura objetivam auxiliar esse processo. A maioria dos métodos de recuperação existentes são baseados em dependência entre elementos da arquitetura, padrões arquiteturais ou similaridade semântica do código fonte. Embora as abordagem atuais ajudem na identi cação de módulos arquiteturais, os resultados devem ser melhorados de forma signi cativa para serem considerados con áveis. Então, nesta dissertação, objetivamos melhorar o suporte a recuperação de arquitetura explorando diferentes fontes de informação e técnicas de aprendizado de máquina. Nosso trabalho consiste de uma análise, considerando cinco estudo de casos, da utilidade de usar um conjunto de características de código (features, no contexto de aprendizado de máquina) para agrupar elementos em módulos da arquitetura. Atualmente não são conhecidas as características que afetam a identificação de papéis na arquitetura de software. Por isso, nós avaliamos a relação entre diferentes conjuntos de características e a acurácia obtida por um algoritmo não supervisionado na identificação de módulos da arquitetura. Consequentemente, nós entendemos quais dessas características revelam informação sobre a organização de papéis do código fonte. Nossa abordagem usando características de elementos de software atingiu uma acurácia média significativa. Indicando a relevância das informações selecionadas para recuperar a arquitetura. Além disso, nós desenvolvemos uma ferramenta para auxílio ao processo de recuperação de arquitetura de software. Nossa ferramenta tem como principais funções a avaliação da recuperação de arquitetura e apresentação de diferentes visualizações arquiteturais. Para isso, apresentamos comparações entre a arquitetura concreta e a arquitetura sugerida. / Software architecture plays an important role in the software development, and when explicitly documented, it allows understanding an implemented system and reasoning about how non-functional requirements are addressed. In spite of that, many developed systems lack proper architecture documentation, and if it exists, it may be outdated due to software evolution. The process of recovering the architecture of a system depends mainly on developers' knowledge requiring a manual inspection of the source code. Research on architecture recovery provides support to this process. Most of the existing approaches are based on architectural elements dependency, architectural patterns or source code semantics, but even though they help identifying architectural modules, the obtained results must be signi cantly improved to be considered reliable. We thus aim to support this task by the exploitation of di erent code-oriented information and machine learning techniques. Our work consists of an analysis, involving ve case studies, of the usefulness of adopting a set of code-level characteristics (or features, in the machine learning terminology) to group elements into architectural modules. The characteristics mainly source code metrics that a ect the identi cation of what role software elements play in software architecture are unknown. Then, we evaluate the relationship between di erent sets of characteristics and the accuracy achieved by an unsupervised algorithm the Expectation Maximization in identifying architectural modules. Consequently, we are able to understand which of those characteristics reveal information about the source code structure. By the use of code-oriented information, our approach achieves a signi cant average accuracy, which indicates the importance of the selected information to recover software architecture. Additionally, we provide a tool to support research on architecture recovery providing software architecture measurements and visualizations. It presents comparisons between predicted architectures and concrete architectures.
37

Simulação de um tratamento radioterápico crânio-espinhal utilizando um fantoma de voxel infantil e espaços de fase representativos de um acelerador linear

SANTOS, Patricia Neves Cruz dos 24 August 2016 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2018-02-01T17:49:29Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Aline Dantas de Oliveira.pdf: 7187935 bytes, checksum: 2f865a50020bf3264c45bd86c0acd251 (MD5) / Made available in DSpace on 2018-02-01T17:49:29Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Aline Dantas de Oliveira.pdf: 7187935 bytes, checksum: 2f865a50020bf3264c45bd86c0acd251 (MD5) Previous issue date: 2016-08-24 / CNPQ / Os tumores do Sistema Nervoso Central (SNC) representam o segundo grupo de neoplasias mais frequentes na infância. A técnica radioterápica crânio-espinhal é considerada padrão para pacientes diagnosticados com meduloblastoma e outros tumores cerebrais com tendências a disseminação liquórica. Este tratamento é realizado com dois campos craniais bilaterais e um ou dois campos espinhais póstero-anterior, com o paciente deitado em decúbito ventral e imobilizado com o auxílio de uma máscara termoplástica. É possível encontrar registros de pacientes pediátricos com sequelas radioinduzidas após serem submetidos a tratamentos radioterápicos do SNC, o que justifica a importância de avaliações dosimétricas. Modelos Computacionais de Exposição (MCE) são desenvolvidos com a finalidade de realizar avaliações dosimétricas e são compostos, em sua maioria, por um fantoma antropomórfico, um código Monte Carlo e um algoritmo de fonte radioativa. Neste trabalho foram desenvolvidos MCEs para os campos do tratamento crânio-espinhal e a distribuição de dose em órgãos e tecidos radiossensíveis foi avaliada por meio da dose absorvida/kerma incidente no ar. Foi desenvolvido um fantoma mesh feminino nomeado SARA (Simulador Antropomórfico para Dosimetria das Radiações Ionizantes em Adolescentes). O algoritmo da fonte Acelerador Linear (linac) foi implementado no código de usuário do EGSnrc e a sua distribuição de fótons foi dada por arquivos espaços de fase. Os resultados dosimétricos validam o acoplamento do fantoma a fonte desenvolvida e são parciais, visto que, o fantoma SARA ainda não possui os tecidos ósseos radiossensíveis segmentados. / The tumors of the Central Nervous System (CNS) represent the second group of most common cancer in childhood. The cranial spinal radiation treatment is considered standard for patients diagnosed with medulloblastoma and others brain tumors with tendency to liquoric dissemination. This treatment is performed with two bilateral cranial fields and one or two posterior-anterior spinal fields with the patient lying in prone position and immobilized with the help of a thermoplastic mask. It is possible to find records of pediatric patients with radiation-induced sequelae after undergoing radiotherapy treatment of CNS which justify the importance of dosimetric evaluations. Exposure Computational models (ECMs) are developed in order to perform dosimetric evaluations and are composed mostly by an anthropomorphic phantom, a Monte Carlo code and radioactive source algorithms. In this work ECMs for the cranial spinal treatment fields were developed and dose distribution in radiosensitive organs and tissues by means of absorbed dose/kerma incident in the air was evaluated. A female mesh phantom named SARA (Simulador Antropomórfico para Dosimetria das Radiações Ionizantes em Adolescentes - Anthropomorphic Simulator for Dosimetry of Ionizing Radiation in Adolescents) was developed. The Linear Accelerator (linac) source algorithm was implemented in the EGSnrc user code and its distribution of photons was given by phase spaces files. The dosimetric results validate the coupling of the phantom to the developed source and are partial since the SARA phantom does not yet have the segmented radiosensitive bone tissues.
38

Avaliação de novos compostos sobre a atividade de colinesterases em modelos in silico e in vitro / Evaluation of new compounds on cholinesterases activity in models in silico and in vitro

Lugokenski, Thiago Henrique 04 June 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The enzyme acetylcholinesterase (EC 3.1.1.7, AChE) is responsible to terminate acetylcholine activity in the terminal nervous junctions with its effector organs or post-synaptic sites. The activity of this enzyme could be inhibited by organophosphorus (OP) compounds, and this inactivation leads to an accumulation of acetylcholine in the cholinergic receptors, leading to a cholinergic crisis that may result in death. In this way, the OP compound methamidophos has been related to its broad use in various agriculture cultures in Brazil, with high intoxication rate. Actually, the only compounds able to revert the AChE inhibition by OP, are the oxime, such compounds may reactive the enzyme activity due its high nuclephilic power, attacking the phosphoryl group of the inhibited enzyme and displacing it. However, such compounds show toxic effects, and its use is limited by the high specificity, with each oxime acting only in the reactivation of AChE induced by specific OP coumponds. These limitations raise the need of development of new compounds with AChE reactivator potency, with minor side effects. In this way, have been utilized a series of computational tools (in silico models), with the aim of understand the interaction occurring at a molecular level and, so, rationalize the new compounds development. Thus, the aim of this thesis is to evaluate the activity of three new compounds in reactivate the AChE inhibited by methamidophos, in comparison with two others oximes used in clinical (obidoxime and pralidoxime), both in in silico and in vitro models. Our work demonstrate that the newly synthesized compounds are able to reactivate human erythrocyte AChE, however less efficiently than pralidoxime and obidoxime, and reactivate human plasma butyrylcholinesterase (BChE), where the classical oximes failed. We also show that pralidoxime, which obtained the best reactivation constant among all tested compounds, attack the phosphorus-oxygen moiety (formed between the methamidophos and the AChE catalytic triad residue Ser203) via a region known as oxyanion-hole , composed by the residues Gly120, Gly121 and Ala204. Such found may help in the development of new compounds with better reactivatory activity on AChE inhibited by OP compounds. Furthermore, we show for the first time the individual contribution of each amino acid of AChE, in a radii of 14 Å from the ligand, to the oxime bonding to its active site, using quantum chemistry methods. Here, we demonstrate the important of a quaternary nitrogen to the stabilization of the oximes into the active site; as well as, we obtained evidences that the active form of oximes should be the unprotonated one, instead the protonated, which has been target of debate in the scientific society. Particularly important, we show the critical contribution of amino acids that lies distant from the ligand to the adopted conformation and stabilization of the compounds into the active site of AChE, which has been neglected until far. Finally, our study also evaluates the toxic effects of the compound isatin-3-N4-benzilthiosemicarbazone (IBTC) in mice, which presented low toxicity, with median lethal dose superior at 500 mg/kg. Concluding, this study contributes significantly to the development of new drugs able to restore the AChE activity with minor toxic effects. / A enzima acetilcolinesterase (EC 3.1.1.7, AChE) é responsável por terminar a ação da acetilcolina nas junções das terminações nervosas com seus órgãos efetores ou sítios pós-sinaptícos. A atividade desta enzima pode ser inibida por compostos organofosforados (OP), e sua inativação resulta em um acúmulo de acetilcolina nos receptores colinérgicos, levando a crise colinérgica que pode levar a morte. No Brasil, se destaca o uso do composto OP metamidofós, que é largamente utilizado no controle de pragas em culturas agrícolas e tem sido relacionado com altas taxas de intoxicação. Atualmente, os únicos compostos capazes de reverter a inibição da AChE por OP são as oximas, tais compostos podem reativar a enzima devido a seu alto poder nucleofílico, podendo atacar e retirar o grupamento fosforil da enzima inibida. Porém, tais compostos apresentam efeitos tóxicos, e tem seu uso limitado pela alta especificidade, com cada oxima atuando na AChE inibida por apenas alguns compostos OP. Tais limitações criam a necessidade do desenvolvimento de novos fármacos com potencial reativador da AChE com menores efeitos colaterais. Neste sentido, se tem utilizado uma série de ferramentas computacionais (modelos in silico), com o objetivo de entender as interações que ocorrem em nível molecular e, desta forma, racionalizar o desenvolvimento de novos compostos. Sendo assim, o objetivo desta tese consiste em avaliar a atividade de três novos compostos, em comparação com duas oximas já utilizadas na clínica (obidoxima e pralidoxima), sobre a atividade da AChE inibida por metamidofós, tanto em modelos in silico como in vitro. Como resultados, observamos que os três novos compostos foram capazes de reativar a AChE de eritrócitos humanos inibida por metamidofós, contudo com menor eficiência que as oximas já utilizadas na clínica. Porém, todos os novos compostos foram capazes de reativar a enzima butirilcolinesterase (BChE), uma enzima acessória à AChE no sistema colinérgico, inibida por metamidofós, enquanto nenhumas das oximas clássicas tiveram qualquer atividade reativadora nesta enzima. Nosso trabalho também demonstrou que a pralidoxima, que obteve a melhor constante de reativação entre todos os compostos testados, ataca a ligação fosforo-oxigênio (formada entre o metamidofós e o resíduo Ser203, da tríade catalítica da AChE) via uma região conhecida como oxyanion-hole , que compreende os resíduos Gly120, Gly121 e Ala204. Tal achado pode ajudar no desenvolvimento de novos compostos com melhor atividade reativatória na AChE inibida por OPs. Além disso, mostramos aqui pela primeira vez, a contribuição de cada resíduo de aminoácido da AChE, num raio de 14 Å do ligante, para a ligação das oximas no seu sítio ativo, usando métodos de química quântica. Tais achados mostraram a importância da presença de um nitrogênio quaternário para a estabilização das oximas no sítio ativo; assim como colheu evidências que a forma ativa das oximas seria a sua forma desprotonada, ao invés da forma protonada, o que tem sido alvo de algum debate no meio cientifico. Particularmente importante, foi demonstrado a contribuição fundamental de aminoácidos que se encontram distantes do ligante, para a estabilização e conformação adotada pelos compostos, e que até o momento tem sido negligenciados em estudos in silico. Por fim, nosso estudo também avaliou os efeitos tóxicos do composto isatina-3-N4-benziltiosemicarbazona (IBTC) em camundongos, o qual apresentando baixa toxicidade, com valores de dose letal mediana (LD50) superiores a 500 mg/kg. Desta forma, este estudo contribui para a desenvolvimento de novos fármacos capazes de reativar a AChE e que apresentem menos efeitos tóxicos.
39

[en] MECHANICS OF CONCRETE STRUCTURES WITH CONSIDERATION OF SIZE AND HETEROGENEITY EFFECTS / [pt] MECÂNICA DE ESTRUTURAS DE CONCRETO COM INCLUSÃO DE EFEITOS DE TAMANHO E HETEROGENEIDADE

ROQUE LUIZ DA SILVA PITANGUEIRA 06 November 2001 (has links)
[pt] Com o objetivo de introduzir a heterogeneidade e o efeito de escala na modelagem numérica de estruturas de concreto, este trabalho contribui para um melhor entendimento de alguns aspectos inerentes a este tipo de estudo. Apresentam-se uma formalização e generalização do modelo de dano distribuído, a partir da identificação do processo de evolução do modelo, desde os trabalhos iniciais até a adoção de relações de compliância inversa. A referida formalização contempla as várias possibilidades para a relação de compliância inicial, variação da direção de ocorrência de dano, aproximações do tensor tangente do referido modelo e para as leis de evolução de dano em tração e em compressão. Discutem-se as limitações dos métodos incrementais-iterativos clássicos na solução de problemas fisicamente não-lineares. As formulações secante e tangente destes métodos, bem como uma revisão dos procedimentos de controle mais utilizados são apresentadas. Um método que tem a variação das deformações como parâmetro controlador é proposto e suas formulações secante e tangente são mostradas. As evidências experimentais dos fenômenos associados com a heterogeneidade e efeito de tamanho em estruturas de concreto, bem como os estudos teóricos destinados a representá-los,são discutidos, a partir de um resgate histórico dos mesmos. Um modelo para consideração dos efeitos de tamanho e heterogeneidade, via método dos elementos finitos, que se baseia na aleatoriedade da ocorrência de fases sólidas no volume estrutural, bem como nas diferenças das respostas constitutivas associadas a diferentes tamanhos estruturais, é proposto. Através de exemplos, os aspectos do trabalho relacionados com o modelo constitutivo adotado, com os processos de obtenção de trajetórias de equilíbrio e com o modelo proposto para tratar a heterogeneidade e o efeito de tamanho, são discutidos. / [en] This study is a contribution to a better understanding of some aspects in the numerical modeling of the heterogeneity and size effects in the analysis of concrete structures. A general format of the smeared damage model is presented based on a historical perspective, since the first studies to the adoption of the inverse compliance relationship. This format includes diverse initial compliance relations, change in the direction of the damage approximations to the tangent tensor and different evolution damage laws for tension and compression.The limitations of the classical incremental-iterative methods for the solution of nonlinear physical problems are discussed. The secant and tangent formulations of these methods are shown as well as a review of the most commonly used controlling procedures. A new method is introduced in which the controlling parameter is based on the strain variation. Its secant and tangent formulations are also indicated.A historical review of the experimental and theoretical studies concerning the aspects of heterogeneity and size effects in concrete structures is done. A finite element model is then proposed which includes both the heterogeneity and size effects. It is based on the random occurrence of solid phases in the structural volume as well as on the differences of constitutive responses due to structural size.Examples problems are solved which illustrate the employed constitutive model, the procedures for the determination of the equilibrium paths and the model to heterogeneity and size effect.
40

Simulações Computacionais em Ecologia de Comunidades: uma Interface Intuitiva entre Modelos Verbais e Matemáticos. / Computer simulation in community ecology: an intuitive interface between verbal and mathematical models

Mandai, Camila Yumi 26 October 2015 (has links)
Hipóteses e sistemas ecológicos podem ser descritos pelos mais variados tipos de modelos teóricos. Modelos teóricos por sua vez descrevem sistemas idealizados e podem ser construídos sob diferentes abordagens. A ecologia foi profundamente influenciada por modelos ou hipóteses verbais construídos em uma abordagem predominantemente indutiva. Apesar de inspiradoras, tais hipóteses podem apresentar previsões que são logicamente falhas, uma vez que sistemas ecológicos são altamente complexos cujas trajetórias são difíceis de se prever intuitivamente. Neste sentido modelos teóricos quantitativos podem ser usados como ferramentas para traduzir hipóteses e deduzir previsões que podem ser confrontadas com dados reais. Modelos matemáticos são a forma mais tradicional e aceita de abordagem quantitativa. Apesar das vantagens analíticas da aplicação de modelos matemáticos, eles apresentam limitações para tratar de sistemas mais complexos e em escalas mais basais. Além disso, eles podem se tornar rapidamente complicados não só em termos de tratamento matemático mas também de entendimento por parte de um público mais biológico e empírico. Essa dificuldade de entendimento pode estar impedindo que estudos empíricos sejam fortemente embasados em teoria. Neste sentido, modelos computacionais pode ser uma solução promissora. Modelos computacionais podem ser criados para descrever sistemas virtuais que além de ser mais fáceis de serem desenvolvidos e entendidos por biólogos, permitem a inclusão de vários processos, variáveis e interações. Neste trabalho desenvolvemos um modelo baseado em indivíduos (IBM) para descrever comunidades com estocasticidade demográfica, interações intra e inter-específicas e dispersão. Com essa composição de modelo é possível combinar de diferentes maneiras três dos quatro processos presentes em hipóteses e teorias em ecologia, a saber: deriva, seleção e dispersão. No primeiro capítulo descrevemos os detalhes do modelo e como foi sua concepção e implementação. Ainda no neste capítulo simulamos o modelo explorando um espaço de parâmetros arbitrário, i.e. sem especificar um grupo ou sistema de estudo e analisamos o comportamento do modelo em relação à proporção de espécies persistentes ao fim da simulação e comparamos com a previsão do modelo determinístico de competição sem dispersão. No segundo capítulo aplicamos o modelo em uma versão não espacializada para avaliar dentro das premissas do modelo a consistência lógica das previsões da Hipótese da perturbação intermediária (IDH). No terceiro capítulo simulamos o modelo explorando um espaço de parâmetros baseados em dados empíricos de aves e avaliamos quais características das espécies as tornavam mais ou menos suscetíveis à extinção em paisagens com destruição de habitat. Por fim, discutimos brevemente sobre como o modelo apresentado o modelo apresentado e explorado aqui pode ser usado para diferentes propósitos e responder diferentes perguntas dentro dos contextos teóricos de cada capítulo da tese. E concluímos com algumas considerações finais sobre quais foram as contribuições de se desenvolver um modelo computacional e aplicá-lo a diferentes contextos nesta tese para a formação da doutoranda. / Ecological systems and hypothesis can be described by many different kinds of theoretical models. Theoretical models, on the other hand, are idealized descriptions of real systems that can be constructed under different approaches. Ecology was deeply influenced by verbal models or hypothesis under a inductive approach. Although inspiring, such hypothesis can be logically flawed, since ecological systems are highly complex which trajectories are difficult to predict by intuition. Accordingly quantitative theoretical models can be used as tools to translate hypotheses and deduce predictions that can be confronted with empirical data. Mathematical models are most traditional and well-accepted quantitative approach. Despite of the analytical advantages of using mathematical models , they have limitations to address the complexity of biological systems in lower scales. Furthermore, they become rapidly complicated not only in terms of mathematical treatment but also in terms of comprehension by a biological and empirical audience. This difficulties might prevent that theoretical studies predictions play its role of ground empirical studies. In this sense, computer simulation models can be a promising solution. Computer simulation models are more flexible to include various processes, variables and interaction than mathematical models. Furthermore, they create virtual systems that are easier to be developed and understood by biologists. Here, we developed an individual based model (IBM) to describe communities with stochastic demography, intra and inter-specific interactions and dispersion. With this configuration we can build models combining of different manners three of the four processes present in hypotheses and theories in ecology: drift, selection and dispersal. In the first chapter we describe the model details of implementation and conceptions. We also simulated the model to explore a broad parameter space of competing systems, without specifying a group or system of study; we then analyze the model behavior regarding the proportion of persistent species in the end of the simulation and compared the results with the predictions of deterministic model with competition, without dispersion. In the second chapter we apply the model in a non spatialized version of it to assess the logical consistency of the predictions of the Intermediate disturbance hypothesis (IDH). In the third chapter we used the model to describe fragmented landscapes. We explored a parameter parameters based on empirical data of birds and we evaluate which characteristics of the species made them more or less susceptible to extinction in landscapes with habitat destruction. Finally, we discussed briefly how the model can be used for different purposes and some of the future directions within the theoretical contexts of each chapter of the thesis. We conclude the thesis with a reflexion on how the development and exploration of computer model in this thesis contributed to the student ecological background.

Page generated in 0.2618 seconds