• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 3
  • 3
  • Tagged with
  • 48
  • 48
  • 12
  • 9
  • 9
  • 8
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Oscilações subliminares de células estreladas na camada II do córtex entorrinal

Nazareth, Robson Kalata January 2013 (has links)
Este trabalho propõe uma metodologia onde usamos experimentos numéricos para determinar os parâmetros de um modelo neural mais simples e, a partir deste modelo assim ajustado, tentamos estudar suas propriedades dinâmicas com a intenção de achar leis mais gerais que possam ser aplicadas a modelos mais complexos. Para este fim, os experimentos que medem a resistência, a corrente de reobase do neurônio e o decaimento do potencial de SAG se apresentam como bons candidatos para ajustar os parâmetros do modelo a dados experimentais, onde a consistência desse ajuste pode ser testada usando tanto o experimento de ressonância do potencial da membrana, como a frequência de oscilações subliminares induzidas por ruído, comparando os resultados obtidos com resultados experimentais. / This work proposes a methodology where we use numerical experiments to determine the parameters of a simple neural model, and from this model thus adjusted, try to study its dynamic properties with the intention of nding the most general laws that can be applied to more complex models. To this end, experiments measuring resistance, rheobase current and the SAG potential decay are good candidates to adjust the parameters of the model to experimental data, where the consistency of the adjustment can be tested using both the experiment of resonance membrane potential and the frequency of subthreshold oscillations induced by noise, by comparing the results with experimental results.
22

Desenvolvimento de um modelo computacional de exposição para uso em avaliações dosimétricas em gestantes

CABRAL, Manuela Ohana Monteiro 24 February 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2015-05-22T12:26:22Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DEFESA_ManuelaOhanaMonteiroCabral_2015.pdf: 4212699 bytes, checksum: 0565846d62acd4775d2f7fbd325c2f1c (MD5) / Made available in DSpace on 2015-05-22T12:26:22Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DEFESA_ManuelaOhanaMonteiroCabral_2015.pdf: 4212699 bytes, checksum: 0565846d62acd4775d2f7fbd325c2f1c (MD5) Previous issue date: 2015-02-24 / Devido à radiossensibilidade embrionária/fetal, a estimativa precisa da distribuição da dose absorvida na região abdominal é um problema adicional causado pela exposição de gestantes às radiações ionizantes em aplicações médicas. Modelos Computacionais de Exposição (MCEs) são utilizados para estimar a distribuição da dose absorvida em indivíduos expostos às radiações ionizantes, por meio de simulações Monte Carlo (MC). Para a caracterização de um MCE com resultados dosimétricos satisfatórios, o Grupo de Dosimetria Numérica (GDN) tem utilizado, fundamentalmente, fantomas de voxels acoplados a códigos MC bem referenciados, além de simuladores de fontes emissoras de fótons. Nestes MCEs, os fantomas foram predominantemente construídos a partir de pilhas de imagens de ressonância magnética ou tomografia computadorizada (obtidas da varredura de pacientes reais), ou a partir de técnicas de modelagem 3D. O fantoma apresentado neste trabalho partiu de dados primários virtuais. Para tanto, foram adquiridos objetos 3D em diversos formatos (*.obj, *.fbx, etc.) para representação anatômica de uma adulta não grávida. Para a construção da representação fetal foi utilizada a técnica Poly Modeling (modelagem poligonal) na versão 2015 do programa Autodesk 3ds Max. O fantoma nomeado MARIA (Modelo Antropomórfico para dosimetria das Radiações Ionizantes em Adultas) foi voxelizado, utilizando o software Digital Image Processing (DIP), e acoplado ao código MC EGSnrc. Para completar o MCE apresentado neste trabalho, foram utilizados algoritmos de fontes para radiodiagnóstico, já desenvolvidos pelo GDN, para simular os exames mais frequentes em gestantes. Os resultados dosimétricos foram comparados com similares obtidos com o software CALDose_X.
23

Desenvolvimento do FrameDose: uma plataforma computacional para organização de informações técnicas relacionadas com modelos computacionais de exposição

Resende Filho, Tennyson Accetti 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T23:15:44Z (GMT). No. of bitstreams: 2 arquivo8467_1.pdf: 3087609 bytes, checksum: a05c3722ae5b084578c4d8aa0c5b10ce (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O Trabalho desenvolveu uma plataforma computacional visando disponibilizar grupo GDN/CNPq e à comunidade científica interessada, informações técnicas sobre modelos computacionais de exposição desenvolvidos pelo grupo desde 2004. Trata-se de um software que integra e disponibiliza ferramentas úteis em avaliações dosimétricas já consagradas meio acadêmico, documentos técnicos e modelos computacionais de exposição desenvolvidos pelo grupo. O framework aqui desenvolvido foi construído utilizando um ambiente visual Studio.net, e também dá suporte ao desenvolvimento de aplicações seguindo o padrão projeto Façade, permitindo agregar outros sistemas desenvolvidos, mas também tornou- uma solução multi banco de dados através do padrão Factory Method. O presente trabalho detalhes da construção da plataforma de software e conclui utilizando o FrameDose para executar, passo a passo, um dos MCEs disponíveis no banco de dados. O trabalho desenvolvido cria um ambiente orientado a objetos que permite ao usuário, com um simples clique do mouse, ativar processos diferentes, executar aplicativos em linha de comando, executar aplicativos de suporte, disponibilizar, livremente, textos e imagens já produzidos pelo GDN/CNPq úteis para estudos sobre MCEs. Isto constitui uma ferramenta inestimável para qualquer estudante ou pesquisador em dosimetria numérica das radiações ionizantes
24

Desenvolvimento de um software para modelagem de tomógrafos por emissão de pósitrons

Vieira, Igor Fagner 31 January 2013 (has links)
Submitted by Amanda Silva (amanda.osilva2@ufpe.br) on 2015-03-03T13:37:46Z No. of bitstreams: 2 Dissertacao Igor Fagner Vieira.pdf: 11971580 bytes, checksum: 9b20669e6b9542d3990f183c304ff233 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-03T13:37:46Z (GMT). No. of bitstreams: 2 Dissertacao Igor Fagner Vieira.pdf: 11971580 bytes, checksum: 9b20669e6b9542d3990f183c304ff233 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013 / CRCN-NE,CNEN e FACEPE / Há uma tendência cada vez mais crescente na comunidade cientifica, ou mesmo dentro das grandes empresas da área médica, de utilizar códigos de transporte das radiações para validar resultados experimentais ou mesmo para projetar novos experimentos e/ou equipamentos. Neste trabalho, um método para modelagem de tomógrafo por emissão de pósitrons utilizando o GATE (Geant4 Application for Tomographic Emission) foi proposto e inicialmente validado. O GATE é uma plataforma internacionalmente reconhecida e utilizada para desenvolvimento de Modelos Computacionais de Exposição (MCE) no contexto da Medicina Nuclear, embora atualmente hajam módulos dedicados para aplicações em Radioterapia e Tomografia Computadorizada (TC). O GATE usa métodos Monte Carlo (MC) e tem uma linguagem de script própria. A escrita dos scripts para simulação de um PET scanner no GATE envolve um conjunto de passos interligados, sendo a acurácia da simulação dependente do arranjo correto das geometrias envolvidas, já que os processos físicos dependem destas, bem como da modelagem da eletrônica dos detectores no módulo Digitizer, por exemplo. A realização manual desse setup pode ser fonte de erros, sobretudo para usuários que não tenham experiência alguma no campo das simulações ou familiaridade prévia com uma linguagem de programação, considerando também o fato de todo este processo de modelagem no GATE ainda permanecer vinculado ao terminal do LINUX/UNIX, um ambiente familiar apenas para poucos. Isso se torna um obstáculo para iniciantes e inviabiliza o uso do GATE por uma gama maior de usuários, interessados em otimizar seus experimentos e/ou protocolos clínicos por meio de um modo mais acessível, rápido e amigável. O objetivo deste trabalho consiste, portanto, em desenvolver um software amigável para modelagens de Tomógrafos por Emissão de Pósitrons, chamado GUIGATE (Graphical User Interface for GATE), com módulos específicos e dedicados a controle de qualidade em PET scanners. Os resultados obtidos exibem os recursos disponíveis no GUIGATE, presentes em um conjunto de janelas que permitem ao usuário criar seus arquivos de entrada (os inputs), executar e visualizar em tempo real o seu modelo, bem como analisar seus arquivo de saída (os outputs) em um único ambiente, viabilizando assim de modo intuitivo o acesso a toda a arquitetura de simulação do GATE e ao analisador de dados do CERN, o ROOT.
25

Obtenção de campos de deslocamentos e deformações através de técnicas de correlação de imagens digitais

Ferraz, Diogo Henrique Souza 14 June 2013 (has links)
This work presents a computational tool to support the evaluation of displacement and strain fields by using Digital Image Correlation (DIC) techniques. Two images, referring to different stages of the problem, are analyzed in order to measure these fields. As most often experimental tests are on small scale, the required tools may interfere with the analisys results. Therefore, non-destructive techniques as the DIC can be used as supporting tools for these tests. Besides, DIC is also used in situations when the access doesn’t allow the proper positioning of the tool. The subset DIC algorithm is applied, which consists in splitting the images into subregions, in which the displacements and strains are evaluated. In order to obtain the unknown fields over the whole image, the results from each subregion are interpolated. Then, tests are performed to validate the proposed methodology through four examples, by comparing the results with analytical, numerical or experimental ones, presented in the literature, in which a good level of agreement is observed. Furthermore, two numerical examples are simulated, concerning a triaxial compression test and a diametral compression test. In both cases, the displacement values are obtained with minor errors. / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho apresenta uma ferramenta computacional para auxiliar na análise de campos de deslocamentos e deformações através de técnicas de correlação de imagens digitais (DIC) e consiste na avaliação de duas imagens em estágios diferentes de um determinado problema para a obtenção desses campos. Como na maioria das vezes os ensaios experimentais são realizados em modelos reduzidos, as instrumentações normalmente utilizadas podem afetar os resultados da análise. Então, técnicas não destrutivas como a DIC podem ser utilizadas como ferramentas de apoio a esses ensaios. Além disso, a DIC também é utilizada na análise de elementos com difícil acesso para a colocação da instrumentação convencional. Neste trabalho utiliza-se a técnica Subset DIC Algorithm que divide as imagens em várias sub-regiões e analisa os deslocamentos e as deformações para cada sub-região. Para a obtenção do campo de deslocamentos e deformações da imagem faz-se uma interpolação dos resultados obtidos em cada sub-região. Em seguida, são realizados testes para a validação da metodologia proposta através de quatro exemplos, inclusive fazendo comparações dos resultados com respostas analíticas, numéricas ou experimentais encontradas na literatura, em que, obtiveram-se respostas satisfatórias na obtenção dos campos de deslocamentos e deformações. Também são realizados dois estudos de caso sendo um sobre o ensaio de compressão triaxial e o outro sobre o ensaio de compressão diametral. Em ambos os estudos de caso é possível obter os campos de deslocamentos com erros satisfatórios.
26

Técnicas para o gerenciamento quanti-qualitativo de reservatórios com usos múltiplos da água: estudo de caso do reservatório de Barra Bonita - SP / Techniques for quantitative and qualitative management of reservoirs with multiple uses of water: a case study of the reservoir of Barra Bonita-SP

Maia, James Lacerda 27 July 2009 (has links)
Os aspectos quantitativos regem as práticas de engenharia visando o gerenciamento de reservatórios. Entretanto, a preocupação em relação aos aspectos qualitativos da água tem aumentado, já que um número cada vez maior de reservatórios estão sendo utilizados para vários tipos de usos. No processo de gerenciamento de reservatórios é necessário que se leve em consideração todos os usos que serão beneficiados pelo sistema em questão. Nesse sentido, o objetivo do trabalho foi o emprego de técnicas computacionais para análise quanti-qualitativa dos usos múltiplos do reservatório de Barra Bonita - SP, realizando simulações computacionais através do modelo MIKE BASIN; propondo e testando um modelo de otimização com programação não-linear baseado no método das restrições e incorporando o uso de geotecnologias para análise espacial (distribuição horizontal) e temporal (sazonalidade) da qualidade da água do reservatório. Selecionou-se o reservatório de Barra Bonita para análise, devido aos usos múltiplos da água (geração de energia, navegação, recreação, turismo e pesca) e a presença de uma eclusa para transposição do desnível entre a jusante da barragem e o reservatório de acumulação da hidrelétrica, o que torna o reservatório uma área de estudo diferenciada. Os resultados das simulações realizadas no modelo MIKE BASIN para avaliar os usos múltiplos do reservatório, demonstraram que o melhor cenário foi o que estabeleceu prioridades iguais para a geração de energia e a navegação. A maximização da geração de energia hidroelétrica, através do modelo de otimização, não prejudicou os outros usos do reservatório (principalmente a navegação) e, mesmo no período seco, a energia média gerada pelo modelo registrou valores acima da energia média real gerada pela Usina Hidrelétrica de Barra Bonita-SP (período de 2001 a 2005). O emprego de geotecnologias (software Surfer) proporcionou boas condições para análise espaço-temporal da qualidade da água, quando aliado ao conhecimento sobre as características e condições do ambiente de estudo. Os dados obtidos em campo, demonstraram que algumas variáveis analisadas, como a condutividade elétrica e a turbidez aumentam significativamente do período seco para o chuvoso, pois estão diretamente relacionados com o aporte de material orgânico e inorgânico. O potencial hidrogeniônico (pH) sofre uma variação muito pequena do período seco para o chuvoso, mas seus valores variam espacialmente, sendo encontrados valores maiores no compartimento da barragem para o período seco, e no final do braço do rio Piracicaba para o período chuvoso. Quanto ao oxigênio dissolvido, este aumenta bastante do período chuvoso para o seco, mas em ambos os períodos as maiores concentrações são encontradas no final do braço do rio Piracicaba - SP. Ressalta-se, que apenas o oxigênio dissolvido (estação seca) não se enquadrou no padrão da Resolução CONAMA nº 357/2005, para águas de classe II. / The quantitative aspects rule the engineering practices aimed at reservoirs management. However, the concern about the qualitative aspects of water has increased, since a growing number of reservoirs are being used for many kinds of applications. In the process of reservoir management it is necessary to take into consideration all the uses that will benefit from the system itself. Hence, the objective of this study was the use of computational techniques for quantitative and qualitative analysis of the multiple applications of the reservoir of Barra Bonita - SP, performing computer simulations using the model MIKE BASIN, proposing and testing an optimization model with non-linear programming based on the constraint method and incorporating the use of geotechnologies for spatial (horizontal distribution) and time (seasonal distribution) analysis of the reservoir water quality. It was selected the reservoir of Barra Bonita for analysis because of the multiple applications of the water (power generation, navigation, recreation, tourism and fishing) and the presence of a lock for transposition of the gap between the dam downstream and the power plant accumulation reservoir, which makes the reservoir a different area of study. The results of the simulations performed in MIKE BASIN model to evaluate the multiple applications of the reservoir showed that the best scenario was the one in which the priorities were the same for power generation and navigation. The maximization of the hydropower generation through the optimization model, did not impair other uses of the reservoir (mainly navigation) and even in the dry season, the average power generated by the model registered values above the average real power generated by the Hydroelectric Power Plant of Barra Bonita-SP (from 2001 to 2005). The use of geotechnologies (Surfer software) provided good conditions for space-time analysis of water quality when coupled with the knowledge about the characteristics and conditions of the studied environment. The data obtained showed that some variables, such as electrical conductivity and turbidity significantly increase from the dry season to the rainy season, since they are directly related to the supply of organic and inorganic materials. The hydrogen potential (pH) undergoes a very small variation from the dry season to the rainy season, but its values vary spatially, with higher values found in the compartment of the dam during the dry season, and at the end of the arm of the Piracicaba river during the wet season. The dissolved oxygen greatly increases from the rainy season to the dry one, but in both periods the highest concentrations are found at the end of the arm of the river Piracicaba - SP. It is emphasized that only the dissolved oxygen (dry season) did not fit the pattern of CONAMA Resolution nº 357/2005, to class II waters.
27

Análise de sensibilidade do modelo de fluxos de detritos : Kanako-2D / Sensitivity analysis of debris flow model : Kanako-2D

Paixão, Maurício Andrades January 2017 (has links)
Por se tratar de um fenômeno complexo, a modelagem computacional tem sido utilizada na tentativa de simular o comportamento de fluxos de detritos. Um dos modelos computacionais é o Kanako-2D. O presente trabalho realizou análise de sensibilidade desse modelo em relação a alcance, área de erosão, área de deposição, área total atingida e largura do fluxo. Os valores dos parâmetros de entrada do Kanako-2D, cujas faixas de variação foram estabelecidas a partir de revisão bibliográfica, foram alterados individualmente enquanto os demais eram mantidos nos valores padrão do modelo. Os parâmetros analisados foram: diâmetro dos sedimentos, coeficiente de rugosidade de Manning, coeficiente de taxa de deposição, coeficiente de taxa de erosão, massa específica da fase fluida, massa específica do leito, concentração de sedimentos e ângulo de atrito interno. Foi utilizada uma vertente real com histórico de ocorrência de fluxos de detritos (bacia hidrográfica do arroio Böni, em Alto Feliz e São Vendelino/RS) e uma vertente hipotética com as mesmas características da vertente real para avaliar o efeito da topografia na propagação do fluxo. Também foram simuladas diferentes condições de terreno na propagação do fluxo de detritos. A sensibilidade do modelo foi quantificada a partir de três métodos: (a) análise por rastreamento, que indicou massa específica do leito, ângulo de atrito interno e concentração de sedimentos como os parâmetros que causam maior sensibilidade do modelo; (b) análise regional, indicando que os parâmetros massa específica do leito, ângulo de atrito interno e massa específica da fase fluida apresentaram maior sensibilidade do modelo; e (c) análise das variâncias, em que os parâmetros que mais causaram sensibilidade ao modelo foram coeficiente de taxa de erosão, diâmetro dos sedimentos e massa específica do leito. Os resultados apontaram que, de maneira geral, os parâmetros que geram maior sensibilidade no modelo são massa específica do leito, ângulo de atrito interno e concentração de sedimentos. As maiores variações relativas, no entanto, foram observadas nos parâmetros massa específica do leito, ângulo de atrito interno e massa específica da fase fluida. As maiores sensibilidades foram verificadas, em ordem decrescente, para área de erosão, área total, área de erosão, área de deposição, alcance e largura na vertente real e, para área total, alcance e largura na vertente hipotética. A condição de terreno que gerou maior alcance e área atingida foi de 45° de inclinação na encosta e 17° de inclinação na planície aluvial. / Due to a complex phenomenon, computational modeling has been used in an attempt to simulate the behavior of debris flows. One of the computational models is Kanako-2D. The present work carried out sensitivity analysis of this model in relation to length, erosion area, deposition area, total reached area and flow width. The values of the Kanako-2D input parameters, which ranges were established from literature review, were individually changed while the others were kept at the standard values of the model. The analyzed parameters were: sediment diameter, Manning roughness coefficient, coefficient of deposition rate, coefficient of erosion rate, mass density of the fluid phase, mass density of bed material, sediment concentration and internal friction angle. It was used a real slope-site with a history of occurrences of debris flow (Böni river basin in Alto Feliz and São Vendelino/RS) and a hypothetical slope-site with the same characteristics of the real one to evaluate the effect of the topography in the propagation of the flow. Different hillslope and alluvial fan conditions were also simulated in order to evaluate the length and reached area in the propagation of the flow. The sensitivity was quantified from three methods: (a) screening analysis, which indicated mass density of bed material, internal friction angle and sediment concentration as the parameters that cause bigger sensitivity in the model; (b) regionalized analysis, indicate that the parameters mass density of bed material, internal friction angle and mass density of the fluid phase showed higher sensitivity in the model; and (c) variances analysis, indicated that coefficient of erosion rate, sediment diameter and mass density of bed material showed higher sensitivity in the model. The results showed that, in general, the parameters that generate the higher sensitivity in the model are mass density of bed material, internal friction angle and concentration. The largest relative variation, however, in the response of the model were observed in mass density of bed material, internal friction angle and mass density of fluid phase. In descending order, the highest sensitivities were verified for erosion area, total area, deposition area, length and width for the real slope-site and total area, length and width for the hypothetical slope-site. The terrain condition that generated the largest length and reached area was 45° on the hillslope and 17º on the alluvial fan.
28

Modelo para a Corte Penal Internacional

Schneider, Éder Mílton January 2013 (has links)
O presente trabalho discute o papel de instituições internacionais, particularmente a Corte Penal Internacional (CPI) como maneira efetiva de reduzir o número e/ou gravidade de crimes contra a humanidade, crimes de guerra e genocídio. A ação da CPI é direcionada contra líderes, ou seja, autoridades políticas, comandantes de forças armadas, autoridades civis, etc, que autorizam ou promovem estes tipos de crimes. Para simular a ação da CPI são utilizadas redes complexas visando construir uma sociedade hierárquica onde os líderes de maior importância são os de maior conectividade, podendo espalhar seus pontos de vista ou ordens através de uma cadeia de indivíduos progressivamente menos conectados. Desta forma se estes líderes praticam improbidade, corrupção ou qualquer tipo de ação criminosa contra indivíduos ou grupos, é muito difícil e improvável que sejam processados pelas cortes de seu próprio país. Foi para aliviar esta situação, combatendo a impunidade nos altos escalões, que a CPI foi formada. Sua missão é processar e condenar crimes contra a humanidade, crimes de guerra e o crime de genocídio através de uma organização supra-nacional capaz de agir sobre líderes criminosos em qualquer país. No presente estudo a ação da CPI é simulada pela remoção do líder corrupto e substituição do mesmo por uma liderança não criminosa. As práticas criminosas do líder corrupto podem no entanto ter se espalhado entre a população antes da ação da CPI. Neste trabalho procuramos determinar a possibilidade de uma única ação da CPI ser suficiente ou se intervenções futuras são necessárias dependendo do grau de deterioração dos direitos humanos no país hipotético. Os resultados evidenciam o efeito positivo das ações da CPI para uma quantidade relativamente pequena de intervenções. Também comparam-se os efeitos da CPI com as ações do sistema judiciário nacional local, onde os lideres são de certa forma difíceis de processar criminalmente. Resultados mostram evidência de que a impunidade de líderes corruptos prejudica a habilidade das cortes em combater violações dos direitos humanos em toda a sociedade. / This work discuss the role of international institutions, like the International Criminal Court (ICC), as an effective way of reducing the number and/or gravity of crimes against humanity, war crimes and genocide. The action of the ICC is directed against leaders, i.e. political autho- rities, army commanders, civil leaders, etc, that authorize or promote these kinds of crimes. In order to simulate the action of the ICC the framework of scale free networks is used to build a hierarchical society where the most important leaders have the highest connectivity and can spread their points of view, or their orders, through a chain of less but still highly connected deputy chiefs or opinion chieftains. In this way, if they practice misconduct, corruption, or any kind of discriminatory or criminal actions against individuals or groups, it would very difficult and improbable that they will be prosecuted by the courts of their own country. It is to alleviate this situation and to fight impunity that the ICC was created. Its mission is to process and con- demn crimes against humanity, war crimes and the crime of genocide though a supranational organism that can act on criminal leaders in any country. In this study, the action of the ICC is simulated by removing the corrupt leader and replacing it by a ”decent”one. However, as the criminal action of the corrupt leader could have spread among the population by the time the ICC acts, we try to determine if a unique action of the ICC is sufficient or if further actions are required, depending on the degree of deterioration of the human rights in the hypothetical country. The results evidence the positive effect of the ICC action with a relatively low number of interventions. The effect of the ICC is also compared with the action of the local national judiciary system, where the leaders are somewhat difficult from process. Results show evidence that the impunity of corrupt leaders hinders the ability of the courts to fight human rights violations on the whole society.
29

Modelo para a Corte Penal Internacional

Schneider, Éder Mílton January 2013 (has links)
O presente trabalho discute o papel de instituições internacionais, particularmente a Corte Penal Internacional (CPI) como maneira efetiva de reduzir o número e/ou gravidade de crimes contra a humanidade, crimes de guerra e genocídio. A ação da CPI é direcionada contra líderes, ou seja, autoridades políticas, comandantes de forças armadas, autoridades civis, etc, que autorizam ou promovem estes tipos de crimes. Para simular a ação da CPI são utilizadas redes complexas visando construir uma sociedade hierárquica onde os líderes de maior importância são os de maior conectividade, podendo espalhar seus pontos de vista ou ordens através de uma cadeia de indivíduos progressivamente menos conectados. Desta forma se estes líderes praticam improbidade, corrupção ou qualquer tipo de ação criminosa contra indivíduos ou grupos, é muito difícil e improvável que sejam processados pelas cortes de seu próprio país. Foi para aliviar esta situação, combatendo a impunidade nos altos escalões, que a CPI foi formada. Sua missão é processar e condenar crimes contra a humanidade, crimes de guerra e o crime de genocídio através de uma organização supra-nacional capaz de agir sobre líderes criminosos em qualquer país. No presente estudo a ação da CPI é simulada pela remoção do líder corrupto e substituição do mesmo por uma liderança não criminosa. As práticas criminosas do líder corrupto podem no entanto ter se espalhado entre a população antes da ação da CPI. Neste trabalho procuramos determinar a possibilidade de uma única ação da CPI ser suficiente ou se intervenções futuras são necessárias dependendo do grau de deterioração dos direitos humanos no país hipotético. Os resultados evidenciam o efeito positivo das ações da CPI para uma quantidade relativamente pequena de intervenções. Também comparam-se os efeitos da CPI com as ações do sistema judiciário nacional local, onde os lideres são de certa forma difíceis de processar criminalmente. Resultados mostram evidência de que a impunidade de líderes corruptos prejudica a habilidade das cortes em combater violações dos direitos humanos em toda a sociedade. / This work discuss the role of international institutions, like the International Criminal Court (ICC), as an effective way of reducing the number and/or gravity of crimes against humanity, war crimes and genocide. The action of the ICC is directed against leaders, i.e. political autho- rities, army commanders, civil leaders, etc, that authorize or promote these kinds of crimes. In order to simulate the action of the ICC the framework of scale free networks is used to build a hierarchical society where the most important leaders have the highest connectivity and can spread their points of view, or their orders, through a chain of less but still highly connected deputy chiefs or opinion chieftains. In this way, if they practice misconduct, corruption, or any kind of discriminatory or criminal actions against individuals or groups, it would very difficult and improbable that they will be prosecuted by the courts of their own country. It is to alleviate this situation and to fight impunity that the ICC was created. Its mission is to process and con- demn crimes against humanity, war crimes and the crime of genocide though a supranational organism that can act on criminal leaders in any country. In this study, the action of the ICC is simulated by removing the corrupt leader and replacing it by a ”decent”one. However, as the criminal action of the corrupt leader could have spread among the population by the time the ICC acts, we try to determine if a unique action of the ICC is sufficient or if further actions are required, depending on the degree of deterioration of the human rights in the hypothetical country. The results evidence the positive effect of the ICC action with a relatively low number of interventions. The effect of the ICC is also compared with the action of the local national judiciary system, where the leaders are somewhat difficult from process. Results show evidence that the impunity of corrupt leaders hinders the ability of the courts to fight human rights violations on the whole society.
30

Evaluation of code-based information to architectural module identification / Avaliação da relevância de informações do código fonte para identificar módulos da arquitetura de software

Zapalowski, Vanius January 2014 (has links)
Arquitetura de software desempenha um importante papel no desenvolvimento de software, quando explicitamente documentada, ela melhora o entendimento sobre o sistema implementado e torna possível entender a forma com que requisitos não funcionais são tratados. Apesar da relevância da arquitetura de software, muitos sistemas não possuem uma arquitetura documentada, e nos casos em que a arquitetura existe, ela pode estar desatualizada por causa da evolução descontrolada do software. O processo de recuperação de arquitetura de um sistema depende principalmente do conhecimento que as pessoas envolvidas com o software tem. Isso acontece porque a recuperação de arquitetura é uma tarefa que demanda muita investigação manual do código fonte. Pesquisas sobre recuperação de arquitetura objetivam auxiliar esse processo. A maioria dos métodos de recuperação existentes são baseados em dependência entre elementos da arquitetura, padrões arquiteturais ou similaridade semântica do código fonte. Embora as abordagem atuais ajudem na identi cação de módulos arquiteturais, os resultados devem ser melhorados de forma signi cativa para serem considerados con áveis. Então, nesta dissertação, objetivamos melhorar o suporte a recuperação de arquitetura explorando diferentes fontes de informação e técnicas de aprendizado de máquina. Nosso trabalho consiste de uma análise, considerando cinco estudo de casos, da utilidade de usar um conjunto de características de código (features, no contexto de aprendizado de máquina) para agrupar elementos em módulos da arquitetura. Atualmente não são conhecidas as características que afetam a identificação de papéis na arquitetura de software. Por isso, nós avaliamos a relação entre diferentes conjuntos de características e a acurácia obtida por um algoritmo não supervisionado na identificação de módulos da arquitetura. Consequentemente, nós entendemos quais dessas características revelam informação sobre a organização de papéis do código fonte. Nossa abordagem usando características de elementos de software atingiu uma acurácia média significativa. Indicando a relevância das informações selecionadas para recuperar a arquitetura. Além disso, nós desenvolvemos uma ferramenta para auxílio ao processo de recuperação de arquitetura de software. Nossa ferramenta tem como principais funções a avaliação da recuperação de arquitetura e apresentação de diferentes visualizações arquiteturais. Para isso, apresentamos comparações entre a arquitetura concreta e a arquitetura sugerida. / Software architecture plays an important role in the software development, and when explicitly documented, it allows understanding an implemented system and reasoning about how non-functional requirements are addressed. In spite of that, many developed systems lack proper architecture documentation, and if it exists, it may be outdated due to software evolution. The process of recovering the architecture of a system depends mainly on developers' knowledge requiring a manual inspection of the source code. Research on architecture recovery provides support to this process. Most of the existing approaches are based on architectural elements dependency, architectural patterns or source code semantics, but even though they help identifying architectural modules, the obtained results must be signi cantly improved to be considered reliable. We thus aim to support this task by the exploitation of di erent code-oriented information and machine learning techniques. Our work consists of an analysis, involving ve case studies, of the usefulness of adopting a set of code-level characteristics (or features, in the machine learning terminology) to group elements into architectural modules. The characteristics mainly source code metrics that a ect the identi cation of what role software elements play in software architecture are unknown. Then, we evaluate the relationship between di erent sets of characteristics and the accuracy achieved by an unsupervised algorithm the Expectation Maximization in identifying architectural modules. Consequently, we are able to understand which of those characteristics reveal information about the source code structure. By the use of code-oriented information, our approach achieves a signi cant average accuracy, which indicates the importance of the selected information to recover software architecture. Additionally, we provide a tool to support research on architecture recovery providing software architecture measurements and visualizations. It presents comparisons between predicted architectures and concrete architectures.

Page generated in 0.104 seconds