• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 266
  • 16
  • 2
  • 1
  • 1
  • Tagged with
  • 289
  • 144
  • 63
  • 56
  • 40
  • 36
  • 34
  • 32
  • 31
  • 30
  • 29
  • 29
  • 26
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Ondas progressivas na cromodinâmica quântica de altas densidades aplicadas a processos inclusivos

Basso, Eduardo Andre Flach January 2013 (has links)
A investigação da física de saturação partônica em colisões de partículas de altas energias será o objetivo principal deste trabalho. Os fenômenos de saturação referem-se a processos de recombinação de pártons (quarks e gluóns) que considera-se ocorram no limite de altas energias da Cromodinâmica Quântica (QCD), a fim de controlar o crescimento das densidades de pártons e manter unitárias as amplitudes de espalhamento. A evolução em energia das amplitudes que leva a este comportamento é não linear, sendo essas não linearidades responsáveis pela unitarização das amplitudes. Para realizar este estudo nos baseamos no formalismo de dipolos de cor, onde a evolução das amplitudes considera que gluóns emitidos, no limite de grande número de cores, são equivalentes a pares de quark–antiquark. Assim, o que é considerado nos cálculos de amplitudes de espalhamento são as interações de tais dipolos com o alvo, sendo as coordenadas (momentum) transversas (os) dos dipolos e a energia as variáveis de interesse. A equação mais simples para a evolução de dipolos é a equação de Balitsky e Kovchegov (BK), a qual não possui soluções analíticas conhecidas. Assintoticamente, entretanto, tais soluções podem ser obtidas por meio de uma conexão entre a QCD e processos de reação–difusão, onde se mostra que a equação BK está em classe de equivalência com a equação de Fisher, Kolmogorov, Petrovsky e Piscounov (FKPP), largamente estudada e que é conhecida por admitir soluções de ondas progressivas. Usando as soluções assintóticas da equação BK para o regime de grandes momenta transversos, juntamente com uma expressão que unitarize a amplitude na região não perturbativa é possível construir modelos para a amplitude de dipolos e assim descrever processos no regime de altas energias da QCD. Um exemplo disso é o modelo AGBS para amplitude de dipolos, em ordem dominante na constante de acoplamento forte, αs, usada como parâmetro perturbativo, o qual será muito útil em nossas análises. As maiores energias de centro de massa disponíveis atualmente se dão em colisões hadrônicas no LHC. Nesse sentido, buscamos neste trabalho aplicar a física de saturação na produção inclusiva de hádrons em colisões próton-próton e próton-núcleo, sob o ponto de vista de distintas fatorizações para seção de choque de produção: a fatorização híbrida mesclando as físicas colinear da evolução DGLAP e a física de saturação; e a fatorização kt que considera a distribuição em momentum transverso para ambos os hádrons em colisão. Sob o ponto de vista da fatorização híbrida realizamos um ajuste global com a amplitude AGBS para dados de espalhamento profundamente inelástico (DIS) no colisor HERA em conjunto com os dados de produção de hádrons em colisões de íons pesados (Deutério–Ouro ou próton–próton) no colisor RHIC. Este ajuste teve resultados promissores e aparece como um dos poucos que conseguem uma boa descrição simultânea desses diferentes tipos de processos, podendo ser utilizado para explicar a física de partículas nas maiores energias atingidas em colisores, no caso no LHC. Com base na fatorização kt conseguimos uma melhor descrição dos dados de LHC em rapidezes centrais, onde pudemos clarificar as distintas regiões cinemáticas onde cada fatorização se aplica. Além disso, conseguimos uma descrição muito boa dos recentes dados de colisões próton-chumbo no LHC. Comparando ambas fatorizações percebe-se que a fatorização kt é adequada na descrição de dados em rapidezes centrais, ao passo que a fatorização híbrida descreve muito bem os dados em rapidezes frontais, onde a física de saturação tem relevante papel. Nós também fizemos predições para o fator de modificação nuclear RpA usando seções de choque para a produção direta de fótons, a qual contém informações precisas sobre o estado inicial da colisão, uma vez que fótons não interagem por meio da força forte com o meio harmônico formado no estado final. Com este observável nós esperamos reduzir os erros associados com correções de mais alta ordem no sentido de que tomamos razões entre seções de choque e os fatores K associados a estas quantidades devem ser cancelados. O modelo AGBS prevê uma forte supressão da razão nuclear em rapidezes frontais, ao contrário das previsões baseadas na fatorização colinear. / The main subject of this thesis is the investigation of the saturation physics in high energy particle collisions. The saturation phenomena refer to the processes of parton (quarks and gluons) recombination that are expected to happen in the high energy limit of the Quantum Cromodynamics in order to tame the fast growing of the parton density inside the hadrons, and thus keep the scattering amplitudes unitary. The energy evolution for the amplitudes leading to this behavior is nonlinear, being the nonlinearities responsible for the unitarization process. In order to investigate the saturation phenomena in high energy collisions we lay on the color dipole formalism, which is based on the t’Hooft large Nc limit and considers the gluons emitted as the energy increases as a quark-antiquark pair. Thus, a factorization emerges, where the probe is represented by the interaction of such dipole pair, end its energy evolution, with the target; and being the main variables the transverse size – and its conjugate transverse momentum. The simplest evolution equation for the dipole amplitude is the Balistky-Kovchegov (BK) equa- tion, for which analytical solutions are not known. Asymptotically, however, it is possible to get infor- mation on its solutions, through a “mapping” of QCD into reaction-diffusion processes that put the BK equation equivalence class with the Fisher-Kolmogorov-Piscounov-Petrovsky (FKPP) equation. Such equation was largely studied in statistical physics problems and is known to admit traveling waves solutions. Using such BK asymptotic solutions to describe the large transverse momentum behavior, together with a expression that unitarizes the infrared region, it is possible to build models to the dipole scattering amplitude and thus describe the QCD processes at high energy. An example of such approach is the AGBS model for the dipole amplitude, that will be very useful in our analysis. The largest center of momentum energies available nowadays in colliders involve hadron colli- sions at LHC. This way we will use such collisions as laboratory to investigate the saturation physics; particularly, we will focus on inclusive hadron production in proton-proton and proton-nucleus colli- sions, from the viewpoint of distinct factorizations for the production cross section: the hybrid one, merging the collinear physics of the DGLAP evolution equation for the projectile partons and the saturation physics in the dense targets; and the kt factorization, treating both colliding hadrons as composite systems of partons with intrinsic transverse momentum. Within the hybrid formalism we performed a global analysis of the AGBS amplitude to the deep inelastic scattering (DIS) data coming from the collider HERA together with the inclusive production of hadrons in heavy ions collisions (proton–gold and proton–proton) at the RHIC. Such fit shows good results and emerges as one of few models that can accommodate simultaneously these distinct processes, and can be used to investigate the saturation physics in higher energies as those attained at the LHC. Using the kt factorization we got a better description of the central rapidity data measured at LHC, in comparison with the hybrid formalism, and thus we could map the distinct kinematic regions where each factorization applies. Besides that, under such factorization we could describe quite well the recently measured data in the proton-lead run at LHC. Comparing both factorization we realize that the kt one is better suited to deal with central rapidity data – if both colliding hadrons can be considered in the small-x region, while the hybrid factorization accommodates very well the small-x physics of the fragmentation region of the hadrons, in the froward rapidities. We also have made predictions to the nuclear modification ratio RpA using prompt photon production cross sections, that contains precise information on the initial state of the collision process once there is no strong interaction between the produced photon and the hadronic media in the final state. With this observable we expect the errors associated with higher order correction could be minimized, once we are taking cross section ratios and the K factors should cancel out. The AGBS predict a strong suppression of the nuclear ratio at forward rapidities, with is in opposite way as the collinear prediction.
122

Modelagem do problema de escalonamento de veículos com múltiplas garagens usando rede tempo-espaço : grandes instâncias e frota heterogênea

Guedes, Pablo Cristini January 2014 (has links)
O problema de escalonamento de veículos com múltiplas garagens (MDVSP, do inglês Multi-Depot Vehicle Scheduling Problem) é um problema clássico de logística e transportes. O MDVSP também é a base para a solução de vários problemas correlatos, tais como o problema de escalonamento de veículos em tempo-real e soluções integradas com o escalonamento de veículos, tais como o escalonamento da tripulação e otimização da tabela de horários. Desta forma, aprimorar a solução deste problema pode ser considerado de grande relevância, a qual permitirá resolver grandes instâncias reais de forma eficiente, bem como permitir a solução de problemas correlatos. O objetivo desta dissertação é verificar a aplicabilidade da utilização da rede tempo-espaço e do método de geração de colunas modificado proposto, para a solução deste problema, e de sua variante com frota heterogênea, considerando grandes instâncias. Diversos testes foram realizados utilizando o gerador de instâncias aleatórias com base na distribuição de demandas proposto. Grandes instâncias, envolvendo milhares de viagens (entre 500-10.000) e dezenas de garagens (4-128) são resolvidas em tempos razoáveis. / The multiple-depot vehicle-scheduling problem (MDVSP) is a classic logistic and transportation problem. The MDVSP is also a subproblem for solving various related problems, such as the real time vehicle scheduling problem, disruption management; and integrated problems such as the vehicle and crew scheduling problems. Although several mathematical and solution method have been developed in the literature, large instances (involving thousands of trips and several depots) are still difficult to solve in a reasonable time. The objective of this research work is to verify the applicability of the use of the space-time network towards obtaining good solutions for large instances in short time. Time-space network was suggested by Kliewer et al (2006), and it is positioned with respect to two-dimensional axes, one representing time and the other one space or stations. The arcs represent deadheading movements; and waiting periods in the same station. Solution methods for the MDVS combining time space with integer linear programming solvers and column generation were developed. Extensive testing was carried out using random generated instances, based on demands distribution. Large instances, involving thousands of trips (between 1,000-10,000) and dozen (4-64) depots, are solved in reasonable times.
123

Um estudo sobre problemas de escalonamento de tarefas com atrasos de comunicação de valores extremos / A study of scheduling problems subjected to extreme delay values

Pires, Renan Ferraz January 2013 (has links)
Esta dissertação de mestrado apresenta um estudo sobre problemas de escalonamento de tarefas com atrasos de comunicação. Mais precisamente, são abordados problemas de escalonar um conjunto de tarefas em um conjunto de máquinas paralelas de número limitado ou não, e tarefas de tempo de processamento unitário, sujeitas a relações de precedência, e com atrasos de comunicação estabelecidos para cada par de tarefas precedentes, assumindo valores extremos, ou seja, podendo ser desprezíveis ou infinitamente grandes, isto com o objetivo de minimizaro o tempo em que a última tarefa escalonada termina seu processamento - minimização do makespan. Sendo assim, dois problemas são demostrados serem da classe NP-difícil. Para o primeiro, a quantidade de processadores é indicada a cada instância, sendo este resultado válido ainda que as relações de precedência formem um conjunto de cadeias (P|chains; cij ∈ {0, ∞}; pj = 1|Cmax). O segundo problema admite relações de precedência arbitrárias e é válido para qualquer quantidade fixa de processadores diferente de um (P2|prec;cij ∈ {0, ∞}; pj = 1|Cmax). Por outro lado, neste trabalho, dois outros problemas são demonstrados serem solúveis em tempo polinomial, ou seja, estarem na classe P, ambos quando uma quantidade ilimitada de processadores está disponível. É visto que, se a ordem de precedência das tarefas é limitada a uma árvore descendente, o problema é polinomial (P∞|tree; cij ∈ {0, ∞}; pj = 1|Cmax). O outro caso polinomial demonstrado é válido quando é permitido processar a mesma tarefa em mais de um processador (P∞|prec; cij ∈ {0, ∞}; pj = 1|Cmax). Para ambos os casos são apresentados os algoritmos polinomiais. Finalmente, são apresentados resultados para o problema de escalonar tarefas particionadas em conjuntos para os quais todas as tarefas devem ser processadas no mesmo processador. O problema é NP-difícil quando a quantidade de processadores é determinada a cada instância. Esse resultado é válido ainda que a precedência seja restrita a duas cadeias. O problema se torna polinomial quando o conjunto de partições é limitado por constante e as cadeias são restritas em uma das duas formas: pela quantidade delas ou pela quantidade de tarefas em cada uma delas. Como trabalho futuro, este estudo deixa em aberto a NP-Completude do problema de escalonar sob tais atrasos de comunicação de valores extremos, para uma quantidade fixa de processadores, quando a ordem de precedência é de alguma forma restrita, por exemplo, uma árvore descendente (Pm|out-tree;cij ∈ {0, ∞}; pj = 1|Cmax). / This Master’s Thesis presents a study on scheduling problems subject to communication delays. More precisely, this work involves job scheduling problems with a number of parallel machines, limited or not, and where the tasks (or jobs) have unit execution time, and are subject to some precedence relation. Communication delays are imposed at each pair of preceding tasks, taking extreme values, which may be negligible or infinitely large. The objective is minimize the completion time of the latest job to be processed, that is, to get the minimum makespan. Thus, NP-hard results are demonstrated for two cases. For the first, when the number of processors is indicated in the instance of the problem, and this result holds even when the precedence relation is restricted to a set of chains (P|chains; cij ∈ {0, ∞}; pj = 1|Cmax). The second results is valid when arbitrary precedence relations are allowed, and any fixed number of processors (greater than one) is available (P2|prec;cij ∈ {0, ∞}; pj = 1|Cmax). Two other problems are demonstrated to have polynomial time solutions, both when an unlimited number of processors are available. The first result imposes the precedence relation to be an out-tree (P∞|tree; cij ∈ {0, ∞}; pj = 1|Cmax). The second result is valid when the execution of the same job on multiples processors are allowed (P∞|prec; cij ∈ {0, ∞}; pj = 1|Cmax). For both cases, polynomial algorithms are presented. Finally, results are presented for the problem of job scheduling that are partitioned in sets which must be executed on the same processors. The problem is demonstrated to be NP-hard even if the precedence relation consists of two chains. Also, it is shown that the problem becomes solvable in polynomial time if the number of partitions is limited by a constant and the chains are restricted by a constant on either their number, or the number of tasks that each chain may have. As future work, this study leaves open whether is NP-hard the case to schedule tasks subject to such communication delays with extreme values, when a fixed number of processors is available, and the precedence relations are some how restricted, for example, by an out-tree (Pm|out-tree;cij ∈ {0, ∞}; pj = 1|Cmax).
124

Including workers with disabilities in flow shop scheduling / Incluindo trabalhadores com deficiência em flow shops

Carniel, Germano Caumo January 2015 (has links)
Pessoas com deficiências possuem muitas dificuldades em participar do mercado de trabalho, possuindo uma taxa de desemprego bem maior do que a média populacional. Isso motiva o estudo de novos modos de produção que permitam incluir essas pessoas com baixo custo operacional. Neste trabalho é feito um estudo sobre a inclusão de pessoas com deficiências em flow shops com o objetivo de minimizar o makespan. Como flow shops normalmente possuem poucas máquinas, o foco do estudo é na inserção de um e dois trabalhadores. O problema é definido, são propostos modelos matemáticos e uma solução heurística para resolvê-lo, assim como instâncias de teste realistas. Nos testes computacionais a performance dos modelos e da heurística é avaliada e a utilidade prática deste modelo de inclusão é analisada. Nós concluímos que o problema pode ser resolvido de forma satisfatória e que a inclusão de trabalhadores com deficiêcia emn flow shops é economicamente viável. / Persons with disabilities have severe problems participating in the job market and their unemployment rate is usually much higher than the average of the population. This motivates the research of new modes of production which allow to include these persons at a low overhead. In this work we study the inclusion of persons with disabilities into flow shops with the objective of minimizing the makespan. Since flow shops usually have only a few machines, we focus on the inclusion of one and two workers. We define the problem, propose mathematical models and a heuristic solution, as well as realistic test instances. In computational tests we evaluate the performance of the models and the heuristic, and assess the utility of such a model of inclusion. We conclude that the problem can be solved satisfactorily, and that including workers with disabilities into flow shops is economically feasible.
125

Proposição de uma heurística utilizando Buscatabu para a resolução do problema de escalonamento de veículos com múltiplas garagens

Casalinho, Gilmar D'Agostini Oliveira January 2012 (has links)
Os problemas logísticos estão se apoiando de forma bastante expressiva na pesquisa operacional a fim de obter uma maior eficiência em suas operações. Dentre os vários problemas relacionados à designação de veículos em um sistema logístico, o de escalonamento de veículos com múltiplas garagens, MDVSP (Multiple Depot Vehicle Scheduling Problem), vem sendo abordado em diversas pesquisas. O MDVSP pressupõe a existência de garagens que interferem no planejamento das sequências com as quais as viagens devem ser executadas. Frequentemente, métodos exatos não podem resolver as grandes instâncias encontradas na prática e, para poder levá-las em consideração, várias abordagens heurísticas estão sendo desenvolvidas. O principal objetivo deste trabalho, portanto, foi solucionar o MDVSP através de uma heurística utilizando o método de busca-tabu. A principal motivação para a realização deste trabalho surgiu a partir da indicação de que apenas recentemente o uso de meta-heurísticas está sendo aplicado ao MDVSP (Pepin et al. 2008) e das limitações elencadas no estudo de Rohde (2008), o qual utilizou o algoritmo branch-and-bound em uma das etapas da heurística apresentada para resolver o problema, o que fez aumentar o tempo de resolução do problema. O método de pesquisa para solução deste problema foi baseado em adaptações das tradicionais técnicas de pesquisa operacional, e propiciou a resolução do MDVSP apresentando resultados bastante competitivos quanto ao custo da função objetivo, número de veículos utilizados e tempo computacional necessário. / Currently the logistical problems are relying quite significantly on Operational Research in order to achieve greater efficiency in their operations. Among the various problems related to the vehicles scheduling in a logistics system, the Multiple Depot Vehicle Scheduling Problem (MDVSP) has been addressed in several studies. The MDVSP presupposes the existence of depots that affect the planning of sequences to which travel must be performed. Often, exact methods cannot solve large instances encountered in practice and in order to take them into account, several heuristic approaches are being developed. The aim of this study was thus to solve the MDVSP using a meta-heuristic based on tabu-search method. The main motivation for this work came from the indication that only recently the use of meta-heuristics is being applied to MDVSP context (Pepin et al. 2008) and, also, the limitations listed by Rohde (2008) in his study, which used the branch-and-bound in one of the steps of the heuristic presented to solve the problem, which has increased the time resolution. The research method for solving this problem was based on adaptations of traditional techniques of Operational Research, and provided resolutions presenting very competitive results for the MDVSP such as the cost of the objective function, number of vehicles used and computational time.
126

Método de programação de sistemas de manufatura do tipo Job Shop dinâmico não determinístico. / Programming method for non-deterministic dynamic Job Shop manufacturing systems.

Lindolpho Oliveira de Araújo Junior 29 June 2006 (has links)
Esta tese explora características de sistemas de manufatura celular virtual, de técnicas de escalonamento e despacho em tempo de execução e de algoritmos genéticos para assegurar um alto grau de flexibilidade de rotas de processo e eficiência na programação de tarefas de sistemas de manufatura do tipo (NDDJSS – non-deterministic dynamic job shop system). Desenvolve-se assim, um método de programação baseado em duas novas técnicas, de clustering e de escalonamento e despacho, respectivamente, aplicado a sistemas de manufatura do tipo NDDJSS. Apresentam-se inicialmente os conceitos fundamentais considerados na organização de sistemas de manufatura em células de trabalho e suas implicações em termos de esforço de coordenação e controle das células e das tarefas; a abordagem por organização funcional das células de manufatura virtuais; ascaracterísticas, definições e notação usadas para problemas de escalonamento; a descrição de técnicas de escalonamento e despacho de sistemas de manufatura; aspectos relevantes de computação evolutiva, mais especificamente, de algoritmos genéticos. Em seguida, introduz-se a nova técnica de clustering e a nova técnica de escalonamento e despacho, juntamente com os requisitos e as formulações associadas. A nova técnica de clustering forma células de manufatura virtuais balanceadas quanto ao volume de trabalho, com alto grau de flexibilidade de rotas de processo. A nova técnica de escalonamento e despacho é autônoma, estável, adaptativa, flexível, contingente, monotônica e relativamente robusta, permitindo a geração de escalas em tempo de execução, ao mesmo tempo em que mantém a medida de desempenho, o makespan, dentro de uma faixa de desempenho pré-estabelecida. Exemplificam-se as aplicações das duas novas técnicas, através de exemplos extraídos da literatura técnica e simulados através de um programa de computador chamado (DEVICE – Design of virtual cells), desenvolvido especialmente para esta pesquisa. Após simulação obtêm-se os resultados de forma estruturada para análise. Os respectivos resultados da aplicação do método de programação proposto comprovam o potencial dessa abordagem. / This thesis explores characteristics of virtual cellular manufacturing systems, of scheduling and dispatching techniques for real time requirements and genetic algorithms for assures a high level of routeing flexibility and efficiency in tasks programming for (NDDJSS – non-deterministic dynamic job shop system). It introduces a programming method based in two new clustering and scheduling and dispatching techniques, respectively, applied in NDDJSS manufacturing systems. Initialy, the work presents basic concepts considered in the organization of cellular manufacturing systems and its implications for coordination and control efforts of cells and tasks, respectively; an approach of virtual mufacturing cells through the functional organization; the characteristics, definitions and notation used for scheduling problems; the description of more manufacturing systems scheduling and dispatching techniques; relevant aspects of evolutionary computation in specialty, the genetic algorithms. Subsequently, the work also introduces the new clustering and scheduling and dispatching techniques, the requirements and the formulas associated. The new clustering technique builds balanced workload with high flexibility of process routeing. Also, the new scheduling and dispatching technique is autonomous, stable, adaptative, flexible, contingent, monotonic and relatively robust, providing scales generating in running mode (real time) and mantaining the performance measures “makespan” within the stabilished range of performance. The applications of the two new techniquesare exemplified based on two examples picked from technique literature and so simulated through a new software called (DEVICE – design of virtual cells). The software DEVICE was designed specialty for this research. After run some simulations, the structured form results are obtained for analisys. The respectively results obtained for the proposed method application proves the powerful of this approach.
127

Um estudo comparativo de cargas de trabalho e políticas de escalonamento para aplicações paralelas em clusters e grids computacionais / A comparative study of workloads and policies for parallel job scheduling on clusters and grid computing

Juliano Amorim de Oliveira 01 September 2006 (has links)
Diversas políticas de escalonamento para aplicações paralelas voltadas a ambientes computacionais distribuídos têm sido propostas. Embora tais políticas apresentem bons resultados, elas são, geralmente, avaliadas em cenários específicos. Quando o cenário muda, com diferentes ambientes distribuídos e condições de carga, essas políticas podem ter seu desempenho deteriorado. Nesse contexto, este trabalho apresenta um estudo comparativo envolvendo dez políticas de escalonamento avaliadas em diferentes cenários. Cada uma das políticas foi submetida a uma combinação de quatro cargas de trabalho de ocupação da UCP e três variações da taxa de comunicação média entre os processos, utilizando a rede. Foram considerados ainda três sistemas distribuídos distintos: dois clusters, com diferentes quantidades de nós, e um grid computacional. Foi utilizada a simulação com ambientes próximos ao real e cargas de trabalho obtidas de modelos realísticos. Os resultados demonstraram que, embora as políticas sejam voltadas a ambientes computacionais paralelos e distribuídos, quando o cenário muda, o desempenho cai e a ordem de classificação entre as políticas se altera. Os resultados permitiram ainda demonstrar a necessidade de se considerar a comunicação entre os processos durante o escalonamento em grids computacionais. / Several scheduling policies for parallel applications directed to the distributed computational environments have been proposed. Although such policies present good results, they, generally, are evaluated in specific scenarios. When scenario change, by using different distributed environments and workload conditions, these policies can have its performance spoiled. In this context, this work presents a comparative study involving ten scheduling policies evaluated on different scenarios. Each policy was submitted to a combination of four CPU occupation workloads and three variations of interprocess average communication rates, using the network. Three different distributed systems had been yet considered: two clusters, with different amounts of nodes, and one grid computing. Simulation was used with environments near to the real and workloads obtained of realistic models. Although the policies are directed to parallel and distributed environments, the results have demonstrated that when scenario change, the performance falls and the ranking between the policies changes too. The results have still allowed to demonstrate the necessity of considering interprocess communication during the scheduling in a grid computing.
128

Escalonamento de painéis reforçados sujeitos a cargas de impacto. / Scaling of reinforced panels subjected to impact loads.

Leonardo Monteiro Mazzariol 05 October 2012 (has links)
Esta dissertação avalia a aplicação de leis de similaridade distorcidas no contexto de impacto estrutural. A análise se apoia em um estudo teórico, numérico e experimental do impacto de um indentador contra um painel duplo. O modelo analítico descreve de forma simplificada o comportamento de partes desta estrutura e as simulações numéricas reproduzem os ensaios experimentais que utilizam um protótipo (tamanho real) e modelo (escala reduzida). A diferença nas propriedades mecânicas do material de construção do modelo e protótipo é considerada no procedimento de escalonamento, bem como os efeitos de escala por causa da taxa de deformação. Ainda, diante das limitações do aparato experimental, é desenvolvida uma formulação para as leis de similaridade que permite variações da massa impacto e da velocidade inicial do elemento impactante no ensaio. Dessa forma, apresenta-se um procedimento que permite inferir o comportamento de estruturas em tamanho real sob carregamento de impacto através do uso de estruturas em escala, mesmo com as limitações de aparato ou diferenças das propriedades mecânicas do material. / This work evaluates the distorted similarity laws applied in structural impact. The analysis is based in theoretical, numerical and experimental studies of the impact of an indenter to a reinforced panel. The theoretical approach describes, in a simplified manner, the behaviour of the structure components while the numerical analysis reproduces the experiments performed in two scales: prototype (large scale) and model (small scale). Although the panels are made of different materials, this mismatch in mechanical behaviour is taken into account in the scaling procedure, as well as the scale effects due to strain rate. A formulation that allows flexibility in experiment variables such as initial velocity and impact mass is developed due to experimental apparatus limitations. In general lines, is developed a procedure allowing to infer the behaviour of a large scale structure under impact load using scaled structures, while using different materials for prototype and model and respecting the experimental apparatus limits.
129

Influências de políticas de escalonamento no desempenho de simulações distribuídas / Influences of scheduling policies on the performance of distributed simulations

Bárbara Lopes Voorsluys 07 April 2006 (has links)
Este trabalho analisa o impacto causado no desempenho de uma simulação distribuída quando técnicas de particionamento convencionais são empregadas. Essas técnicas não levam em conta informações inerentes ao estado da simulação. Pelo fato da execução de uma simulação também estar sujeita a sofrer interferências da plataforma, informações sobre a potência computacional de cada recurso utilizado e sobre o tipo de simulação, podem ser aplicadas em seu particionamento. Foram utilizadas informações estáticas, geradas através da avaliação da plataforma com benchmarks, e dinâmicas, obtidas através de índices de carga. Os resultados obtidos da utilização destas técnicas se mostram atrativos, principalmente quando o objetivo é a execução das simulações em ambientes que não disponibilizam políticas de escalonamento específicas e sim políticas convencionais. Nos estudos de casos avaliados, observaram-se ganhos satisfatórios, como a redução de até 24% do tempo de execução, um aumento de até 22% de eficiência e 79% menos rollbacks causados. Percebe-se que dependendo do tempo que se dispõe e dos objetivos pretendidos, as técnicas convencionais podem ser empregadas em simulações distribuídas. Este trabalho também contribui com o aperfeiçoamento das duas ferramentas utilizadas: WARPED e AMIGO. Uma interface de comunicação entre as duas ferramentas foi desenvolvida, ampliando assim seus campos de utilização. / This work analyses the impact caused on distributed simulation performance when conventional partitioning techniques are employed. These techniques do not take into account inherent information about the state of the simulation. Since a simulation execution is subject to platform interference, information about the type of simulations and about the computational power of resources may be applied to the partitioning process. Static performance information, generated from evaluating the platform with benchmarks has been employed, as well as dynamic load information provided by load indices. The results obtained with this approach are attractive, mainly when the objective is to execute simulations on environments which make conventional scheduling policies available, instead of specific policies. The evaluated case studies show satisfactory performance gains of up to 24% of reduction in execution time, 22% of improvement in efficiency and reduction of up to 79% in rollbacks. So, depending on the available time and the aimed objectives, it is worth using conventional techniques to assist distributed simulation partitioning. This work also contributes to the improvement of both tools used in it: Warped and AMIGO. A communication interface has been developed to integrate the tools, extending their capabilities.
130

Três estudos usando a Escala centiMax de Borg® (Escala CR de Borg®, CR 100, cM) para o escalonamento de sintomas depressivos / Three studies using The Borg centiMax Scale® (Borg CR Scale®, CR100, cM) for scaling depressive symptoms

Adsson Magalhães 17 July 2017 (has links)
Pensando nas milhoes de pessoas que sao afetadas mundialmente pelos transtornos depressivos (322 milhoes, sendo mais de 11 milhoes no Brasil e quase 450 mil na Suecia), tentamos criar um instrumento para avaliar depressao de forma mais eficaz. Em geral, os transtornos depressivos sao caracterizados por tristeza, perda de interesse/prazer, sentimentos de culpa ou baixa autoestima, disturbios no sono e apetite, sentimentos de cansaco, e baixa concentracao. Alem dos criterios diagnosticos, diversos instrumentos avaliam quadros depressivos. Utilizamos o Inventario de Depressao de Beck para validar a Escala CR100 de BorgR para o escalonamento de sintomas depressivos. As Escalas de Borg comecaram a ser desenvolvidas na decada de 60 para avaliacao do esforco percebido. A CR100 e uma escala de 0 a 100, com categorias verbais posicionadas de acordo com uma escala numerica gerando dados de razao. Esse tipo de escala tem diversas vantagens, como permitir a comparacao entre e dentre sujeitos e grupos, criacao de perfis de sintomas, analise de sintomas individualmente e a razao de intensidade entre eles. Essa tese consta de tres artigos usando a CR100. O Estudo I investigou as propriedades da CR100 comparada ao BDI. Cinquenta estudantes de Psicologia suecos responderam a um questionario online e os resultados mostraram uma alta correlacao entre as duas escalas (r = 0.754, p < 0.001), demonstrando que a Escala de BorgR avalia depressao tao bem quanto o BDI, entretanto fornece mais resultados. O perfil de sintomas gerado e muito mais detalhado do que o BDI, alem dos dados serem mais precisos e nao serem tao sensiveis as transformacoes matematicas. O Estudo II trata-se da validacao da CR100 para o portugues brasileiro e tal qual o Estudo I, da aplicacao em 50 estudantes brasileiros. Os resultados tambem apontam a alta correlacao entre as escalas (r = 0.824, p<0,001) com todas as caracteristicas se mantendo em ambas as nacionalidades A primeira analise de confiabilidade revelou um alto valor de alfa (entre 0.952 e 0.947) e R2 (entre 0.778 e 0.976), maiores que o BDI. O Estudo III teve como principal objetivo investigar propriedades psicometricas da CR100 em participantes depressivos (N=25) e - 10 - saudaveis (N=25), e encontrar pontos de corte para depressao leve, media e severa. A analise de confiabilidade da Escala revelou um indice alpha de 0.954 e por meio de uma reducao fatorial, os 32 itens foram agrupados em sete componentes. Tambem foi possivel construir um perfil de sintomas entre as duas populacoes corroborando a sensibilidade da CR100 em diferenciar populacao saudavel e com depressao em um intervalo de confianca de 95%. Um indice da razao entre pacientes e sujeitos saudaveis pode ser criado, gerando uma mini escala com oito itens, com um valor alpha de 0.80, e correlacao com a escala completa de r = 0.915 (p <0.001) e com o BDI de r = 0.820 (p<0,001). Os tres estudos revelaram resultados satisfatorios que vao ao encontro do que ja foi corroborado pelas pesquisas com as Escalas de BorgR. Demonstrou-se tambem ser possivel fazer o uso da CR100 para avaliar sintomas depressivos com mais informacoes e cujos dados sao mais precisos do que os instrumentos analisados / Thinking about the millions of people who are affected worldwide by depressive disorders (322 million, more than 11 million in Brazil and almost 450.000 in Sweden), we tried to create an instrument to assess depression more effectively. In general, depressive disorders are characterized by sadness, loss of interest/pleasure, feelings of guilt or low self-esteem, changes in sleep and appetite, tiredness, and low concentration. In addition to the diagnostic criteria, several instruments evaluate depressive disorders. We used the Beck Depression Inventory to validate the Borg CR100 ScaleR for scaling depressive symptoms. The Borg ScalesR were developed in the 60\'s for the evaluation of perceived exertion. The CR100 is a scale from 0 to 100, with verbal categories placed in agreement with the numerical scale so as to obtain ratio data. This type of scale has several advantages, such as allowing comparison between and within subjects and groups, creating symptoms profile, analyzing individual symptoms and the intensity ratio between them. This thesis consists of three papers using the CR100. Study #1 investigated the properties of CR100 compared to BDI. Fifty Swedish students of Psychology answered an online questionnaire and the results pointed a high correlation between the two scales (r = 0.754, p <0.001), demonstrating that the Borg Scale evaluates depression as well as the BDI, providing more results though. The symptom profile generated was much more detailed than the BDI, in addition, the data was more accurate and not that sensitive to mathematical transformations. Study #2 looked after the validation of CR100 for Brazilian Portuguese and, like #1, the application in 50 Brazilian students. The results also pointed to the high correlation between the scales (r = 0.824, p <0.001) with all characteristics preserved in both nationalities. The first reliability analysis revealed a high alpha value (between 0.952 and 0.947) and R2 (between 0.778 and 0.976), higher than the BDI. The aim of Study #3 was to investigate the psychometric properties of CR100 in depressive (N = 25) and healthy participants (N = 25), and to find cutoff points for light, medium and severe depression. The reliability analysis of the Scale revealed an alpha of 0.954 and by running a factorial reduction, - 12 - the 32 items were grouped into seven components. It was also possible to construct a profile of symptoms between the two populations verifying the sensitivity of CR100 to differentiate healthy from depressive population, in a 95% confidence interval. An index of the ratio between patients and healthy subjects could be created, generating a mini scale with eight items with an alpha value of 0.80 and correlation with the full scale of r = 0.915 (p <0.001) and with the BDI of r = 0.820 (p <0.001). The three studies have shown satisfactory results that match with what has already been demonstrated by researches with the Borg ScalesR. It has also been presented the possibility of using the CR100 to assess depressive symptoms with more information and which data are more accurate than the instruments analyzed

Page generated in 0.0498 seconds