• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 402
  • 129
  • 99
  • 44
  • 39
  • 28
  • 11
  • 10
  • 7
  • 6
  • 4
  • 4
  • 3
  • 3
  • 2
  • Tagged with
  • 962
  • 197
  • 126
  • 118
  • 89
  • 81
  • 77
  • 72
  • 69
  • 68
  • 62
  • 61
  • 60
  • 53
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
591

Estudo de Blindagem Óptica em Colisões Frias / Studies on Optical Shielding of Cold Collisions

Sérgio Ricardo Muniz 05 March 1998 (has links)
Neste trabalho, mostramos que é possível suprimir a maioria dos processos inelásticos que podem causar perdas de átomos em armadilhas magneto-ópticas. Nossos resultados revelam que o processo de blindagem óptica (demonstrado pelo nosso grupo, pela primeira vez para o processo de ionização fotoassociativa – Phys. Rev. Lett. 73, 1911 (1994)) é bem mais geral do que se supunha. Permitindo, inclusive, a supressão de colisões entre átomos no estado fundamental. E provavelmente qualquer outro processo inelástico que ocorra a curtas distâncias internucleares. Para se chegar a esses resultados, foi necessário desenvolver uma nova técnica de aprisionamento, que permite o estudo de colisões frias, mesmo em armadilhas cujo potencial de confinamento é pequeno. Graças a essa técnica foi possível, pela primeira vez, observar perdas causadas por mudança de estrutura hiperfina, numa armadilha de átomos de sódio operando na linha D1 (carregada a partir de uma célula de vapor). Essa técnica ainda nos permitiu medir a taxa de colisões frias () no trap da linha D1, um dado que até então não existia na literatura. Para verificar a confiabilidade dos resultados obtidos por essa técnica, realizamos também medidas de  na linha D2 e comparamos esses resultados com outros existentes na literatura (obtidos por uma técnica diferente). A boa concordância entre esses resultados nos deixa confiantes em dizer que essa técnica, além de ser muito interessante, no estudo de armadilhas rasas (seja isso devido à intensidade dos lasers de aprisionamento, seja devido a natureza própria da armadilha), é também bastante confiável / In this work, we showed that is possible to suppress most of the inelastic processes that may cause losses of atoms in a magneto-optical trap. Our results reveal that the process of optical shielding (demonstrated by our group, for the first time to photoassociative ionization - Phys. Rev. Lett. 73, 1911 (1994)) is much more general than it was supposed. Even allowing the suppression of ground state collisions and probably any other inelastic process that happens at short internuclear distances. To achieve those results, it was necessary to develop a new trapping technique, which allows the study of cold collisions, even in traps whose confinement potential is small. Thanks to that technique it was possible, for the first time, to observe losses caused by hyperfine changing collisions, in a trap of sodium atoms operating in the D1 line (loaded from a vapor cell). That technique has still allowed us to measure the rate of cold collisions () for the D1 line trap, a result which, until now, did not exist in the literature. To verify the reliability of the results obtained by that technique, we also accomplished measures of  in the D2 line and compared those results with other existent ones in the literature (obtained by a different technique). The good agreement among those results, made us confident in saying that this technique, besides being very interesting in the study of shallow traps (due to the intensity of the trapping lasers, or due to the own nature of the trap), it is also quite reliable.
592

Aplicação de Redes Bayesianas na análise da contribuição do erro humano em acidentes de colisão. / Application of Bayesian Networks in the human error contribution analysis of collision accidents.

Marcos Coelho Maturana 04 February 2010 (has links)
Recentemente, na indústria naval, a normatização por sociedades classificadoras e pela IMO (International Maritime Organization) tem apresentado uma mudança paulatina, migrando dos procedimentos prescritivos para uma estrutura regulatória baseada em risco. Tal perspectiva oferece algumas vantagens para operadores e armadores (empresas que exploram comercialmente as embarcações): 1) maior capacidade de incorporar projetos inovadores, tecnicamente superiores, a custos aceitáveis; 2) maior confiança quanto à segurança; 3) melhor entendimento de eventos de periculosidade, dos riscos enfrentados em novos projetos e de medidas de mitigação. Especificamente no setor petrolífero, a análise, a avaliação e o gerenciamento de risco são vitais, em face da potencial gravidade dos acidentes no que diz respeito à vida humana, ao meio-ambiente e ao patrimônio. Dado que a maior parte dos acidentes nesta área são motivados por fatores humanos, o propósito deste trabalho é apresentar uma metodologia e técnicas eficientes de análise de confiabilidade humana aplicáveis a esta indústria. Durante as últimas décadas, se desenvolveram várias técnicas para o estudo quantitativo da confiabilidade humana. Na década de oitenta foram desenvolvidas técnicas que modelam o sistema por meio de árvores binárias, não permitindo a representação do contexto em que as ações humanas ocorrem. Desta forma, a representação dos indivíduos, suas inter-relações e a dinâmica do sistema não podem ser bem trabalhadas pela aplicação destas técnicas. Estas questões tornaram latente a necessidade de aprimoramento dos métodos utilizados para a HRA (Human Reliability Analysis). No intuito de extinguir, ou ao menos atenuar, estas limitações alguns autores vêm propondo a modelagem do sistema por meio de Redes Bayesianas. Espera-se que a aplicação desta ferramenta consiga suprimir boa parte das deficiências na modelagem da ação humana com o uso de árvores binárias. Este trabalho apresenta uma breve descrição da aplicação de Redes Bayesianas na HRA. Além disto, apresenta a aplicação desta técnica no estudo da operação de um navio petroleiro, tendo como foco a quantificação da contribuição do fator humano em cenários de colisão. Por fim, são feitas considerações a respeito dos fatores que podem influenciar no desempenho humano e no risco de colisão. / Recently, in the naval industry, the normalization of classification societies and IMO (International Maritime Organization) has presented a gradual change, going from prescriptive procedures to a regulatory structure based on risk. That perspective offers some advantages to operators and constructors: 1) greater capacity to incorporate innovations in design, technically superiors, at acceptable cost; 2) greater confidence as to security; 3) better understanding of hazardous events, the risks faced by new projects and measures of mitigation. Specifically in the oil sector, the analyze, evaluation, and management of risk are vital, in face of the accidents severity potential in respect to human life, environment and property. Given that the greater part of the accidents on this sector is caused by human factors, the purpose of this dissertation is present a methodology and efficient techniques to HRA (Human Reliability Analysis) that can be applied in this industry. During the last decades many techniques were developed to a quantitative study of the human reliability. In the eighties were developed some techniques based in the modeling by means of binaries trees. These techniques do not consider the representation of the context in which the human actions occur. Thus, the representation of individuals, their inter-relationships and dynamics of the system cannot be better worked by the application of these techniques. These issues became the improvement of the used methods for HRA a latent need. With the aim of extinguish, or attenuate at least, these weaknesses some authors proposed the modeling of the human system by means of Bayesians Network. It is expected that with the application of this tool can be suppressed great part of the deficiencies of the human action modeling by means of binaries trees. This work presents a brief description about the application of Bayesians Network in HRA. Additionally, is presented the application of this technique in the study of an oil tanker operation, focusing in the human factor quantification in scenarios of collision. Besides, are presented some considerations about the factors that can influence the human performance and the collision risk.
593

Estudo da evolução estelar através de aglomerados globulares galáticos

Campos, Fabíola January 2013 (has links)
Nós apresentamos ajustes multicromáticos de isócronas ao diagrama cor-magnitude do aglomerado globular NGC 6366, baseados em dados fotométricos que obtivemos com o Southern Astrophysical Research (SOAR) Telescope e de arquivos do Hubble Space Telescope (HST) ACS/WFC. Nós corrigimos os dados por avermelhamento diferencial e calculamos a linha de tendência média dos diagramas cor-magnitude. Nós comparamos os dados com modelos de isócronas estelares de Dartmouth Stellar Evolution Database e PAdova and TRieste Stellar Evolution Code, ambos com a difusão microscópica começando na sequência principal. Considerando todas as determinações prévias de metalicidade desse aglomerado, nós testamos de metalicidades [Fe 111]=-1.00 até [Fe 111]=-0.50, e idades de 9 a 13 Ganos. Depois de determinar a extinção total para seletiva somente com estrelas pertencentes ao aglomerado, Rv=3.06 + 0.14, nós encontramos os parâmetros para esse aglomerado com sendo avermelhamento E (13 — V)= 0.69 ± 0.02(int) +0.04(ext), módulo de distância (m — M)v= 15.02 ± 0.07(int) ±0.13(ext), Idade= 11 ± 1.15 Ganos. Os modelos evolucionários falham em reproduzir a sequência de baixa Tef em diagramas cor-magnitude de multi-bandas, indicando que eles ainda tem uma descrição incompleta. Nós encontramos que as isócronas de Dartmouth Stellar Evolution Database ajustam melhor o ramo das sub gigantes e baixa sequência principal do que as isócronas de PAdova and TRieste Stellar Evolution Code. O uso de anãs brancas de aglomerados globulares em vez de anãs brancas do campo no estudo da formação, propriedades físicas e evolução estelar é justificado por vários fatores. Dentre eles o fato de que as anãs brancas mais frias de aglomerados globulares velhos são remanescentes das estrelas mais velhas que se formaram durante a formação do halo, ou seja, trazem informação da época em que a Galáxia estava se formando. Utilizamos as tabelas fotométricas de dados obtidos com o HST/ACS por Richer et al. (2008) e Bedin et al. (2009) dos aglomerados globulares NGC 6397 e M 4, respectivamente, que alcançam a volta para o azul da sequência de esfriamento das anãs brancas. Com a análise da sequência de esfriamento desses aglomerados, demonstramos que a cristalização de anãs brancas acontece através da liberação de calor latente. Demonstramos também, pela primeira vez, o problema dos modelos de sequência de esfriamento de anãs brancas na volta para o azul e propormos que uma possível solução é, além de considerar o efeito da absorção induzida por colisão, é também necessário considerar que na atmosfera de anãs brancas mais frias de aglomerados globulares há uma mistura de H e He, em vez de uma atmosfera de II puro. / We present multichromatic isochrone fits to the colour-magnitude data of the globular cluster NGC 6366, based on photometric data obtained with Southern Astrophysical Research (SOAR) Telescope and archive data from Hubble Space Telescope (HST) ACS/WFC. We corrected the photometric data for differential reddening and calculated the mean ridge fine of the colour magnitude diagrams. We compared the isochrones of Dartmouth Stellar Evolution Database and PAdova and TRieste Stellar Evolution Code, both with microscopic diffusion starting on the main sequence. Bracketing all previous determinations of this cluster, we tested metallicities from [FelH]=- 1.00 to [Fe/H]=-0.50, and ages from 9 to 13 Gyrs. After determining the total to selective extinction ratio only from stars belonging to this cluster, obtaining Rv=3.06 + 0.14, we found the parameters for this cluster to be reddening E(B — V)=0.69 ± 0.02(int) ±0.04(ext), distance modulus (m — M)v= 15.02 ± 0.07(int) ±0.13(ext), Age= 11 ± 1.15 Gyr. Evolutionary models fail to reproduce the low-T eff main sequence in multi-band colour magnitude diagrams, indicating that they still have an incomplete physical description. We found that the Dartmouth Stellar Evolution Database isochrones fit better the sub giant branch and low main sequence than the PAdova and TRieste Stellar Evolution Code. The use of white dwarf stars from globular clusters instead of field white dwarf stars in the study of formation, physical properties and stellar evolution is justified by several factors. Among them is the fact that the coolest white dwarf stars in old globular clusters are remnants of the oldest stars that formed during the formation of the Galactic halo, i. e., bring us information about the time that the Galaxy was still forming. We use the photometric data obtained with the HST/ACS by Richer et al. (2008) and Bedin et al. (2009) of the globular clusters NGC 6397 and M 4, respectively, that reach the blue turn of the white dwarf cooling sequence.With the analysis of the cooling sequence of these clusters, we demonstrated that the crystallization of white dwarfs occurs with the release of latent heat. Also, we demonstrate, for the first time, the problem of the blue turn in the white dwarf cooling sequence and propose that a possible solution is, in addition to considering the effect of collision-induced absorption, it is necessary to consider that the atmosphere of cooler white dwarf stars is composed by a mixture of H and He, rather than an atmosphere of pure H.
594

O livre exercício da atividade econômica, proteção do meio ambiente e instrumentos da política nacional

Montipó, Cristina Dias 25 March 2013 (has links)
Esta pesquisa tem por objeto o conflito existente entre o exercício da atividade econômica e a proteção do ambiente, emergindo o questionamento de como conciliar tais valores em busca da melhoria da qualidade de vida das pessoas. Tem-se como objetivo geral analisar a tensão entre a atividade econômica, fundada na livre iniciativa, e o direito ao meio ambiente ecologicamente equilibrado, buscando adotar uma concepção integrada dos artigos 170 e 225 da Constituição Federal brasileira em prol do desenvolvimento sustentável. Para tanto, utilizam-se a análise e a interpretação como instrumentos específicos do saber jurídico, do material existente nas fontes do direito, na literatura especializada e também em acórdãos relevantes do Poder Judiciário, em especial do Supremo Tribunal Federal. A exposição estrutura-se em três capítulos e parte do estudo da ordem econômica para, em seguida, tratar da colisão entre valores constitucionalmente tutelados como a proteção do meio ambiente e a saúde pública versus livre iniciativa e desenvolvimento econômico. Assim, a ponderação de valores é exigida no caso concreto, cabendo ao Poder Judiciário resolver conflitos de interesses trazidos a sua apreciação. Após, o exame recai sobre a política ambiental o que permitiu identificar os instrumentos de compatibilização do desenvolvimento econômicosocial com a preservação ambiental, destacando-se de modo especial o estudo de impacto ambiental e o relatório de impacto sobre o meio ambiente (EIA/RIMA), bem como o procedimento administrativo de licenciamento ambiental. A partir da análise conjunta das normas da ordem econômica e do meio ambiente, pôde-se verificar que ambos os ramos são amparados pela mesma base principiológica e estão ligados pelos mesmos objetivos, uma vez que se preocupam com a qualidade de vida e bem-estar das pessoas, buscando assegurar a todos uma existência digna e a realização da justiça social. Constatou-se, como principal resultado, que os direitos fundamentais, previstos respectivamente nos artigos 170 e 225 da Constituição Federal, evidenciam a garantia do princípio da dignidade humana, motivo pelo qual a livre iniciativa e o direito ao meio ambiente devem coexistir. / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The objective of this research is the existing conflict between the exercise of economic activity and environment protection, emerging from the questioning of how to reconcile such values in the search for an improvement in people’s lives. The general objective is to analyse the tension between economic activity, grounded in free initiative, and the right for an ecologically balanced environment, aiming at adopting an integrated conception of articles 170 and 225 of the Brazilian Federal Constitution towards sustainable development. Thus, analysis and interpretation are used as specific tools for juridical knowledge, of pertinent material in the sources of law, in specialized literature and also in relevant judgments by the judiciary, especially in the Supreme Federal Court. The exposition and section of the study of economical order are structured in three chapters, followed by the collision between values constitutionally safeguarded, such as environment protection and public health versus free initiative and economic development. Thus, consideration of the values is demanded in concrete cases, with the Judicial Power responsible for settling conflicts and interests brought about. Afterwards, the test falls on environment policies, which allows for identifying compatibilization tools of social-economic development with environment preservation, highlighting the study of environmental impact and the impact report on the environment (EIA/RIMA), as well as administrative procedures of environmental licenses. From the combined analysis of economic rules and the environment, it was possible to observe that both segments are supported by the same principal basis and are linked to the same objectives, since they are concerned with the quality of life and well-being of the individual, aimed at assuring all of a worthy life and social justice fulfilment. It could be observed that, as a main result, the fundamental rights, provided in articles 170 and 225 of the Federal Constitution, evidence the guarantee of the principals of human dignity, reason which free initiative and the right for the environment should co-exist.
595

Coerência, ponderação de princípios e vinculação à lei: métodos e modelos / Coherence, weighing and balancing and law binding: methods and models

Juliana Sipoli Col 30 November 2012 (has links)
O objeto da discussão é a racionalidade das decisões judiciais em casos em que se constata conflito de princípios ou entre princípios e regras, casos esses considerados difíceis, uma vez que não há no ordenamento jurídico solução predeterminada que permita mera subsunção dos fatos à norma. São examinados métodos alternativos ao de subsunção. O primeiro é o método da ponderação, difundido principalmente por Robert Alexy, com suas variantes. Entretanto, o problema que surge com a aplicação do método da ponderação é da imponderabilidade entre ponderação e vinculação à lei, ou seja, a escolha dos pesos dos princípios e sua potencial desvinculação da lei. O segundo modelo, chamado de coerentista, busca conferir alguma racionalidade e fornecer critérios que poderiam explicar escolhas entre valores conflitantes subjacentes à legislação e mesmo aos pesos do método de ponderação. Dentro do modelo coerentista, examina-se em particular a versão inferencial que explora a coerência entre regras e princípios pela inferência abdutiva dos princípios a partir das regras. A aplicação dos diferentes modelos é feita em duas decisões prolatadas pelo Supremo Tribunal Federal em casos de conflito de princípio, casos Ellwanger e de aborto de anencéfalos. O que não permite generalização, mas oferece ilustrações específicas das virtudes e vícios desses modelos de decisão. / The subject of this study is rationality of judgments when there is collision of principles or conflict between principles and rules, which are hard cases, since there is no predetermined solution in legal system that allows only subsuming facts to the norm. Alternative methods are then examined. The first is the method of weighting and balancing proposed mainly by Robert Alexy, in spite of its variants. However, the difficulty to apply such method is theweightlessness between weighing and law binding, that is, the choice of weight of principles and its untying to the Law. The second model, called coherence model, intends to reach any rationality and provide criteria that could explain choices between conflicting values underlying Law and also the ascription of weights of the weighing and balancing method. In coherence model, it is studied especially its inferential version that explores coherence between rules and principles through abduction of principles from rules. These methods are tested in two decisions by Brazilian Supreme Court in cases of collision of principle, in Ellwanger and anencephalic abortion cases. That does not allow a general approach, but only specific outlines of the virtues and defects of these models of decision.
596

Estudo da energia transversal em colisões Au+Au para energias entre 7.7 e 200 GeV / Transverse energy study for Au+Au collisions at energies from 7.7 to 200 GeV

Renato Aparecido Negrão de Oliveira 12 November 2014 (has links)
O objetivo de investigar colisões de íons pesados no regime relativístico é de estudar os quarks e glúons em condições extremas de pressão, densidade e temperatura, reproduzindo as condições da matéria nos instantes iniciais da formação do universo. Nesse trabalho, a energia transversal ET foi investigada para colisões Au+Au no experimento STAR no RHIC a energias de feixe no intervalo de 7.7 à 200 GeV. A dependência do ET normalizado pelo número de participantes em função da centralidade e energia de colisão foi medida, bem como a dependência do ET dividido pela densidade de partículas carregadas em função da energia de colisão para colisões centrais. Os resultados desse estudo indicam que para energias menores do que 7.7 GeV, a energia transversal média por unidade de carga produzida varia significativamente com o aumento da energia de colisão, atingindo o limite de saturação para o intervalo de energias maiores do que 7.7 GeV, onde essa razão passa a ser praticamente constante em função da energia de colisão. Por fim, a componente eletromagnética da energia transversal também foi medida, e os resultados indicam que para as energias mais baixas o estado final é dominado por bárions, ao passo que para altas energias o mesmo é dominado por mésons. / The goal of relativistic heavy-ion collisions is to study the behavior of quarks and gluons under extreme conditions of pressure, density and temperature, such as those expected to have existed in the the beginning of the universe. In this work, the transverse energy ET was investigated for Au+Au collisions measured with the STAR experiment at RHIC with beam energies from 7.7 to 200 GeV. The centrality and collision energy dependence of ET per number of participants was measured, as well as the energy dependence for the ET per charged particles in central collisions. The results indicate that for collision energies less than 7.7 GeV the average transverse energy per unit charge varies significantly with increasing collision energy, reaching the saturation limit for energies higher than 7.7 GeV, where this ratio becomes almost constant. The electromagnetic fraction of the total ET was estimated, and the results are in agreement with a final state dominated by baryons, for lower energies, and a meson dominated state for higher energies.
597

Projeto, prototipo e ensaio de um novo conceito de para-choque traseiro de caminhão / Design, prototype and crash test of a new concept of rear underride barrier

Occhipinti, Sidney 22 January 1999 (has links)
Orientador: Antonio Celso Fonseca de Arruda / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-07-25T02:09:03Z (GMT). No. of bitstreams: 1 Occhipinti_Sidney_M.pdf: 8988528 bytes, checksum: e17897bc9750a7e5e1ed1f1db7521660 (MD5) Previous issue date: 1999 / Resumo: Geralmente ao ocorrer acidente entre automóvel e a traseira de caminhão,os danos são bem severos para os ocupantes do automóvel e na maioria dos casos, este só pára ao atingir o eixo do caminhão. Isto ocorre, porque os pára-choques de caminhões são mal posicionados, frágeis, fixados excessivamente altos e muito embutidos na carroçaria. Ocorrem neste caso, dois efeitos: o cunha (em que o automóvel penetra sob a traseira do caminhão impulsionando-o para cima); e o guilhotina (a carroçaria do caminhão destrói o pára-brisa, as colunas do teto e decapta os ocupantes). Pára-choque traseiro de caminhão é equipamento de segurança veicular passiva, para parar o veículo que se choca contra ele, na realidade porém, diverge deste pressuposto teórico. Infelizmentetanto no Brasil, como em outros países, eles não apresentam performance satisfatória. Preocupado com o problema, o Engº Luis O. F. Schmutzler idealizou o pára-choque alicate equipado com rede de cabos de aço para absorção de energia. Este trabalho enfoca a análise e o estudo das solicitações mecânicas abordando os esforços envolvidos no impacto; projeto do párachoque; construção, instalação, execução de teste de impacto e análise dos resultados. O teste foi realizado na velocidade de 64 km/h, chocando 50% da região dianteira do carro, com resultados excelentes: baixo risco de lesão corporal e preservação total da integridade da cabina do auto / Abstract: Generally a collision of a car with the rear end of a truck results in serious injuries to the car occupants. Underride occurs because the barriers of trucks present some problems.: They are relatively high, their installation are toa inside off rear end of the truck structure, and they are ftagile. AlI these conditions allow the car underride to be stopped at the rear axle and tires. Two failing effects occurs: the wedge (the car go through the rear end pulling up the truck); and the guillotine (the rear end of the truck shear the ftont car columns, destroying windshield, roof and unfortunately decapitating car's occupants). Truck rear underride guard is a passive vehicular security equipment design to stop ungovemed cars. Unfortunately actual rear truck barriers in Brazil and others countries do not provide a satisfactory performance. Conceptual pliers underride guard equipped with a steel cable net was proposed by engineer LUIS O. F. SCHMUTZLER to absorb great part ofthe impact energy. This is the analysis, ofthe mechanical efforts and study in case of a rear collision with: impact efforts consideration; a steel cable net energy absorber design; barrier construction, installation, crash test and results analysis.The crash test was accomplished at 64km/h and 50% offset at the driver side's car with excellent results, presenting low injuries risks to the car's passengers and the cab integrity was totally preserved. / Mestrado / Materiais e Processos de Fabricação / Mestre em Engenharia Mecânica
598

Outils multirésolutions pour la gestion des interactions en simulation temps réel / A multiresolution framework for real-time simulation interactions

Pitiot, Thomas 17 December 2015 (has links)
La plupart des simulations interactives ont besoin d'un modèle de détection de collisions. Cette détection nécessite d'une part d'effectuer des requêtes de proximité entre les entités concernées et d'autre part de calculer un comportement à appliquer. Afin d'effectuer ces requêtes, les entités présentes dans une scène sont soit hiérarchisées dans un arbre ou dans un graphe de proximité, soit plongées dans une grille d'enregistrement. Nous présentons un nouveau modèle de détection de collisions s'appuyant sur deux piliers : une représentation de l'environnement par des cartes combinatoires multirésolutions et un suivi en temps réel de particules plongées dans ces cartes. Ce modèle nous permet de représenter des environnements complexes tout en suivant en temps réel les entités évoluant dans cet environnement. Nous présentons des outils d'enregistrement et de maintien de l'enregistrement de particules, d'arêtes et de surfaces dans des cartes combinatoires volumiques multirésolutions. / Most interactive simulations need a collision detection system. First, this system requires the querying of the proximity between the objects and then the computing of the behaviour to be applied. In order to perform these queries, the objects present in a scene are either classified in a tree, in a proximity graph, or embedded inside a registration grid.Our work present a new collision detection model based on two main concepts: representing the environment with a combinatorial multiresolution map, and tracking in real-time particles embedded inside this map. This model allows us to simulate complex environments while following in real-time the entities that are evolving within it.We present our framework used to register and update the registration of particles, edges and surfaces in volumetric combinatorial multiresolution maps. Results have been validated first in 2D with a crowd simulation application and then in 3D, in the medical field, with a percutaneous surgery simulation.
599

Snowmobile, motorcycle and moose-car accidents : aspects on injury control

Björnstig, Ulf January 1985 (has links)
Injuries related to snowmobiles, motorcycles and moose-car collisions have increased. The aim of the present thesis was to analyse mechanisms and consequences in fatal and non-fatal accidents of these types, and to penetrate possible preventive measures. Snowmobiles The median age of the injured was 30 and of the killed 32, males pre­dominating. A majority of the accidents occurred during weekends, and especially the fatal accidents occurred after dark. The extremities were the most commonly injured parts of the body, however, drowning, crushed chest and cranial injuries caused most of the fatalities. Among the fatalities, four out of five were under the influence of alcohol. The present Swedish laws regarding snowmobiles seem well motivated. "Built-in" safety measures in the construction of the snowmobiles, pro­perly designed snowmobile tracks and functional search and rescue sys­tems could reduce the injuries. Motorcycles The median age was 19 years for both the traffic injured and the kil­led. Half of the traffic accidents were collisions with other motor ve­hicles. In the fatally injured group, also collisions with fixed road­side objects were common. Of the fatally injured, more than every fifth person died in an accident where alcohol was an influential factor. In the injured group, lower extremity injuries (especially in off-road riding) were common and among the fatalities most riders died from injuries to the head or chest. Out of one thousand motorcycle riders interviewed, 45% reported wobbling experiences (8% reported severe wobbling). Possible injury reducing measures include increasing the licensing age, more discriminating driving test, "built-in" restriction of the motorcycle's top speed, elimination of motorcycles prone to wobbling, and a more intensive traffic supervision (speeding, alco­hol). Moose-car collisitions The median age of the drivers was 38 years. Most collisions happened at dusk or when dark (3/4). The median collision speed was 70 km/h. The damage to the car was typical, the roof and the windshield pillars were deformed downwards and backwards. The broken windshield was often pressed into the passenger compartment. Most of the injured car occu­pants suffered cuts predominantly to the head and upper extremities. Nearly all the fatally injured died of head and neck injuries. The injuries may be reduced by strengthening the roof and the windshield pillars, and by introducing anti 1 acerati ve windshields. / <p>Diss. (sammanfattning) Umeå : Umeå universitet, 1985</p> / digitalisering@umu
600

Microscopic crowd simulation : evaluation and development of algorithms / Simulation microscopique de foules : évaluation et développement d'algorithmes

Wolinski, David 22 January 2016 (has links)
Dû au grand intérêt porté à la simulation de foules, beaucoup d'algorithmes ont été et sont encore proposés. Toutefois, (1) il n'existe pas de méthode standard pour évaluer le réalisme et la flexibilité de ces algorithmes, et (2) même les algorithmes les plus récents produisent encore des artéfacts évidents. Abordant la première question, nous proposons une méthode visant à évaluer le réalisme des algorithmes de simulation de foules d'une manière objective et impartiale. ''Objective'' grâce à des métriques quantifiant la similitude entre les simulations et des données acquises en situation réelle. ''Impartiale'' grâce à l'estimation de paramètres permettant d'étalonner automatiquement les algorithmes en vue de décrire au mieux les données (par rapport aux métriques), permettant de comparer les algorithmes au mieux de leur capacité. Nous explorons aussi comment ce processus permet d'augmenter le niveau de contrôle d'un utilisateur sur la simulation tout en réduisant son implication. Abordant la deuxième question, nous proposons un nouvel algorithme d'évitement de collisions. Alors que les algorithmes existants prédisent les collisions en extrapolant linéairement les trajectoires des agents, nous allons au-delà grâce à une approche probabiliste et non-linéaire, prenant en compte entre autres la configuration de l'environnement, les trajectoires passées et les interactions avec les obstacles. Nous éliminons ainsi des simulations résultantes des artefacts tels que : les ralentissements et les agglomérats dérangeants d'agents, les mouvements oscillatoires non naturels, ou encore les manœuvres d'évitement exagérées/fausses/de dernière minute. Dans une troisième contribution, nous abordons aussi l'utilisation de notre travail sur l'évaluation et l'estimation de paramètres dans le cadre de systèmes plus larges. Dans un premier temps, nous l'appliquons à la simulation d'insectes, prenant en charge leur comportement local. Après avoir complété le système aux niveaux intermédiaire et global, cette approche basée-données est capable de simuler correctement des essaims d'insectes. Dans un second temps, nous appliquons notre travail au suivi de piétons, construisant un ''méta-algorithme'' servant à calculer la probabilité de transition d'un filtre particulaire, et surpassant les systèmes existants. / With the considerable attention crowd simulation has received, many algorithms have been and are being proposed. Yet, (1) there exists no standard scheme to evaluate the accuracy and flexibility of these algorithms, and (2) even the most recent algorithms produce noticeable simulation artifacts. Addressing the first issue, we propose a framework aiming to provide an objective and fair evaluation of the realism of crowd simulation algorithms. ''Objective'' here means the use of various metrics quantifying the similarity between simulations and ground-truth data acquired with real pedestrians. ''Fair'' here means the use of parameter estimation to automatically tune the tested algorithms to match the ground-truth data as closely as possible (with respect to the metrics), effectively allowing to compare algorithms at the best of their capability. We also explore how this process can increase a user's control on the simulation while reducing the amount of necessary intervention. Addressing the second issue, we propose a new collision-avoidance algorithm. Where current algorithms predict collisions by linearly extrapolating agents' trajectories, we better predict agents' future motions in a probabilistic, non-linear way, taking into account environment layout, agent's past trajectories and interactions with other obstacles among other cues. Resulting simulations do away with common artifacts such as: slowdowns and visually erroneous agent agglutinations, unnatural oscillation motions, or exaggerated/last-minute/false-positive avoidance manoeuvres. In a third contribution, we also explore how evaluation and parameter estimation can be used as part of wider systems. First, we apply it to insect simulation, taking care of local insect behavior. After completing it at the intermediate and global levels, the resulting data-driven system is able to correctly simulate insect swarms. Second, we apply our work to pedestrian tracking, constructing a ''meta-algorithm'', more accurately computing motion priors for a particle-filter-based tracker, outperforming existing systems.

Page generated in 0.1001 seconds