• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 95
  • 28
  • 27
  • 22
  • 13
  • 10
  • 9
  • 5
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 251
  • 52
  • 45
  • 42
  • 34
  • 26
  • 26
  • 24
  • 24
  • 23
  • 22
  • 21
  • 21
  • 21
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Compensation du mouvement respiratoire dans les images TEP/TDM thoraciques / Respiratory motion compensation in thoracic PET/CT images

Ouksili, Zehor 26 May 2010 (has links)
Cette thèse traite du mouvement respiratoire dans l'imagerie TEP/TDM. L'imagerie TEP est une modalité à exposition longue très influencée par les mouvements involontaires du patient. Ces mouvements produisent des artéfacts dont les conséquences sont sérieuses pour le diagnostic car les tumeurs paraissent plus larges et moins actives. Cette thèse contribue à la résolution de ce problème. En plus de proposer l'architecture d'un système d'acquisition TEP/TDM synchronisée à la respiration, on y développe trois méthodes de traitement de signal et d'images qui peuvent être appliquées pour résoudre différents sous-problèmes: Une méthode originale de segmentation et caractérisation du signal respiratoire pour découvrir les patterns respiratoires "normaux" du patient, une méthode de reconstruction TDM-4D qui permet d'obtenir des images anatomiques du corps à chaque niveau respiratoire désiré et un algorithme itératif amélioré pour reconstruire des images TEP-4D compensées en mouvement respiratoire. Toutes ces méthodes et algorithmes ont été validés et testés sur des données simulées, des données de fantômes, et des données réelles de patients. / This thesis deals with respiratory motion in PET/CT images. It is well known that PET is a modality that requires a long exposure time. During this time, patients moves and breath. These motions produce undesirable artefacts that alter seriously the images and their precision. This has important consequences when diagnosing thoracic, and particularly pulmonary, cancer. Tumours appear larger than they really are and their activity is weaker. This thesis proposes to contribute to solving these problems.We propose the architecture of an integrated PET/CT acquisition system synchronized to respiration. We also develop signal and image processing methods that can be applied to eliminating respiratory artefacts in CT and PET images. The thesis brings three main contributions : An original respiratory signal segmentation and characterization to detect "normal" respiratory patterns, a 4D-CT reconstruction method that creates 3D images of the whole body for any respiratory level and an enhanced iterative algorithm for reconstructing 4D-PET images without respiratory artefacts. The developed methods have validated and tested on simulated, phantom and real patients' data.
52

Detecção de movimentos não usuais no espaço_fase / Detection of unusual motion in space-phase

Hennemann, Luciano 22 February 2008 (has links)
Made available in DSpace on 2015-03-05T13:59:44Z (GMT). No. of bitstreams: 0 Previous issue date: 22 / Nenhuma / Este trabalho tem como finalidade apresentar um modelo para detecção de comportamentos não usuais baseados em trajetórias. O modelo segue uma linha de pesquisa bastante atual na área de câmeras inteligentes ou vigilância electrônica que tende a concorrer com a enorme variedade de dispositivos baseadas em hardware hoje disponíveis no mercado. O fundamento está no processamento das trajetórias de pedestres ou objetos adquiridas por meio de filmagens feitas de ambientes com tráfego. O modelo é fundamentado em um período de treinamento, onde irá aprender o perfil das trajetórias selecionando, agrupando e posteriormente, guardando-as em um banco de dados. Depois irá compará-las com trajetórias novas que vão sendo adquiridas continuamente no período de teste ou operação propriamentte dito. No período de teste, uma trajetória será classificada com usual se compatível com as trajetórias adquiridas durante o treinamento, ou não usual, caso contrário. Neste trabalho, portanto, serão apresentados algoritmos que detectam / This work aims to present a model for detection of unusual motion based on trajectories. This model relates to the research field on intelligent cameras and surveillance systems, that tends to compete nowadays with the enormous range of devices based in hardware available on the market. The main idea of the proposed approach is to analyze trajectories acquired from film scenes. The first step of the algorithm consists of a training period, that learns the profile of trajectories, selecting, grouping and later, keeping them in a database. After that, the algorithm compares new trajectories that are being acquired continously in the test period. In test period, one given trajectory will be classified as usual if it is compatible with the trajectories acquired during the training period, or unusual otherwise. This work, therefore, will present algorithms that detect patterns of similarity between a set of trajectories in the training period with each new trajectory acquired in the test period
53

Assimilation variationnelle de données altimétriques dans le modèle océanique NEMO : exploration de l'effet des non-linéarités dans une configuration simplifiée à haute résolution / Variational altimetric data assimilation in the oceanographic numerical model NEMO : investigation of the impact of nonlinearities in an academic configuration at high resolution

Bouttier, Pierre-Antoine 04 February 2014 (has links)
Un enjeu majeur des modèles océaniques est de représenter fidèlement les circulations méso- et subméso-échelles afin de simuler leur importante contribution dans la circulation générale et dans le budget énergétique de l'océan. La poursuite de cet objectif se traduit par une augmentation de la résolution spatiale et temporelle à la fois des modèles et des réseaux d'observation de l'océan. Cependant, à ces petites échelles, la dynamique de l'écoulement revêt un caractère fortement turbulent ou non-linéaire. Dans ce contexte, les méthodes actuelles d'assimilation de données (AD), variationnelles en particulier, sont généralement moins performantes que dans un contexte (quasi-) linéaire.L'objectif de cette thèse est d'explorer sous divers aspects le comportement des méthodes variationnelles d'AD dans un modèle d'océan non-linéaire. Pour ce faire, nous avons réalisé une série d'expériences dites "jumelles" en assimilant des données altimétriques simulées suivant les caractéristiques des satellites altimétriques Jason-1 et SARAL/AltiKA . À l'aide de ces expériences, nous analysons sous différents angles les problématiques posées par les non-linéarités à l'AD. Enfin, nous ouvrons plusieurs pistes d'amélioration de l'efficacité du système d'AD dans ce contexte.Ce travail est basé sur le logiciel de modélisation océanique NEMO, incluant la configuration de bassin océanique turbulent idéalisé SEABASS, à différentes résolutions spatiales. Dans la continuité de la plateforme de recherche en AD avec NEMO, NEMO-ASSIM, nous avons utilisé et contribué au développement de cet ensemble d'outil, comprenant, entre autre, opérateur d'observation, modèles linéaire tangent et adjoint de NEMO, permettant de mener à bien notre étude. Le système d'AD variationnelle utilisé est le logiciel NEMOVAR.Les résultats présentés tentent de lier les échelles caractéristiques des structures d'erreurs d'analyse et l'activité aux petites échelles. Pour ce faire, nous avons utilisé une large gamme de diagnostics, e.g. erreur quadratique moyenne spatiale et temporelle, caractéristiques des fonctions coûts, caractérisation de l'hypothèse linéaire tangente, PSD des champs d'erreurs d'analyse.Nos expériences montrent que le 4DVAR incrémental contrôle efficacement la trajectoire analysée au 1/4° pour de longues fenêtres d'AD (2 mois). Lorsque la résolution augmente, la convergence de l'algorithme apparaît plus lente voire inexistante sous certaines conditions. Cependant, l'algorithme permet encore de réduire convenablement l'erreur d'analyse. Enfin, l'algorithme 3DFGAT se révèle beaucoup moins performant, quelle que soit la résolution.De plus, nous montrons également l'importance de l'adéquation entre la circulation simulée et l'échantillonnage altimétrique, en terme d'échelles spatiales représentées, pour obtenir de meilleures performances. Enfin, nous avons exploré la stratégie de minimisation dite "progressive", permettant d'accélérer la convergence du 4DVAR à haute résolution. / A current stake for numerical ocean models is to adequately represent meso- and small-scale activity, in order to simulate its crucial role in the general ocean circulation and energy budget. It is therefore also a challenge for data assimilation (DA) methods to control these scales. However this small-scale activity is strongly linked to the nonlinear or turbulent character of the flow, whereas DA methods are generally much less efficient in such contexts than in (almost) linear ones. For variational DA methods as incremental 4DVAR, non-linearities imply convergence difficulty, the cost functions to be minimised presenting multiple local minima.The purpose of this thesis is to address this problem specifically, by exploring the behaviour of variational DA methods in a non-linear ocean model. To achieve this objective, a series of "twin" experiments assimilating simulated altimeter data, following the characteristics of altimetric satellite Jason-1 and SARAL/AltiKA, are analyzed. We also find different ways to improve efficiency of variational algorithms applied to turbulent circulations.This work is based on oceanic modelisation software called NEMO, including a idealized turbulent oceanic basin configuration, SEABASS, and DA components (e.g. Observation operator, Linear Tangent and Adjoint Models). Thanks to NEMO-ASSIM research platform, we have used and developed this set of tools. The used variational DA system itself is NEMOVAR.We present results characterizing scales and structures of the analysis error along the assimilation process, as well as tentative links with small scale activity. To study both the algorithm convergence and the analysis and forecast errors in a qualitative and quantitative way, a large spectrum of systematic diagnostics has been employed, e.g. spatial and temporal RMSE, cost function characteristics, projection of error fields on EOFs, validity of the tangent linear hypothesis, PSD of error fields.In our experiments, it appears that the incremental 4DVAR algorithm proved to be quite robust for long DA windows at eddy-permitting resolution.When the model horizontal resolution increases, the convergence of the minimisation algorithm is poorer but the 4DVAR method still controls efficiently analysis error.It has also been shown that the 4DVAR algorithm is clearly more performant than 3DFGAT for both considered resolutions.Moreover we investigate some strategies for DA in such nonlinear contexts, with the aim of reducing the analysis error. We performed so-called progressive incremental 4DVAR to improve the algorithm convergence for longer assimilation windows. Finally, we show that the adequation in represented flow scales between the model and the altimetric sampling is crucial to obtain the best error analysis reduction.
54

Ljussättningsmetoder för logotyper inom motion graphics : En visuell innehållsanalys av logotypanimationer / Lighting methods for logotypes in motion graphics : A visual content analysis of logotype animations

Johansson, Kevin January 2018 (has links)
Ända sedan filmbranschen började implementera datorgenererat innehåll i filmproduktioner har 3D blivit en större del av vår vardag. Syftet med detta arbete är att hjälpa 3D-artisten att optimera sitt arbetsflöde för att effektivisera en annars tidskrävande teknisk process. Genom att visuellt analysera och därefter kategorisera befintliga animationer av olika 3D-logotyper, har detta arbete skapat en grund till att kartlägga hur en eventuell plugin med förinställda ljussättningar bäst möter funna kategorier. För att besvara arbetes frågeställningar utfördes en visuell innehållsanalys av 50 3D-animationer. De analyserade logotyperna valdes ut från urvalskategorierna: film och bil. Arbetets resultat tyder på att det finns återkommande stilar och metoder för ljussättning av motion graphics. Funna kombinationer för ljussättningar har inte kunnat kategoriseras då resultaten från analysen ej gav upphov till mer än en ljussättning. Resultaten ger en grund för en optimal ljussättning ämnad för en plugin i Cinema 4D. Studien ger även förslag på fortsatt forskning inom området. / Ever since the film industry started implementing computer generated content in film productions the presence of 3D in our everyday life has increased. The purpose of this study is to help the 3D artists optimize their workflow and streamline a time-consuming technical task. Through visually analyzing and further categorizing existing logotype animations this study has created a foundation towards mapping how a potential plug-in with predefined lighting setups best matches found categories. To answer the questions of this study a visual content analysis was conducted during which 50 3D animations were analyzed. The analyzed logotypes were chosen from the categories: film and cars. The findings of this study suggest that there are reoccurring styles and methods for lighting in motion graphics. The study has not been successful categorizing the most commonly used lighting setups due to the analysis not resulting in more than one lighting setup. The result provides a foundation for an optimal setup for lighting in motion graphics. The study also provides suggestions for future research on the subject.
55

BIM i planeringsarbetet : Effective planning by using BIM

Lindén, Anna, Dehlin, Peter January 2012 (has links)
Abstract The importance of good construction planning affects the final costs of the production and the timing of the project. Planning for building projects has been studied with the aim of identifying how three week planning appears in the construction industry today. A case study has been conducted in Navisworks Simulate to assess whether the software is suitable to connect the task schedule with the BIM model to create a 4D model. 4D models are used for performing 4D construction simulation to visualize the project. In order to use the benefits of the model, investment in equipment and software is required. This means higher costs for the companies. Therefore inexpensive software is needed so that it will be profitable to use 4D models even in the production of small projects. The survey which aims to identify planning in the construction industry shows that planning varies between the different sectors, but also that planning technique depends on the knowledge of those who actually carry out the planning. The conclusion is that education in planning techniques and computer aided planning tools is needed to implement BIM in the planning process. With a detailed schedule and a BIM model which is adjusted to the construction of the building, Navisworks Simulate is a suitable program to use in the creation of Building Information Models. When using Navisworks Simulate to create a 4D model, the natural choice would be Navisworks Freedom software for visualization of the project in the production. This is because the Navisworks creates its own file format, which can only be opened in software created by Autodesk. This study was aimed to improve three week planning and increase the use of assimilating feedback by using BIM in the construction industry. The conclusion is that the choice of software for the creation of a 4D model affects the application that later can be used for visualization. / Sammanfattning Vikten av god produktionsplanering ligger till grund för dels den ekonomiska produktionskostnaden, dels tidsaspekten i projektet. Som bakgrund till rapporten har planering i byggproduktionen studerats med syftet att kartlägga hur treveckorsplaneringen ser ut inom bygg- och anläggningsbranschen i dagsläget. En fallstudie har genomförts i Navisworks Simulate för att undersöka om programvaran lämpar sig att sammankoppla treveckorsplanering med BIM-modell för att skapa en 4D-modell. 4D-modellen används för att på ett tydligt vis visualisera arbetet i projektet. För att utnyttja modellen krävs investeringar i utrustning och programvaror vilket innebär dyra kostnader för företagen. För visualisering av projektet eftersträvas därför en programvara till låg kostnad så att det ska bli lönsamt att använda 4D-modellen i produktionen även på mindre projekt. Den utredning som genomförts med syftet att kartlägga planeringsarbetet inom bygg- och anläggningsbranschen visar att planeringsarbetet varierar dels mellan bygg- och anläggningsprojekt men även att planeringsteknik beror på kunskapssnivå hos den som ska genomföra planeringsarbetet. Slutsatsen är att utbildning i planeringsteknik och datorstödda planeringsverktyg behövs för att kunna implementera BIM i planeringsarbetet. Med en detaljerad tidsplanering och produktionsanpassad projektering är Navisworks Simulate ett utmärkt program att använda vid skapandet av BIM-modeller. Vid användandet av Navisworks Simulate för skapande av 4D-modellen är Navisworks Freedom det naturliga valet av program för visualisering ute på arbetsplatsen i produktionen. Detta beror på att Navisworks skapar sitt eget filformat, vilket endast går att öppna i programvaror från Autodesk. Slutsatsen blir att valet av programvara för skapandet av en 4D-modell påverkar vilka program som senare kan användas för visualisering. Examensrapporten syftar till att förbättra treveckorsplaneringen, samt att öka utnyttjandet av erfarenhetsåterföringen inom produktionen genom användande av CAD-samordning och BIM.
56

Medborgardialogens verktyg : En experimentell studie om att förmedla detaljplaner med 2D- och 4D-information

Nilsson, Caroline, Nygren, Emilia January 2015 (has links)
För att skapa en så bra livsmiljö som möjligt spelar medborgardeltagandet en stor roll i den urbana planeringen. För att gemene man ska kunna se framtida konsekvenser av nya planförslag måste de också förstå planens innehåll. Det finns olika slags verktyg för att presentera dessa planförslag. Syftet med denna studie var att genom ett experiment jämföra hur deltagarna förstod detaljplanematerial som presenterades på två olika sätt. Målet var att komma fram till hur olika presentationsverktyg kunde underlätta förmedlingen av nya planförslag vid medborgardialoger. Experimentets upplägg omfattade två moment: 2D-metoden och 4D- metoden. I 2D-metoden fanns detaljplanehandlingar som använts under Södertäljes samråd om Kvarteret Orion. I 4D-metoden tillämpades en 4D-modell över Södertälje som har använts vid medborgardialog. För att samla rådata tillämpades enkäter som insamlingsmetod. Enkätfrågorna utformades för att undersöka deltagarnas förmåga att förstå spatial och instruktiv information. Deltagarna delades slumpmässigt in i två grupper där respektive grupp fick prova en behandling: behandling A eller behandling B. Resultatet analyserades med hjälp av ett Wilcoxon signed rank test och en kvalitativ stapeldiagramsanalys. Slutsatsen visade att 4D- metoden förmedlade informationen tydligast, men att 2D- och 4D-metoderna har olika egenskaper. Dessa metoder behöver därför kompletteras med varandra för att förmedla detaljplaneinformationen till medborgaren på bästa möjliga sätt. / To create a good living environment the civic participation plays a major role in urban planning. In order for the common man to be able to see the future implications of the new planning proposal they must also understand the plan’s content. There are various tools to present these planning proposals. The purpose of this study was to through an experiment compare how the participants understood the zoning plan presented to them in two different ways. The aim was to come up with how various presentation tools could facilitate the communication of planning proposals for citizen dialogues. The experiment set-up comprised two parts: the 2D method and 4D method. In the 2D method, information and planning documents from the Södertälje consultation of Kvarteret Orion were used. In the 4D method, a 4D model of Kvarteret Orion previously used for citizen dialogue was employed. To collect raw data, questionnaires were applied as a collection method. The survey questions were designed to examine the participants’ ability to understand spatial and instructional information. The participants in the experiment were divided randomly into two groups, with each group assigned to try one of two treatments: treatment A or treatment B. The results were analyzed by a Wilcoxon Signed Rank Test and a bar graph qualitative analysis. The conclusion was that the 4D method was the most efficient in communicating the information, but that both methods have their different strengths. To fully convey zoning planning information to the citizen, both methods need to be used since only when complementing each other do they present a full picture of the plan at hand.
57

Ferramentas para QSAR-4D dependente de receptores = aplicação em uma série de inibidores da tripanotiona redutase do T. cruzi / Tool for receptor dependent 4D-QSAR applied to set of T. cruzi trypanothione reductase inhibitors

Barbosa, Euzébio Guimarães 07 December 2011 (has links)
Orientador: Márcia Miguel Castro Ferreira / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Química / Made available in DSpace on 2018-08-18T23:41:21Z (GMT). No. of bitstreams: 1 Barbosa_EuzebioGuimaraes_D.pdf: 4420345 bytes, checksum: e9da09f02df7f4d6c0756041fc40eb36 (MD5) Previous issue date: 2011 / Resumo: LQTA-QSAR é uma metodologia computacional para QSAR-4D desenvolvida pelo Laboratório de Quimiometria Teórica e Aplicada implementada em um software de acesso livre. O método permite considerar simultaneamente as vantagens da representação molecular multiconformacional e os descritores de campos de interação. Esta tese apresenta a evolução da proposta inicial da metodologia LQTA-QSAR independente de receptores para uma abordagem dependente de receptores. Sua aplicação é demonstrada na construção de modelos de QSAR-4D para a previsão da atividade inibitória de compostos fenotiazínicos da enzima tripanotiona redutase. Foi obtido um modelo com bom poder de previsão (Qprev = 0,78) e com descritores de fácil interpretação. Tal modelo pode ser usado para a proposição de compostos que poderão vir a ser usados para o tratamento da doença de chagas. Para a filtragem e seleção de descritores foi necessário o desenvolvimento de um protocolo completamente distinto daquele disponível na literatura. Foi proposto um procedimento automatizado para identificar e eliminar descritores irrelevantes quando a correlação e um algoritmo que elimina descritores com distribuição díspar em relação à atividade biológica. Foram introduzidos também testes de validação de modelos QSAR nunca antes usados para modelos que utilizam descritores de campo de interação. O protocolo completo foi testado em três conjuntos de dados e os modelos obtidos tiveram capacidade de previsão superior aos da literatura. Os modelos mostraram ser bastante simples e robustos quando submetidos aos testes leave-N-out e y-randomization / Abstract: The New Receptor-Dependent LQTA-QSAR approach is proposed as a new 4D-QSAR method. The RD-LQTA-QSAR is an evolution to the receptor independent LQTA-QSAR. This approach make use of the simulation package GROMACS to carry out molecular dynamics simulations and generate a conformational ensemble profile for each compound. Such ensemble is used to build molecular interaction field based QSAR models, as in CoMFA. To verify the usefulness of the methodology it was chosen some phenothiazine derivatives that are specific competitive T. cruzi trypanothione reductase inhibitors. Using a combination of molecular docking and molecular dynamics simulations the binding mode of 38 phenotiazine derivatives was evaluated in a simulated induced fit approach. The ligands¿ alignment, necessary to the methodology, was performed using both ligand and binding site atoms hereafter enabling unbiased alignment. The obtained models were extensively validated by Leave-N-out cross-validation and y-randomization techniques to test robustness and absence of chance correlation. The final model presented Q LOO of 0.87 and R of 0.92 and suitable external prediction = 0.78. It is possible to use the obtained adapted binding site of to perform virtual screening and ligand structures based design, as well as using models descriptors to design new inhibitors. In the process of QSAR modeling, the relevance of correlation and distribution profiles were tested in order to improve prediction power. A set of tools to filter descriptors prior to variable selection and a protocol for molecular interaction field descriptors selection and models validation are proposed. The algorithms and protocols presents are quite simple to apply and enable a different and powerful way to build LQTA-QSAR models / Doutorado / Físico-Química / Doutor em Ciências
58

Méthodes variationnelles d'ensemble itératives pour l'assimilation de données non-linéaire : Application au transport et la chimie atmosphérique / Iterative ensemble variational methods for nonlinear data assimilation : Application to transport and atmospheric chemistry

Haussaire, Jean-Matthieu 23 June 2017 (has links)
Les méthodes d'assimilation de données sont en constante évolution pour s'adapter aux problèmes à résoudre dans les multiples domaines d’application. En sciences de l'atmosphère, chaque nouvel algorithme a d'abord été implémenté sur des modèles de prévision numérique du temps avant d'être porté sur des modèles de chimie atmosphérique. Ce fut le cas des méthodes variationnelles 4D et des filtres de Kalman d'ensemble par exemple. La nouvelle génération d'algorithmes variationnels d'ensemble quadridimensionnels (EnVar 4D) ne fait pas exception. Elle a été développée pour tirer partie des deux approches variationnelle et ensembliste et commence à être appliquée au sein des centres opérationnels de prévision numérique du temps, mais n'a à ce jour pas été testée sur des modèles opérationnels de chimie atmosphérique.En effet, la complexité de ces modèles rend difficile la validation de nouvelles méthodes d’assimilation. Il est ainsi nécessaire d'avoir à disposition des modèles d’ordre réduit, qui doivent être en mesure de synthétiser les phénomènes physiques à l'{oe}uvre dans les modèles opérationnels tout en limitant certaines des difficultés liées à ces derniers. Un tel modèle, nommé L95-GRS, a donc été développé. Il associe la météorologie simpliste du modèle de Lorenz-95 à un module de chimie de l'ozone troposphérique avec 7 espèces chimiques. Bien que de faible dimension, il reproduit des phénomènes physiques et chimiques observables en situation réelle. Une méthode d'assimilation de donnée, le lisseur de Kalman d'ensemble itératif (IEnKS), a été appliquée sur ce modèle. Il s'agit d'une méthode EnVar 4D itérative qui résout le problème non-linéaire variationnel complet. Cette application a permis de valider les méthodes EnVar 4D dans un contexte de chimie atmosphérique non-linéaire, mais aussi de soulever les premières limites de telles méthodes.Fort de cette expérience, les résultats ont été étendus au cas d’un modèle réaliste de prévision de pollution atmosphérique. Les méthodes EnVar 4D, via l'IEnKS, ont montré leur potentiel pour tenir compte de la non-linéarité du modèle de chimie dans un contexte maîtrisé, avec des observations synthétiques. Cependant, le passage à des observations réelles d'ozone troposphérique mitige ces résultats et montre la difficulté que représente l'assimilation de données en chimie atmosphérique. En effet, une très forte erreur est associée à ces modèles, provenant de sources d'incertitudes variées. Deux démarches doivent alors être entreprises pour pallier ce problème.Tout d’abord, la méthode d’assimilation doit être en mesure de tenir compte efficacement de l’erreur modèle. Cependant, la majorité des méthodes sont développées en supposant au contraire un modèle parfait. Pour se passer de cette hypothèse, une nouvelle méthode a donc été développée. Nommée IEnKF-Q, elle étend l'IEnKS au cas avec erreur modèle. Elle a été validée sur un modèle jouet, démontrant sa supériorité par rapport à des méthodes d'assimilation adaptées naïvement pour tenir compte de l’erreur modèle.Toutefois, une telle méthode nécessite de connaître la nature et l'amplitude exacte de l'erreur modèle qu'elle doit prendre en compte. Aussi, la deuxième démarche consiste à recourir à des outils statistiques pour quantifier cette erreur modèle. Les algorithmes d'espérance-maximisation, de emph{randomize-then-optimize} naïf et sans biais, un échantillonnage préférentiel fondé sur l'approximation de Laplace, ainsi qu'un échantillonnage avec une méthode de Monte-Carlo par chaînes de Markov, y compris transdimensionnelle, ont ainsi été évalués, étendus et comparés pour estimer l'incertitude liée à la reconstruction du terme source des accidents des centrales nucléaires de Tchernobyl et Fukushima-Daiichi.Cette thèse a donc enrichi le domaine de l'assimilation de données EnVar 4D par ses apports méthodologiques et en ouvrant la voie à l’application de ces méthodes sur les modèles de chimie atmosphérique / Data assimilation methods are constantly evolving to adapt to the various application domains. In atmospheric sciences, each new algorithm has first been implemented on numerical weather prediction models before being ported to atmospheric chemistry models. It has been the case for 4D variational methods and ensemble Kalman filters for instance. The new 4D ensemble variational methods (4D EnVar) are no exception. They were developed to take advantage of both variational and ensemble approaches and they are starting to be used in operational weather prediction centers, but have yet to be tested on operational atmospheric chemistry models.The validation of new data assimilation methods on these models is indeed difficult because of the complexity of such models. It is hence necessary to have at our disposal low-order models capable of synthetically reproducing key physical phenomenons from operational models while limiting some of their hardships. Such a model, called L95-GRS, has therefore been developed. It combines the simple meteorology from the Lorenz-95 model to a tropospheric ozone chemistry module with 7 chemical species. Even though it is of low dimension, it reproduces some of the physical and chemical phenomenons observable in real situations. A data assimilation method, the iterative ensemble Kalman smoother (IEnKS), has been applied to this model. It is an iterative 4D EnVar method which solves the full non-linear variational problem. This application validates 4D EnVar methods in the context of non-linear atmospheric chemistry, but also raises the first limits of such methods.After this experiment, results have been extended to a realistic atmospheric pollution prediction model. 4D EnVar methods, via the IEnKS, have once again shown their potential to take into account the non-linearity of the chemistry model in a controlled environment, with synthetic observations. However, the assimilation of real tropospheric ozone concentrations mitigates these results and shows how hard atmospheric chemistry data assimilation is. A strong model error is indeed attached to these models, stemming from multiple uncertainty sources. Two steps must be taken to tackle this issue.First of all, the data assimilation method used must be able to efficiently take into account the model error. However, most methods are developed under the assumption of a perfect model. To avoid this hypothesis, a new method has then been developed. Called IEnKF-Q, it expands the IEnKS to the model error framework. It has been validated on a low-order model, proving its superiority over data assimilation methods naively adapted to take into account model error.Nevertheless, such methods need to know the exact nature and amplitude of the model error which needs to be accounted for. Therefore, the second step is to use statistical tools to quantify this model error. The expectation-maximization algorithm, the naive and unbiased randomize-then-optimize algorithms, an importance sampling based on a Laplace proposal, and a Markov chain Monte Carlo simulation, potentially transdimensional, have been assessed, expanded, and compared to estimate the uncertainty on the retrieval of the source term of the Chernobyl and Fukushima-Daiichi nuclear power plant accidents.This thesis therefore improves the domain of 4D EnVar data assimilation by its methodological input and by paving the way to applying these methods on atmospheric chemistry models
59

Time-lapse (4D) seismic interpretation methodologies based on kriging analysis : application to the Senlac (onshoreCanada) and Marlim ( offshore Brazil) heavy oilfields / Méthodologies d'Interprétation par Analyse Krigeante des données sismiques 4D réservoir. Applications aux huiles lourdes de Senlac (Canada) et au champ Marlim (Brésil)

Borges De Salles Abreu, Carlos Eduardo 07 March 2008 (has links)
L’objectif de la thèse est de développer une méthodologie permettant d’obtenir une interprétation quantitative des données de sismique répétée (sismique 4D). Une étape essentielle consiste à évaluer la répétitivité des données, puis à filtrer les bruits indésirables, qui peuvent masquer ou détériorer la signature 4D. Une méthodologie basée sur des outils géostatistiques a été développée. Deux fenêtres temporelles des cubes sismiques étudiés sont choisies, l’une au-dessus du réservoir - où aucun effet 4D n’est attendu - et l’autre incluant le réservoir. Une analyse statistique et variographique conduite sur ces différentes fenêtres permet de proposer une décomposition des variogrammes en structures communes ou indépendantes, qui sont ensuite interprétées en termes de bruit, de signature géologique ou 4D. Les structures interprétées comme indépendantes de la géologie ou de la production sont ensuite filtrées à l’aide de la technique du krigeage factoriel proposée par Matheron en 1982. La méthodologie a été testée sur deux cas réels. Le premier concerne un champ d’huiles lourdes canadien, sur lequel trois campagnes sismiques ont été enregistrées, avant et pendant la production obtenue à l’aide d’injection de vapeur. Le bruit interprété comme tel sur les 3 campagnes a été filtré à l’aide la méthode décrite plus haut ; une analyse en termes de faciès sismiques non supervisée a ensuite été conduite sur les données brutes et filtrées afin d’évaluer l’intérêt du filtrage. Finalement, une interprétation des décalages en temps observés entre campagnes a été proposée. Le deuxième cas réel concerne un champ turbiditique profond dans l’offshore du Brésil, sur lequel deux campagnes sismiques 3D ont été acquises, avant et après le début de la production obtenue par injection d’eau. Le bruit présent sur les deux campagnes a été filtré à l’aide de la technique du krigeage factoriel, et la qualité de ce filtrage a pu être évaluée par comparaison avec d’autres techniques couramment utilisées / This thesis research aims at investigating seismic interpretation methodologies and techniques that will help on better characterizing time-lapse, or 4D, seismic signatures. These techniques and methodologies are used to evaluate the time-lapse repeatability and then to filter out undesirable artefacts that are non-related to the production, while enhancing the 4D signature. To achieve these goals, a methodology based on geostatistical tools, was developed. Typically, at least two time-interval windows are considered: one above and the other comprising the reservoir of interest. A statistical and variographic analysis, conducted on both windows and on all surveys, leads to an interpretation step where common or independent structures – in the variographic sense- can be pointed out. The structures interpreted as not related to the geology or to the production mechanism are filtered from the data by a multivariate factorial cokriging technique, based on the concept of Kriging Analysis developed by Matheron in 1982. Two real case time-lapse studies were used to test the methodology. The first case is a Canadian onshore heavy oil reservoir submitted to steam injection, where three different time-lapse surveys were shot to monitor the steam-chamber evolution. The noise present in the three surveys was first filtered using the technique described above; next, an unsupervised seismic facies analysis was conducted on both raw and filtered data in order to evaluate the filtering technique, and finally an interpretation, in terms of reservoir properties changes, of the time-shit observed between the campaigns was proposed. In the second case, the seismic data was acquired on a deepwater turbiditic oilfield from Brazil at two different times of reservoir life, before and after production and water injection. The two seismic surveys were filtered using the factorial kriging technique; the quality of the filtering was, in this case, evaluated by comparison with more common techniques
60

Calibration par programmation linéaire et reconstruction spatio-temporelle à partir de réseaux d’images / Calibration with linear programming and spatio-temporal reconstruction from a network of cameras

Courchay, Jérôme 05 January 2011 (has links)
Le problème de la stéréovision à partir de caméras multiples calibrées capturant une scène fixe est étudié depuis plusieurs décennies. Les résultats présentés dans le benchmark de stéréovision proposé par Strecha et al., attestent de la qualité des reconstructions obtenues. En particulier, les travaux du laboratoire IMAGINE, mènent à des résultats visuellement impressionnant. Aussi, il devient intéressant de calibrer des scènes de plus en plus vastes, afin d'appliquer ces algorithmes de stéréovision de façon optimale. Trois objectifs essentiels apparaissent : – La précision de la calibration doit être améliorée. En effet comme pointé par Yasutaka Furukawa, même les benchmarks de stéréovision fournissent parfois des caméras bruitées à la précision imparfaite. Un des moyen d'améliorer les résultats de stéréovision est d'augmenter la précision de la calibration. – Il est important de pouvoir prendre en compte les cycles dans le graphe des caméras de façon globale. En effet la plupart des méthodes actuelles sont séquentielles, et dérivent. Ainsi ces méthodes ne garantissent pas, pour une très grande boucle, de retrouver cette configuration cyclique, mais peuvent plutôt retrouver une configuration des caméras en spirale. Comme on calibre des réseaux d'images, de plus en plus grand, ce point est donc crucial. – Pour calibrer des réseaux d'images très grands, il convient d'avoir des algorithmes rapides. Les méthodes de calibration que nous proposons dans la première partie, permettent de calibrer des réseaux avec une précision très proche de l'état de l'art. D'autre part elle permettent de gérer les contraintes de cyclicité par le biais d'optimisations linéaires sous contraintes linéaires. Ainsi ces méthodes permettent de prendre en compte les cycles et bénéficient de la rapidité de la programmation linéaire. Enfin, la recherche en stéréovision étant arrivée à maturité, il convient de s'intéresser à l'étape suivante, à savoir la reconstruction spatio-temporelle. La méthode du laboratoire IMAGINE représentant l'état de l'art en stéréovision, il est intéressant de développer cette méthode et de l'étendre à la reconstruction spatio-temporelle, c'est-à-dire la reconstruction d'une scène dynamique capturée par un dôme de caméras. Nous verrons cette méthode dans la seconde partie de ce manuscrit / The issue of retrieving a 3D shape from a static scene captured with multiple view point calibrated cameras has been deeply studied these last decades. Results presented in the stereovision benchmark made by Strecha et al., show the high quality of state of the art methods. Particularly, works from IMAGINE laboratory lead to impressive results. So, it becomes convenient to calibrate wider and wider scenes, in order to apply these stereovision algorithms to large scale scenes. Three main objectives appear : – The calibration accuracy should be improved. As stated by Yasutaka Furukawa, even stereovision benchmarks use noisy cameras. So one obvious way to improve stereovision, is to improve camera calibration. – It is crucial to take cycles into account in cameras graph in a global way. Most of nowadays methods are sequential and so present a drift. So these methods do not offer the guarantee to retrieve the loopy configuration for a loop made of a high number of images, but retrieve a spiral configuration. As we aim to calibrate wider and wider cameras networks, this point becomes quite crucial. – To calibrate wide cameras networks, having quick and linear algorithms can be necessary. Calibration methods we propose in the first part, allow to calibrate with an accuracy close to state of the art. Moreover, we take cyclicity constraints into account in a global way, with linear optimisations under linear constraints. So these methods allow to take cycle into account and benefit from quickness of linear programming. Finally, sterovision being a well studied topic, it is convenient to concentrate on the next step, that is, spatio-temporal reconstruction. The IMAGINE' stereovision method being the state of the art, it is interesting to extend this method to spatio-temporal reconstruction, that is, dynamique scene reconstruction captured from a dome of cameras

Page generated in 0.0158 seconds