• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 669
  • 188
  • 90
  • 90
  • 55
  • 29
  • 18
  • 18
  • 18
  • 16
  • 9
  • 9
  • 9
  • 9
  • 9
  • Tagged with
  • 1421
  • 369
  • 207
  • 166
  • 160
  • 144
  • 130
  • 125
  • 115
  • 105
  • 100
  • 92
  • 88
  • 74
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
931

Estudo interpretativo da obra "Ensaio-90" para trio de percussão de Mário Ficarelli / Interpretative study from "Ensaio-90" for percussion trio by Mario Ficarelli

Arilho, Rodolfo Vilaggio, 1979- 26 August 2018 (has links)
Orientador: Fernando Augusto de Almeida Hashimoto / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Artes / Made available in DSpace on 2018-08-26T01:47:50Z (GMT). No. of bitstreams: 1 Arilho_RodolfoVilaggio_M.pdf: 22738314 bytes, checksum: 93559c1969c8f7eece56e6a0d6eb22d8 (MD5) Previous issue date: 2014 / Resumo: Este trabalho tem como objetivo a realização de um estudo interpretativo sobre a obra Ensaio-90 de Mário Ficarelli, composta para trio de percussão em 1990. Esse estudo não se prende somente na análise dos elementos composicionais da obra, mas sim utiliza a análise como ferramenta para discutir as possíveis decisões interpretativas, as escolhas do componente aleatório do material timbrístico como fator determinante do resultado final da obra, bem como a interação entre percussionistas quando em atuação em um grupo de percussão e sugestões para solução de possíveis problemas técnicos contidos na obra / Abstract: This work has a main goal to perform an interpretative study on the work Ensaio-90 by Mário Ficarelli, composed for three percussionists in 1990. This study is based not only in the analysis of the musical elements of the work, but rather utilizes the musical analysis as a tool to discuss the possible interpretative decisions, the, the choices on the random component of the timbre as an important factor for the final output of the work, as well the interaction among the acting percussionists playing as a group, and the suggestions to solve the technical issues through the work / Mestrado / Praticas Interpretativas / Mestre em Música
932

Jämställd musikundervisning? : Grundskolelärares ensembleundervisning utifrån genusperspektiv

Jenner, Cassandra January 2018 (has links)
Det primära syftet med föreliggande studie är att utifrån ett genusvetenskapligt perspektiv undersöka vilka didaktiska resurser lärare använder för att bredda elevers förmåga till att spela instrument, inklusive sång, under ensemblelektioner i grundskolan. Studien genomfördes utifrån ett genusvetenskapligt- och ett socialsemiotiskt multimodalt perspektiv som teoretiska utgångspunkter. Genom det genusvetenskapliga perspektivet går det att synliggöra de genusstrukturer som uppstår under musikundervisningen bland elever och lärare. Det socialsemiotiska multimodala perspektivet möjliggör en analys av hur mening skapas genom lärares multimodala kommunikation med avseende på genus. Undersökningen genomfördes med hjälp av känd och icke deltagande observation som huvudmetod samt kompletterades med kvalitativa intervjuer. Resultatet visar att musiksalens uppbyggnad samt lärares gestik, musikaliska referenser och tidfördelning av instrument påverkar elevers möjligheter till lärande och meningsskapande ur en genussynpunkt. Även lärares tillvägagångssätt i förhållande till vilket instrument eleverna spelar på under lektionerna och elevers genuskodade handlingar som exempelvis ansvarstagande under lektioner påverkar deras möjlighet att bredda sin förmåga att spela instrument. Resultatet indikerar även att lärares val av genre och att låta eleverna själva välja instrument att spela på leder till att genusnormer får större genomslagskraft. Vidare visar resultatet att musikundervisningen genomsyras av en populärmusikalisk diskurs och därmed den maskulina norm som råder inom denna diskurs. I analysen diskuteras vikten av att medvetandegöra lärare i vad de multimodalt kommunicerar till sina elever i form av traditionella genusmönster för att framledes kunna utmana dessa mönster och på så vis skapa en mer jämställd musikundervisning.
933

Aspects combinatoires et algorithmiques des codes identifiants dans les graphes / Combinatorial and algorithmic aspects of identifying codes in graphs

Foucaud, Florent 10 December 2012 (has links)
Un code identifiant est un ensemble de sommets d'un graphe tel que, d'une part, chaque sommet hors du code a un voisin dans le code (propriété de domination) et, d'autre part, tous les sommets ont un voisinage distinct à l'intérieur du code (propriété de séparation). Dans cette thèse, nous nous intéressons à des aspects combinatoires et algorithmiques relatifs aux codes identifiants.Pour la partie combinatoire, nous étudions tout d'abord des questions extrémales en donnant une caractérisation complète des graphes non-orientés finis ayant comme taille minimum de code identifiant leur ordre moins un. Nous caractérisons également les graphes dirigés finis, les graphes non-orientés infinis et les graphes orientés infinis ayant pour seul code identifiant leur ensemble de sommets. Ces résultats répondent à des questions ouvertes précédemment étudiées dans la littérature.Puis, nous étudions la relation entre la taille minimum d'un code identifiant et le degré maximum d'un graphe, en particulier en donnant divers majorants pour ce paramètre en fonction de l'ordre et du degré maximum. Ces majorants sont obtenus via deux techniques. L'une est basée sur la construction d'ensembles indépendants satisfaisant certaines propriétés, et l'autre utilise la combinaison de deux outils de la méthode probabiliste : le lemme local de Lovasz et une borne de Chernoff. Nous donnons également des constructions de familles de graphes en relation avec ce type de majorants, et nous conjecturons que ces constructions sont optimales à une constante additive près.Nous présentons également de nouveaux minorants et majorants pour la cardinalité minimum d'un code identifiant dans des classes de graphes particulières. Nous étudions les graphes de maille au moins 5 et de degré minimum donné en montrant que la combinaison de ces deux paramètres influe fortement sur la taille minimum d'un code identifiant. Nous appliquons ensuite ces résultats aux graphes réguliers aléatoires. Puis, nous donnons des minorants pour la taille d'un code identifiant des graphes d'intervalles et des graphes d'intervalles unitaires. Enfin, nous donnons divers minorants et majorants pour cette quantité lorsque l'on se restreint aux graphes adjoints. Cette dernière question est abordée via la notion nouvelle de codes arête-identifiants.Pour la partie algorithmique, il est connu que le problème de décision associés à la notion de code identifiant est NP-complet même pour des classes de graphes restreintes. Nous étendons ces résultats à d'autres classes de graphes telles que celles des graphes split, des co-bipartis, des adjoints ou d'intervalles. Pour cela nous proposons des réductions polynomiales depuis divers problèmes algorithmiques classiques. Ces résultats montrent que dans beaucoup de classes de graphes, le problème des codes identifiants est algorithmiquement plus difficile que des problèms liés (tel que le problème des ensembles dominants).Par ailleurs, nous complétons les connaissances relatives à l'approximabilité du problème d'optimisation associé aux codes identifiants. Nous étendons le résultat connu de NP-difficulté pour l'approximation de ce problème avec un facteur sous-logarithmique (en fonction de la taille du graphe instance) aux graphes bipartis, split et co-bipartis, respectivement. Nous étendons également le résultat connu d'APX-complétude pour les graphes de degré maximum donné à une sous-classe des graphes split, aux graphes bipartis de degré maximum 4 et aux graphes adjoints. Enfin, nous montrons l'existence d'un algorithme de type PTAS pour les graphes d'intervalles unitaires. / An identifying code is a set of vertices of a graph such that, on the one hand, each vertex out of the code has a neighbour in the code (domination property), and, on the other hand, all vertices have a distinct neighbourhood within the code (separation property). In this thesis, we investigate combinatorial and algorithmic aspects of identifying codes.For the combinatorial part, we first study extremal questions by giving a complete characterization of all finite undirected graphs having their order minus one as minimum size of an identifying code. We also characterize finite directed graphs, infinite undirected graphs and infinite oriented graphs having their whole vertex set as unique identifying code. These results answer open questions that were previously studied in the literature.We then study the relationship between the minimum size of an identifying code and the maximum degree of a graph. In particular, we give several upper bounds for this parameter as a function of the order and the maximum degree. These bounds are obtained using two techniques. The first one consists in the construction of independent sets satisfying certain properties, and the second one is the combination of two tools from the probabilistic method: the Lovasz local lemma and a Chernoff bound. We also provide constructions of graph families related to this type of upper bounds, and we conjecture that they are optimal up to an additive constant.We also present new lower and upper bounds for the minimum cardinality of an identifying code in specific graph classes. We study graphs of girth at least 5 and of given minimum degree by showing that the combination of these two parameters has a strong influence on the minimum size of an identifying code. We apply these results to random regular graphs. Then, we give lower bounds on the size of a minimum identifying code of interval and unit interval graphs. Finally, we prove several lower and upper bounds for this parameter when considering line graphs. The latter question is tackled using the new notion of an edge-identifying code.For the algorithmic part, it is known that the decision problem associated to the notion of an identifying code is NP-complete, even for restricted graph classes. We extend the known results to other classes such as split graphs, co-bipartite graphs, line graphs or interval graphs. To this end, we propose polynomial-time reductions from several classical hard algorithmic problems. These results show that in many graph classes, the identifying code problem is computationally more difficult than related problems (such as the dominating set problem).Furthermore, we extend the knowledge of the approximability of the optimization problem associated to identifying codes. We extend the known result of NP-hardness of approximating this problem within a sub-logarithmic factor (as a function of the instance graph) to bipartite, split and co-bipartite graphs, respectively. We also extendthe known result of its APX-hardness for graphs of given maximum degree to a subclass of split graphs, bipartite graphs of maximum degree 4 and line graphs. Finally, we show the existence of a PTAS algorithm for unit interval graphs.
934

A Mixture-of-Experts Approach for Gene Regulatory Network Inference

Shao, Borong January 2014 (has links)
Context. Gene regulatory network (GRN) inference is an important and challenging problem in bioinformatics. A variety of machine learning algorithms have been applied to increase the GRN inference accuracy. Ensemble learning methods are shown to yield a higher inference accuracy than individual algorithms. Objectives. We propose an ensemble GRN inference method, which is based on the principle of Mixture-of-Experts ensemble learning. The proposed method can quantitatively measure the accuracy of individual GRN inference algorithms at the network motifs level. Based on the accuracy of the individual algorithms at predicting different types of network motifs, weights are assigned to the individual algorithms so as to take advantages of their strengths and weaknesses. In this way, we can improve the accuracy of the ensemble prediction. Methods. The research methodology is controlled experiment. The independent variable is method. It has eight groups: five individual algorithms, the generic average ranking method used in the DREAM5 challenge, the proposed ensemble method including four types of network motifs and five types of network motifs. The dependent variable is GRN inference accuracy, measured by the area under the precision-recall curve (AUPR). The experiment has training and testing phases. In the training phase, we analyze the accuracy of five individual algorithms at the network motifs level to decide their weights. In the testing phase, the weights are used to combine predictions from the five individual algorithms to generate ensemble predictions. We compare the accuracy of the eight method groups on Escherichia coli microarray dataset using AUPR. Results. In the training phase, we obtain the AUPR values of the five individual algorithms at predicting each type of the network motifs. In the testing phase, we collect the AUPR values of the eight methods on predicting the GRN of the Escherichia coli microarray dataset. Each method group has a sample size of ten (ten AUPR values). Conclusions. Statistical tests on the experiment results show that the proposed method yields a significantly higher accuracy than the generic average ranking method. In addition, a new type of network motif is found in GRN, the inclusion of which can increase the accuracy of the proposed method significantly. / Genes are DNA molecules that control the biological traits and biochemical processes that comprise life. They interact with each other to realize the precise regulation of life activities. Biologists aim to understand the regulatory network among the genes, with the help of high-throughput techonologies, such as microarrays, RNA-seq, etc. These technologies produce large amount of gene expression data which contain useful information. Therefore, effective data mining is necessary to discover the information to promote biological research. Gene regulatory network (GRN) inference is to infer the gene interactions from gene expression data, such as microarray datasets. The inference results can be used to guide the direction of further experiments to discover or validate gene interactions. A variety of machine learning (data mining) methods have been proposed to solve this problem. In recent years, experiments have shown that ensemble learning methods achieve higher accuracy than the individual learning methods. Because the ensemble learning methods can take advantages of the strength of different individual methods and it is robust to different network structures. In this thesis, we propose an ensemble GRN inference method, which is based on the principle of the Mixture-of-Experts ensemble learning. By quantitatively measure the accuracy of individual methods at the network motifs level, the proposed method is able to take advantage of the complementarity among the individual methods. The proposed method yields a significantly higher accuracy than the generic average ranking method, which is the most accurate method out of 35 GRN inference methods in the DREAM5 challenge. / 0769607980
935

Concept Drift in Surgery Prediction

Beyene, Ayne, Welemariam, Tewelle January 2012 (has links)
Context: In healthcare, the decision of patient referral evolves through time because of changes in scientific developments, and clinical practices. Existing decision support systems of patient referral are based on the expert systems approach. This usually requires manual updates when changes in clinical practices occur. Automatically updating the decision support system by identifying and handling so-called concept drift improves the efficiency of healthcare systems. In the stateof-the- art, there are only specific ways of handling concept drift; developing a more generic technique which works regardless of restrictions on how slow, fast, sudden, gradual, local, global, cyclical, noisy or otherwise changes in internal distribution, is still a challenge. Objectives: An algorithm that handles concept drift in surgery prediction is investigated. Concept drift detection techniques are evaluated to find out a suitable detection technique in the context of surgery prediction. Moreover, a plausible combination of detection and handling algorithms including the proposed algorithm, Trigger Based Ensemble (TBE)+, are evaluated on hospital data. Method: Experiments are conducted to investigates the impact of concept drift on prediction performance and to reduce concept drift impact. The experiments compare three existing methods (AWE, Active Classifier, Learn++) and the proposed algorithm, Trigger Based Ensemble(TBE). Real-world dataset from orthopedics department of Belkinge hospital and other domain dataset are used in the experiment. Results: The negative impact of concept drift in surgery prediction is investigated. The relationship between temporal changes in data distribution and surgery prediction concept drift is identified. Furthermore, the proposed algorithm is evaluated and compared with existing handling approaches. Conclusion: The proposed algorithm, Trigger Based Ensemble (TBE), is capable of detecting the occurrences of concept drifts and to adapt quickly to various changes. The Trigger Based Ensemble algorithm performed comparatively better or sometimes similar to the existing concept drift handling algorithms in the absence of noise. Moreover, the performance of Trigger Based Ensemble is consistent for small and large dataset. The research is of twofold contributions, in that it is improving surgery prediction performance as well as contributing one competitive concept drift handling algorithm to the area of computer science.
936

Ensemblemodellering av piggvarens habitat utgående från provfiske- och miljödata / Ensemble modelling of the habitat of turbot based on video analyses and fish survey data

Erlandsson, Mårten January 2016 (has links)
Piggvarens (Scophthalmus maximus) val av habitat i Östersjön har modellerats utifrån provfiskedata och miljövariabler. Vid totalt 435 stationer i Östersjön har data samlats in i form av provfiske, CTD-mätningar (konduktivitet, temperatur och djup) och videofilmer. Genom att analysera videofilmerna från havsbotten i Östersjön har den klassificerats efter fyra olika förklaringsvariabler: täckningsgrad mjukbotten, strukturbildande växter, övriga alger och täckningsgrad blåmusslor. Ytterligare sex förklaringsvariabler har samlats in från mätningar och befintliga kartor: bottensalinitet, bottentemperatur, djup, siktdjup, vågexponering och bottenlutning. Dessa tio förklaringsvariabler har använts i tio olika enskilda statistiska modelleringsmetoder med förekomst/icke-förekomst av piggvar som responsvariabel. Nio av tio modeller visade på bra resultat (AUC > 0,7) där CTA (Classification Tree Analysis) och GBM (Global Boosting Model) hade bäst resultat (AUC > 0,9). Genom att kombinera modeller med bra resultat på olika sätt skapades sex ensemblemodeller för att minska varje enskild modells svagheter. Ensemblemodellerna visade tydligt fördelarna med denna typ av modellering då de gav ett mycket bra resultat (AUC > 0,949). Den sämsta ensemblemodellen var markant bättre än den bästa enskilda modellen. Resultaten från modellerna visar att största sannolikheten för piggvarsförekomst i Östersjön är vid grunt (< 20 meter) och varmt (> 10 oC) vatten med hög vågexponering (> 30 000 m²/s). Dessa tre variabler var de med högst betydelse för modellerna. Täckningsgrad mjukbotten och de två växtlighetsvariablerna från videoanalyserna var de tre variabler som hade lägst påverkan på piggvarens val av habitat. Med en högre kvalitet på videofilmerna hade de variablerna kunnat klassificeras i mer specifika grupper vilket eventuellt gett ett annat resultat. Generellt visade modellerna att denna typ av habitatmodellering med provfiske och miljödata både är möjlig att utföra. / The turbots’ (Scophthalmus maximus) selection of habitat in the Baltic Sea has been modeled on the basis of fish survey data and environmental variables. At a total of 435 stations in the Baltic Sea, data was collected in the form of fish survey data, CTD (Conductivity, Temperature and Depth) measurements and videos. By analyzing the videos from the seabed of the Baltic Sea, four different explanatory variables have been classified: coverage of soft bottom, structure-forming plants, other algae and coverage of mussels. Another six explanatory variables have been collected from measurements and existing rasters: salinity, temperature, depth, water transparency, wave exposure and the bottom slope. These ten explanatory variables have been used in ten different species distribution modeling methods with the presence/absence of turbot as a response variable. Nine out of ten models showed good results (AUC > 0.7) where the CTA (Classification Tree Analysis) and GBM (Global Boosting Model) performed the best (AUC > 0.9). By combining the models with good performance in six different ensemble models each individual models’ weaknesses were decreased. The ensemble models clearly showed strength as they gave a very good performance (AUC > 0.94). The worst ensemble model was significantly better than the best individual model. The results of the models show that the largest probability of occurrence of turbot in the Baltic Sea is in shallow (< 20 m) and warm (> 10 ° C) water with high wave exposure (> 30,000 m²/s). These three variables were those with the highest significance for the models. Coverage of soft bottom and the two vegetation variables, from the video analyzes, had the lowest impact on the turbots’ choice of habitat. A higher quality of the videos would have made it possible to classify these variables in more specific groups which might have given a different result. Generally, the models showed that this type of modeling of habitat is possible to perform with fish survey and environmental monitoring data and generates useful results.
937

Combinatorics of finite ordered sets: order polytopes and poset entropy

Rexhep, Selim 27 June 2016 (has links)
The thesis focuses on two open problems on finite partially ordered sets: the structure of order polytopes and the approximation of the number of linear extensions of a poset by mean of graph entropy. The polytopes considered here are the linear ordering polytope, the semiorder polytope, the interval order polytope, the partial order polytope and also a generalisation of the linear ordering polytope: the linear extension polytope of a fixed poset P. Various results on the structure of theses polytopes are proved in the first part of the thesis. In the second part of the thesis, we improve the existing bounds linking the entropy of the incomparability graph of the poset P and its number of linear extension. / Le but de la thèse est d'étudier deux problèmes ouverts sur les ensembles ordonnés finis: la structure des polytopes d'ordre et l'approximation du nombre d'extensions linéaires d'un ordre partiel au moyen de la notion d'entropie de graphe. Les polytopes considérés sont le polytope des ordres totaux, le polytope des semiordres, le polytope des ordres d'intervalles, le polytope des ordres partiels, ainsi qu'une généralisation du polytope des ordres totaux: le polytope des extensions linéaires d'un ensemble ordonné fixé P. Des résultats sur la structure de ces polytopes sont présentés dans la première partie de la thèse. Dans la deuxième partie de la thèse, nous améliorons les bornes existantes liant l'entropie du graphe d'incomparabilité d'un ordre partiel et son nombre d'extensions linéaires. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
938

Méthodes variationnelles d'ensemble itératives pour l'assimilation de données non-linéaire : Application au transport et la chimie atmosphérique / Iterative ensemble variational methods for nonlinear data assimilation : Application to transport and atmospheric chemistry

Haussaire, Jean-Matthieu 23 June 2017 (has links)
Les méthodes d'assimilation de données sont en constante évolution pour s'adapter aux problèmes à résoudre dans les multiples domaines d’application. En sciences de l'atmosphère, chaque nouvel algorithme a d'abord été implémenté sur des modèles de prévision numérique du temps avant d'être porté sur des modèles de chimie atmosphérique. Ce fut le cas des méthodes variationnelles 4D et des filtres de Kalman d'ensemble par exemple. La nouvelle génération d'algorithmes variationnels d'ensemble quadridimensionnels (EnVar 4D) ne fait pas exception. Elle a été développée pour tirer partie des deux approches variationnelle et ensembliste et commence à être appliquée au sein des centres opérationnels de prévision numérique du temps, mais n'a à ce jour pas été testée sur des modèles opérationnels de chimie atmosphérique.En effet, la complexité de ces modèles rend difficile la validation de nouvelles méthodes d’assimilation. Il est ainsi nécessaire d'avoir à disposition des modèles d’ordre réduit, qui doivent être en mesure de synthétiser les phénomènes physiques à l'{oe}uvre dans les modèles opérationnels tout en limitant certaines des difficultés liées à ces derniers. Un tel modèle, nommé L95-GRS, a donc été développé. Il associe la météorologie simpliste du modèle de Lorenz-95 à un module de chimie de l'ozone troposphérique avec 7 espèces chimiques. Bien que de faible dimension, il reproduit des phénomènes physiques et chimiques observables en situation réelle. Une méthode d'assimilation de donnée, le lisseur de Kalman d'ensemble itératif (IEnKS), a été appliquée sur ce modèle. Il s'agit d'une méthode EnVar 4D itérative qui résout le problème non-linéaire variationnel complet. Cette application a permis de valider les méthodes EnVar 4D dans un contexte de chimie atmosphérique non-linéaire, mais aussi de soulever les premières limites de telles méthodes.Fort de cette expérience, les résultats ont été étendus au cas d’un modèle réaliste de prévision de pollution atmosphérique. Les méthodes EnVar 4D, via l'IEnKS, ont montré leur potentiel pour tenir compte de la non-linéarité du modèle de chimie dans un contexte maîtrisé, avec des observations synthétiques. Cependant, le passage à des observations réelles d'ozone troposphérique mitige ces résultats et montre la difficulté que représente l'assimilation de données en chimie atmosphérique. En effet, une très forte erreur est associée à ces modèles, provenant de sources d'incertitudes variées. Deux démarches doivent alors être entreprises pour pallier ce problème.Tout d’abord, la méthode d’assimilation doit être en mesure de tenir compte efficacement de l’erreur modèle. Cependant, la majorité des méthodes sont développées en supposant au contraire un modèle parfait. Pour se passer de cette hypothèse, une nouvelle méthode a donc été développée. Nommée IEnKF-Q, elle étend l'IEnKS au cas avec erreur modèle. Elle a été validée sur un modèle jouet, démontrant sa supériorité par rapport à des méthodes d'assimilation adaptées naïvement pour tenir compte de l’erreur modèle.Toutefois, une telle méthode nécessite de connaître la nature et l'amplitude exacte de l'erreur modèle qu'elle doit prendre en compte. Aussi, la deuxième démarche consiste à recourir à des outils statistiques pour quantifier cette erreur modèle. Les algorithmes d'espérance-maximisation, de emph{randomize-then-optimize} naïf et sans biais, un échantillonnage préférentiel fondé sur l'approximation de Laplace, ainsi qu'un échantillonnage avec une méthode de Monte-Carlo par chaînes de Markov, y compris transdimensionnelle, ont ainsi été évalués, étendus et comparés pour estimer l'incertitude liée à la reconstruction du terme source des accidents des centrales nucléaires de Tchernobyl et Fukushima-Daiichi.Cette thèse a donc enrichi le domaine de l'assimilation de données EnVar 4D par ses apports méthodologiques et en ouvrant la voie à l’application de ces méthodes sur les modèles de chimie atmosphérique / Data assimilation methods are constantly evolving to adapt to the various application domains. In atmospheric sciences, each new algorithm has first been implemented on numerical weather prediction models before being ported to atmospheric chemistry models. It has been the case for 4D variational methods and ensemble Kalman filters for instance. The new 4D ensemble variational methods (4D EnVar) are no exception. They were developed to take advantage of both variational and ensemble approaches and they are starting to be used in operational weather prediction centers, but have yet to be tested on operational atmospheric chemistry models.The validation of new data assimilation methods on these models is indeed difficult because of the complexity of such models. It is hence necessary to have at our disposal low-order models capable of synthetically reproducing key physical phenomenons from operational models while limiting some of their hardships. Such a model, called L95-GRS, has therefore been developed. It combines the simple meteorology from the Lorenz-95 model to a tropospheric ozone chemistry module with 7 chemical species. Even though it is of low dimension, it reproduces some of the physical and chemical phenomenons observable in real situations. A data assimilation method, the iterative ensemble Kalman smoother (IEnKS), has been applied to this model. It is an iterative 4D EnVar method which solves the full non-linear variational problem. This application validates 4D EnVar methods in the context of non-linear atmospheric chemistry, but also raises the first limits of such methods.After this experiment, results have been extended to a realistic atmospheric pollution prediction model. 4D EnVar methods, via the IEnKS, have once again shown their potential to take into account the non-linearity of the chemistry model in a controlled environment, with synthetic observations. However, the assimilation of real tropospheric ozone concentrations mitigates these results and shows how hard atmospheric chemistry data assimilation is. A strong model error is indeed attached to these models, stemming from multiple uncertainty sources. Two steps must be taken to tackle this issue.First of all, the data assimilation method used must be able to efficiently take into account the model error. However, most methods are developed under the assumption of a perfect model. To avoid this hypothesis, a new method has then been developed. Called IEnKF-Q, it expands the IEnKS to the model error framework. It has been validated on a low-order model, proving its superiority over data assimilation methods naively adapted to take into account model error.Nevertheless, such methods need to know the exact nature and amplitude of the model error which needs to be accounted for. Therefore, the second step is to use statistical tools to quantify this model error. The expectation-maximization algorithm, the naive and unbiased randomize-then-optimize algorithms, an importance sampling based on a Laplace proposal, and a Markov chain Monte Carlo simulation, potentially transdimensional, have been assessed, expanded, and compared to estimate the uncertainty on the retrieval of the source term of the Chernobyl and Fukushima-Daiichi nuclear power plant accidents.This thesis therefore improves the domain of 4D EnVar data assimilation by its methodological input and by paving the way to applying these methods on atmospheric chemistry models
939

Ensemble registration : combining groupwise registration and segmentation

Purwani, Sri January 2016 (has links)
Registration of a group of images generally only gives a pointwise, dense correspondence defined over the whole image plane or volume, without having any specific description of any common structure that exists in every image. Furthermore, identifying tissue classes and structures that are significant across the group is often required for analysis, as well as the correspondence. The overall aim is instead to perform registration, segmentation, and modelling simultaneously, so that the registration can assist the segmentation, and vice versa. However, structural information does play a role in conventional registration, in that if the registration is successful, it would be expected structures to be aligned to some extent. Hence, we perform initial experiments to investigate whether there is explicit structural information present in the shape of the registration objective function about the optimum. We perturbed one image locally with a diffeomorphism, and found interesting structure in the shape of the quality of fit function. Then, we proceed to add explicit structural information into registration framework, using various types of structural information derived from the original intensity images. For the case of MR brain images, we augment each intensity image with its own set of tissue fraction images, plus intensity gradient images, which form an image ensemble for each example. Then, we perform groupwise registration by using these ensembles of images. We apply the method to four different real-world datasets, for which ground-truth annotation is available. It is shown that the method can give a greater than 25% improvement on the three difficult datasets, when compared to using intensity-based registration alone. On the easier dataset, it improves upon intensity-based registration, and achieves results comparable with the previous method.
940

Assimilation de données ensembliste et couplage de modèles hydrauliques 1D-2D pour la prévision des crues en temps réel. Application au réseau hydraulique "Adour maritime / Ensemblist data assimilation and 1D-2D hydraulic model coupling for real-time flood forecasting. Application to the "Adour maritime" hydraulic network

Barthélémy, Sébastien 12 May 2015 (has links)
Les inondations sont un risque naturel majeur pour les biens et les personnes. Prévoir celles-ci, informer le grand public et les autorités sont de la responsabilité des services de prévision des crues. Pour ce faire ils disposent d'observations in situ et de modèles numériques. Néanmoins les modèles numériques sont une représentation simplifiée et donc entachée d'erreur de la réalité. Les observations quant à elle fournissent une information localisée et peuvent être également entachées d'erreur. Les méthodes d'assimilation de données consistent à combiner ces deux sources d'information et sont utilisées pour réduire l'incertitude sur la description de l'état hydraulique des cours d'eau et améliorer les prévisisons. Ces dernières décennies l'assimilation de données a été appliquée avec succès à l'hydraulique fluviale pour l'amélioration des modèles et pour la prévision des crues. Cependant le développement de méthodes d'assimilation pour la prévision en temps réel est contraint par le temps de calcul disponible et par la conception de la chaîne opérationnelle. Les méthodes en question doivent donc être performantes, simples à implémenter et peu coûteuses. Un autre défi réside dans la combinaison des modèles hydrauliques de dimensions différentes développés pour décrire les réseaux hydrauliques. Un modèle 1D est peu coûteux mais ne permet pas de décrire des écoulement complexes, contrairement à un modèle 2D. Le simple chainage des modèles 1D et 2D avec échange des conditions aux limites n'assure pas la continuité de l'état hydraulique. Il convient alors de coupler les modèles, tout en limitant le coût de calcul. Cette thèse a été financée par la région Midi-Pyrénées et le SCHAPI (Service Central d'Hydrométéorolgie et d'Appui à la Prévisions des Inondations) et a pour objectif d'étudier l'apport de l'assimilation de données et du couplage de modèles pour la prévision des crues. Elle se décompose en deux axes : Un axe sur l'assimilation de données. On s'intéresse à l'émulation du filtre de Kalman d'Ensemble (EnKF) sur le modèle d'onde de crue. On montre, sous certaines hypothèses, qu'on peut émuler l'EnKF avec un filtre de Kalman invariant pour un coût de calcul réduit. Dans un second temps nous nous intéressons à l'application de l'EnKF sur l'Adour maritime avec un modèle Saint-Venant. Nous en montrons les limitations dans sa version classique et montrons les avantages apportés par des méthodes complémentaires d'inflation et d'estimation des covariances d'erreur d'observation. L'apport de l'assimilation des données in situ de hauteurs d'eau sur des cas synthétiques et sur des crues réelles a été démontré et permet une correction spatialisée des hauteurs d'eau et des débits. En conséquence, on constate que les prévisions à court terme sont améliorées. Nous montrons enfin qu'un système de prévisions probabilistes sur l'Adour dépend de la connaissance que l'on a des forçages amonts ; un axe sur le couplage de modèles hydrauliques. Sur l'Adour 2 modèles co-existent : un modèle 1D et un modèle 2D au niveau de Bayonne. Deux méthodes de couplage ont été implémentées. Une première méthode, dite de "couplage à interfaces", combine le 1D décomposé en sous-modèles couplés au 2D au niveau frontières liquides de ce dernier. Une deuxième méthode superpose le 1D avec le 2D sur la zone de recouvrement ; le 1D force le 2D qui, quand il est en crue, calcule les termes d'apports latéraux pour le 1D, modélisant les échanges entre lit mineur et lit majeur. Le coût de calcul de la méthode par interfaces est significativement plus élevé que celui associé à la méthode de couplage par superposition, mais assure une meilleure continuité des variables. En revanche, la méthode de superposition est immédiatement compatible avec l'approche d'assimilation de données sur la zone 1D. / Floods represent a major threat for people and society. Flood forecasting agencies are in charge of floods forecasting, risk assessment and alert to governmental authorities and population. To do so, flood forecasting agencies rely on observations and numerical models. However numerical models and observations provide an incomplete and inexact description of reality as they suffer from various sources of uncertianties. Data assimilation methods consists in optimally combining observations with models in order to reduce both uncertainties in the models and in the observations, thus improving simulation and forecast. Over the last decades, the merits of data assimilation has been greatly demonstrated in the field of hydraulics and hydrology, partly in the context of model calibration or flood forecasting. Yet, the implementation of such methods for real application, under computational cost constraints as well as technical constraints remains a challenge. An other challenge arises when the combining multidimensional models developed over partial domains of catchment. For instance, 1D models describe the mono-dimensional flow in a river while 2D model locally describe more complex flows. Simply chaining 1D and 2D with boundary conditions exchange does not suffice to guarantee the coherence and the continuity of both water level and discharge variables between 1D and 2D domains. The solution lies in dynamical coupling of 1D and 2D models, yet an other challenge when computational cost must be limited. This PhD thesis was funded by Midi-Pyrénées region and the french national agency for flood forecasting SCHAPI. It aims at demonstrating the merits of data assimilation and coupling methods for floof forecasting in the framework of operational application. This thesis is composed of two parts : A first part dealing with data assimilation. It was shown that, under some simplifying assumptions, the Ensemble Kalman filter algorithm (EnKF) can be emulated with a cheaper algorithm : the invariant Kalman filter. The EnKF was then implemented ovr the "Adour maritime" hydraulic network on top of the MASCARET model describing the shallow water equations. It was found that a variance inflation algorithm can further improve data assimlation results with the EnKF. It was shown on synthetical and real cases experiments that data assimilation provides an hydraulic state that is in great agreement with water level observations. As a consequence of the sequential correction of the hydraulic state over time, the forecasts were also greatly improved by data assimilation over the entire hydraulic network for both assimilated and nonassimilated variables, especially for short term forecasts. It was also shown that a probabilistic prediction system relies on the knowledge on the upstream forcings ; A second part focusses on hydraulic models coupling. While the 1D model has a great spatial extension and describes the mono-dimensional flow, the 2D model gives a focus on the Adour-Nive confluence in the Bayonne area. Two coupling methods have been implemented in this study : a first one based on the exchange of the state variables at the liquid boundaries of the models and a second one where the models are superposed. While simple 1D or chained 1D-2D solutions provide an incomplete or discontinuous description of the hydraulic state, both coupling methods provide a full and dynamically coherent description of water level and discharge over the entire 1D-2D domain. On the one hand, the interface coupling method presents a much higher computational cost than the superposition methods but the continuity is better preserved. On the other hand, the superposition methods allows to combine data assimilation of the 1D model and 1D-2D coupling. The positive impact of water level in-situ observations in the 1D domain was illustrated over the 2D domain for a flood event in 2014.

Page generated in 0.0588 seconds